AI가 우리의 자아상을 어떻게 변화시키는가

기술 / 문광주 기자 / 2025-10-30 16:29:52
5분 읽기
- 우리는 보통 자신을 지능과 능력 면에서 평균보다 더 뛰어나다고 생각한다
- 더닝-크루거 효과: 이 현상은 특히 유능하지 않고 지식이 부족한 사람들에게서 두드러져
- ChatGPT를 비롯한 인공지능은 도움이 되지만, 동시에 우리의 자기 평가를 왜곡
- "현재의 AI 도구는 실수로부터 학습하도록 유도하지 않고, 오히려 메타인지를 약화시킨다"

AI가 우리의 자아상을 어떻게 변화시키는가?
인공지능은 더닝-크루거 효과를 뒤집는다


AI 때문에 더 멍청해졌을까? ChatGPT를 비롯한 인공지능은 도움이 되지만, 동시에 우리의 자기 평가를 왜곡하기도 한다. 우리는 스스로를 실제보다 더 뛰어나고 유능하다고 생각한다. 그러나 놀랍게도, 한 실험 결과에 따르면 이러한 과대평가는 AI 기술이 뛰어난 사람들 사이에서 가장 강하게 나타난다. AI는 일종의 역더닝-크루거 효과를 만들어낸다. 두 번째 연구에서는 AI 요약과 구글 검색 결과가 우리의 학습 성공에 어떤 영향을 미치는지 조사했다. 

▲ 인공지능은 특히 AI에 경험이 있는 사람들이 자신의 능력을 과대평가하도록 유혹하는데, 이는 더닝-크루거 효과를 역전시키는 결과를 초래한다. © ismagilov/ Getty Images

인간은 본능적으로 스스로를 과대평가하는 경향이 있다. 우리는 보통 자신을 지능과 능력 면에서 평균보다 더 뛰어나다고 생각한다. 역설적으로, 이러한 현상은 특히 유능하지 않고 지식이 부족한 사람들에게서 두드러진다. 심리학자들은 이를 발견자들의 이름을 따서 더닝-크루거 효과(Dunning-Krugger-Effect)라고 부른다. 미시간 대학교의 데이비드 더닝은 "무능한 사람들은 종종 부적절한 자신감을 가지고 있다"며 "자신의 무능함을 인식하려면 자신에게 부족한 지식을 정확히 알고 있어야 하기 때문이다"고 설명했다.

AI 지원 여부에 따른 과제 테스트

하지만 인공지능과의 상호작용은 우리의 자기 평가에 어떤 영향을 미칠까? AI가 우리의 메타인지 능력을 강화할까? 아니면 ChatGPT와 같은 도구를 사용하면 자신의 한계를 덜 인식하게 될까? 핀란드 알토 대학교의 다니엘라 페르난데스(Daniela Fernandes)와 그녀의 동료들은 바로 이 질문을 연구했다. 연구팀은 "AI의 도움을 받아 과제를 해결할 때 사람들이 자신의 수행 능력을 얼마나 잘 평가하는지 알고 싶었다"고 설명했다.

이 실험에서 약 500명의 참가자는 각각 어려운 논리 문제로 유명한 미국 로스쿨 입학시험(LSAT)에서 20개의 문제를 받았다. 참가자의 절반은 ChatGPT를 문제 해결 도구로 사용할 수 있었고, 나머지 절반은 사용하지 않았다. 페르난데스의 동료인 로빈 웰쉬는 "이러한 과제는 진정한 인지적 도전이다. 따라서 오늘날에는 AI를 활용하여 과제를 해결하는 것이 일반적이다"고 말했다. 각 과제가 끝난 후 참가자들에게 자신의 성과를 평가하도록 요청했다.

결과에 따르면 AI를 사용할 수 있었던 참가자들은 예상대로 시험에서 다소 더 나은 성적을 거두었지만, 스스로 예상했던 것만큼 유의미하지는 않았다. 페르난데스와 동료들은 "시험 성적은 대조군에 비해 3점 향상되었지만, AI 그룹의 피험자들은 자신의 성과를 4점 과대평가했다"고 보고했다. 따라서 이러한 과대평가 경향은 AI 사용으로 인해 상당히 악화되었다.
▲ 더닝-크루거 효과에 따르면, 유능한 사람들은 무능한 사람들보다 자신을 과대평가할 가능성이 적다.© Author:Phlsph7 CC-by 4.0;

역설적 효과: AI 역량은 과신을 조장한다.

하지만 놀라운 결과는 피험자들이 인공지능에 더 익숙하고 기술 지식이 많을수록 과신이 더욱 심해졌다는 것이다. 웰쉬는 "AI 역량을 갖춘 사람들은 AI 시스템을 더 잘 사용할 수 있을 뿐만 아니라, 인공지능의 성능과 이를 사용할 때 자신의 성과를 더 잘 평가할 수 있어야 하지만, 실제로는 그렇지 않았다"고 말했다.
대신, 더닝-크루거 효과의 역전이 관찰되었다. 아이러니하게도, 인공지능의 약점과 한계를 가장 잘 알아야 할 사람들이 ChatGPT를 사용했을 때 자신과 자신의 결과를 상당히 과대평가했다. 웰쉬는 "AI 역량이 향상될수록 자신감이 높아진다는 것은 정말 놀라운 일이다"고 말했다.

"정말 놀라운 효과다." 맹목적 신뢰와 인지적 오프로딩(Offloading)

그렇다면 그 이면에는 무엇이 있을까? 피험자들이 ChatGPT와 상호작용하는 방식이 초기 단서를 제공했다. 웰쉬는 "AI와 상호작용은 일반적으로 과제당 한 번만 이루어졌다"고 보고했다. 피험자들은 일반적으로 과제 텍스트를 ChatGPT의 프롬프트 필드에 복사한 다음 AI가 제공한 답변을 받아들였다. 연구진이 관찰한 바와 같이, 질문을 하거나 추가 검증을 수행하지 않았다.

"사람들은 AI에 대해 깊이 생각하지 않고 AI가 과제를 제대로 해결해 줄 것이라고 생각했다"고 연구원은 설명한다. "실험 대상자들은 AI 시스템을 맹목적으로 신뢰하고 모든 사고 과정을 ChatGPT에 맡겼다. 저희는 이를 인지적 오프로딩이라고 부른다." 그러나 이러한 행동은 AI에 능숙한 사람조차도 과제의 난이도와 해결책의 성공률을 현실적으로 평가하는 것을 거의 불가능하게 만든다.

AI가 우리를 더 멍청하게 만들고 있을까?

연구진에 따르면, 이번 연구 결과는 인공지능 사용이 우리의 지적 게으름을 조장한다는 가정을 뒷받침한다. 우리는 ChatGPT와 같은 도구에 점점 더 의존하고 있으며, AI의 답변에 의문을 제기하거나 스스로 작업에 더 깊이 관여하는 데 너무 익숙해져 있는 경우가 많다. 페르난데스는 "현재의 AI 도구는 실수로부터 학습하도록 유도하지 않고, 오히려 메타인지를 약화시킨다"고 말했다.

이러한 결과는 일상생활에서 인공지능에 맹목적으로 의존하는 것이 오히려 "어리석어지는" 결과를 초래할 수 있다는 증거가 점차 늘어나고 있음을 뒷받침한다. 페르난데스는 "우리의 자기 성찰 과정을 장려하는 AI 플랫폼을 개발해야 한다"고 말한다. "예를 들어, AI가 사용자에게 특정 해결책을 어떻게 도출했는지 설명할 수 있는지 질문할 수 있다." 그렇지 않으면 비판적 사고와 자기 평가가 더욱 약화될 위험이 있다.

AI 요약 vs. 구글 검색

인공지능 학습에 대한 최근 두 번째 연구에서도 비슷한 결과가 나타났다. 펜실베이니아 대학교의 시리 멜루마드(Shiri Melumad)와 윤진호(Yun Jin Ho)는 연구에서 AI가 생성한 요약을 활용한 학습과 기존 구글 검색을 비교했다. 수천 명의 참가자에게 채소밭 가꾸기부터 금융 사기, 건강한 생활까지 일곱 가지 주제에 대한 정보를 조사하도록 했다. 그리고 이 주제에 대한 자기계발서를 직접 작성했다.

결과:
멜루마드와 윤은 "LLM 요약을 사용하여 학습한 사람들은 더 짧고, 정보가 부족하고, 독창적이지 않으며, 도움이 덜 된 텍스트를 작성했다"고 보고했다. 전반적으로 AI로 학습한 참가자들은 독립적인 사고와 노력이 부족했다.

연구진은 "LLLM(대규모 언어 모델)은 분명히 효율적이지만, 미리 생성된 요약에 의존하면 학습이 능동적인 검색에서 수동적인 정보 소비로 변질된다"고 경고했다.

참고: Computers in Human Behavior, 2025; doi: 10.1016/j.chb.2025.108779; PNAS Nexus, 2025; doi: 10.1093/pnasnexus/pgaf316
출처: Aalto University, Computers in Human Behavior

[더사이언스플러스=문광주 기자]

[ⓒ the SCIENCE plus. 무단전재-재배포 금지]