인공지능은 자유의지를 가지고 있을까?
- 기술 / 문광주 기자 / 2025-05-27 11:53:31
5분 읽기
- ChatGPT와 AI 드론은 이미 기능적 자유 의지의 요건을 충족
- AI 모델은 독립적, 목표지향적 그리고 유연하다:.
- 인간은 스스로 자신의 내적 동기와 전체 목표를 개발하기 때문에 전체적 자유 의지 지녀
- AI 시스템에 더 많은 자유를 부여할수록 처음부터 도덕적 나침반을 제공하는 것 더욱 중요
인공지능은 빠른 속도로 발전하고 있다. GPT, Deepseek, Gemini, Claude 등과 같은 대규모 언어 모델(LLM)은 이미 복잡한 작업을 독립적으로 "사고"하고 하위 단계로 나눌 수 있는 "추론" 기능을 갖추고 있다. 이들은 거짓말을 하고, 사용자를 조종하고, 심지어 종료 명령을 창의적으로 우회할 수도 있다. 동시에, 놀라울 정도로 창의적이고 혁신적이며, 심지어 그들끼리 사회 사회의 선구자 역할을 할 수도 있다. AI 에이전트와 AI 제어 드론은 환경에 독립적으로 반응하고 행동을 조정할 수도 있다.
인간과 AI의 세 가지 기준
이는 다음과 같은 질문을 제기한다. 그러한 인공지능은 이미 자유 의지와 같은 것을 가지고 있을까? 그러기 위해서는 세 가지 조건을 충족해야 한다. 핀란드 알토 대학교의 심리학자이자 철학자인 프랭크 마르텔라는 "간단히 말해, 자유 의지는 주체가 내적 동기에 의해 주도되는 자율적인 결정에 따라 자신의 행동을 독립적으로 제어하는 것을 의미한다"고 설명했다. 따라서 외부 자극에 대한 단순한 자동적인 반응은 자유 의지가 아니다.
하지만 근본적으로 자유 의지의 존재 여부는 인간에게도 논란의 여지가 있다. 적어도 기능적인 자유의지는 가지고 있다는 데에는 의견이 일치한다. 구체적으로, 이는 다음과 같다. 외부에서 본 인간이나 AI의 행동이 세 가지 조건을 모두 충족하고 그 행동이 자유 의지로만 설명될 수 있다면, 비록 우리가 내부 과정을 알지 못하더라도 그들 역시 자유 의지를 가지고 있다고 가정해야 한다.
AI 에이전트와 AI 드론을 시험 사례로
그렇다면 AI는 어떨까? 현재의 생성 AI 모델은 독립적으로 목표를 추구하고 자율적인 결정을 내릴 수 있을까? 아니면 궁극적으로 단순한 자극-반응 패턴을 따르고 알고리즘적으로 확률을 평가하는 것일까요? 마르텔라는 두 가지 사례를 통해 이를 조사했다.
첫 번째 사례는 "마인크래프트" 게임 환경에서 특정 임무를 완수하는 ChatGPT-4 기반 AI 에이전트 "보이저"이다. 마르텔라는 "보이저의 아키텍처는 세 가지 핵심 구성 요소로 이루어져 있다. 첫 번째는 포괄적인 목표를 구체적인 작업과 단계로 세분화하는 계획 단위다"고 설명했다. "두 번째는 습득한 기술과 행동 패턴을 기억하는 기억 단위다. 세 번째는 환경의 변화와 피드백을 기록하고 평가하여 추가 행동을 위한 새로운 프롬프트를 생성하는 행동 단위다."
테스트에 사용된 두 번째 인공지능은 카메라와 센서가 장착된 자율 AI 드론으로, 특정 지역을 독립적으로 모니터링하고 적을 식별하여 공격할 수 있습니다. 마르텔라의 설명에 따르면 이러한 AI 드론은 2020년 리비아를 비롯한 여러 지역에 배치되었으며, 이스라엘에는 이미 이러한 시스템이 구축되어 있다. 이러한 드론은 본래 분류 대상이기 때문에, 그는 연구를 위해 "스파이테닉(Spitenik)"이라는 가상의 AI 드론을 고려했다. 이 드론의 성능은 현재 LLM(임상시험관리자격)을 갖춘 자율 드론과 동일하다.
독립적이고, 목표 지향적이며, 유연하다.
결과:
마르텔라는 "AI 드론 스파이테닉(Spitenik)과 AI 에이전트 보이저는 진정한 자유 의지를 가진 것처럼 정확하게 행동한다"고 보고했다. 예를 들어, 순찰 비행 중 AI 드론은 상황에 따라 언제 어디로 비행할지, 어떻게 탐지되지 않을지, 어떤 의심스러운 단서를 추적할지 독립적으로 결정한다. 드론은 온전한 상태를 유지하고 임무를 완수하려는 최우선적인 동기에 따라 움직인다.
AI 에이전트 보이저는 또한 특정 자극에 대한 경직된 반응을 넘어 상황에 따라 자유롭게 결정을 내릴 수 있다. 마르텔라는 "ChatGPT가 같은 질문에 항상 약간씩 다른 답을 제시하는 것처럼, 보이저도 매 비행마다 다른 경로와 목표를 따른다"고 설명했다. AI 에이전트는 전반적인 목표를 달성하기 위한 전략과 단계를 독립적으로 개발하고 이를 기반으로 구체적인 결정을 내린다.
지역적 자유 의지 vs. 전체적 자유 의지
마르텔라의 관점에서 두 AI 시스템 모두 기능적 자유 의지의 조건을 충족한다. 그러나 인간과 우리의 자유 의지 사이에는 여전히 한 가지 중요한 차이점이 있다. 인간은 여전히 이러한 AI 시스템의 포괄적인 목표를 명시한다. AI 드론의 경우, 이는 적을 감시하고 제거하는 것이지만, 마인크래프트 게임의 AI 에이전트는 주변 환경을 탐험하고, 활용하고, 기술적으로 개발하도록 설계되었다.
"따라서 이러한 AI 모델은 '지역적' 자유 의지만 가지고 있다고 주장할 수 있다. 즉, 스스로 하위 목표를 정의하고, 대안을 고려하고, 전체 목표의 경계 내에서 결정을 내릴 자유가 있다"고 마르텔라는 설명했다. 반면 인간은 스스로 자신의 내적 동기와 전체 목표를 개발하기 때문에 전체적 자유 의지를 가지고 있다.
인간과 AI의 차이는 점진적일 뿐일까?
하지만 연구자가 강조하듯이 이러한 구분은 처음 보이는 것만큼 명확하지 않다. 그는 "인간조차도 자신의 선호도와 목표를 완전히 통제할 수는 없다"고 주장한다. 우리 역시 유전자, 초기 경험, 그리고 사회문화적 영향에 의해 형성된다. "따라서 우리의 가치관, 목표, 그리고 욕망은 우리가 인지하거나 인정하고 싶은 것보다 훨씬 더 미리 결정되어 있다"고 마르텔라는 말했다.
그의 관점에서, 인공지능과 인간 사이의 차이, 특히 자유 의지의 측면에서의 차이는 명확한 구분보다는 점진적이다. "이것은 연속적인 현상이다"고 AI 연구자는 강조했다. "따라서 인간과 인공지능 사이의 차이는 점진적일 뿐이다. 인간은 현재 버전의 AI보다 전체적인 자유 의지에 더 가깝다. 하지만 이러한 격차는 가까운 미래에 좁혀질 것이다.“
도덕성의 문제
하지만 이것이 구체적으로 무엇을 의미할까? 그 결과는 무엇일까? 마르텔라가 강조하듯이, 이는 AI가 이미 진정한 의식을 가지고 있다는 것을 의미하지 않는다. 인공지능은 아직 공감이나 고통과 감정을 느끼는 능력과 같은 전형적인 인간적 특징을 가지고 있지 않다. "따라서 AI 시스템이 특정 권리와 도덕적 지위를 가진 인간으로 인정받을 수 있는지는 아직 논의의 여지가 없다. 이는 기능적 자유 의지 이상의 것을 요구한다"고 마르텔라는 설명했다.
"더 흥미로운 질문은 기능적 자유 의지를 가진 AI 모델이 자신의 결정에 대해 도덕적 책임을 질 수 있는지 여부다"고 연구자는 덧붙였다. 자유롭고 독립적으로 행동할 수 있는 능력은 종종 도덕적 책임의 전제 조건으로 간주된다. 인공지능이 자유롭게 결정하고 행동할 수 있다면, 인간에게 잠재적으로 위험한 부도덕한 행동의 위험 또한 더 커진다.
"우리는 여기서 미지의 영역에 진입하고 있다. AI 시스템에 더 많은 자유를 부여할수록 처음부터 도덕적 나침반을 제공하는 것이 더욱 중요해진다. 그래야만 AI는 올바른 결정을 내릴 수 있을 것이다"고 마르텔라는 강조했다.
참고: AI and Ethics, 2025; doi: 10.1007/s43681-025-00740-6)
출처: Aalto University
- ChatGPT와 AI 드론은 이미 기능적 자유 의지의 요건을 충족
- AI 모델은 독립적, 목표지향적 그리고 유연하다:.
- 인간은 스스로 자신의 내적 동기와 전체 목표를 개발하기 때문에 전체적 자유 의지 지녀
- AI 시스템에 더 많은 자유를 부여할수록 처음부터 도덕적 나침반을 제공하는 것 더욱 중요
인공지능은 자유 의지를 가지고 있을까요?
ChatGPT와 AI 드론은 이미 기능적 자유 의지의 요건을 충족한다.
단순히 프로그래밍된 것이 아니다. ChatGPT나 AI 드론과 같은 고급 인공지능은 이미 기능적 자유의지를 가지고 있다. 한 연구자가 밝힌 바와 같이, 이들의 행동은 세 가지 요건을 모두 충족한다. AI 에이전트의 행동은 포괄적인 목표에 따라 이루어지고, 상황에 따른 전략을 사용하여 목표를 달성하며, 독립적으로 결정을 내린다. 그러나 인간의 자유 의지와는 점진적이기는 하지만 여전히 차이점이 있다.
![]() |
▲ 인간과 인공지능의 차이는 이제 점진적으로 나타날지도 모른다. © Ismagilov/ Getty Images |
인공지능은 빠른 속도로 발전하고 있다. GPT, Deepseek, Gemini, Claude 등과 같은 대규모 언어 모델(LLM)은 이미 복잡한 작업을 독립적으로 "사고"하고 하위 단계로 나눌 수 있는 "추론" 기능을 갖추고 있다. 이들은 거짓말을 하고, 사용자를 조종하고, 심지어 종료 명령을 창의적으로 우회할 수도 있다. 동시에, 놀라울 정도로 창의적이고 혁신적이며, 심지어 그들끼리 사회 사회의 선구자 역할을 할 수도 있다. AI 에이전트와 AI 제어 드론은 환경에 독립적으로 반응하고 행동을 조정할 수도 있다.
인간과 AI의 세 가지 기준
이는 다음과 같은 질문을 제기한다. 그러한 인공지능은 이미 자유 의지와 같은 것을 가지고 있을까? 그러기 위해서는 세 가지 조건을 충족해야 한다. 핀란드 알토 대학교의 심리학자이자 철학자인 프랭크 마르텔라는 "간단히 말해, 자유 의지는 주체가 내적 동기에 의해 주도되는 자율적인 결정에 따라 자신의 행동을 독립적으로 제어하는 것을 의미한다"고 설명했다. 따라서 외부 자극에 대한 단순한 자동적인 반응은 자유 의지가 아니다.
하지만 근본적으로 자유 의지의 존재 여부는 인간에게도 논란의 여지가 있다. 적어도 기능적인 자유의지는 가지고 있다는 데에는 의견이 일치한다. 구체적으로, 이는 다음과 같다. 외부에서 본 인간이나 AI의 행동이 세 가지 조건을 모두 충족하고 그 행동이 자유 의지로만 설명될 수 있다면, 비록 우리가 내부 과정을 알지 못하더라도 그들 역시 자유 의지를 가지고 있다고 가정해야 한다.
AI 에이전트와 AI 드론을 시험 사례로
그렇다면 AI는 어떨까? 현재의 생성 AI 모델은 독립적으로 목표를 추구하고 자율적인 결정을 내릴 수 있을까? 아니면 궁극적으로 단순한 자극-반응 패턴을 따르고 알고리즘적으로 확률을 평가하는 것일까요? 마르텔라는 두 가지 사례를 통해 이를 조사했다.
첫 번째 사례는 "마인크래프트" 게임 환경에서 특정 임무를 완수하는 ChatGPT-4 기반 AI 에이전트 "보이저"이다. 마르텔라는 "보이저의 아키텍처는 세 가지 핵심 구성 요소로 이루어져 있다. 첫 번째는 포괄적인 목표를 구체적인 작업과 단계로 세분화하는 계획 단위다"고 설명했다. "두 번째는 습득한 기술과 행동 패턴을 기억하는 기억 단위다. 세 번째는 환경의 변화와 피드백을 기록하고 평가하여 추가 행동을 위한 새로운 프롬프트를 생성하는 행동 단위다."
테스트에 사용된 두 번째 인공지능은 카메라와 센서가 장착된 자율 AI 드론으로, 특정 지역을 독립적으로 모니터링하고 적을 식별하여 공격할 수 있습니다. 마르텔라의 설명에 따르면 이러한 AI 드론은 2020년 리비아를 비롯한 여러 지역에 배치되었으며, 이스라엘에는 이미 이러한 시스템이 구축되어 있다. 이러한 드론은 본래 분류 대상이기 때문에, 그는 연구를 위해 "스파이테닉(Spitenik)"이라는 가상의 AI 드론을 고려했다. 이 드론의 성능은 현재 LLM(임상시험관리자격)을 갖춘 자율 드론과 동일하다.
독립적이고, 목표 지향적이며, 유연하다.
결과:
마르텔라는 "AI 드론 스파이테닉(Spitenik)과 AI 에이전트 보이저는 진정한 자유 의지를 가진 것처럼 정확하게 행동한다"고 보고했다. 예를 들어, 순찰 비행 중 AI 드론은 상황에 따라 언제 어디로 비행할지, 어떻게 탐지되지 않을지, 어떤 의심스러운 단서를 추적할지 독립적으로 결정한다. 드론은 온전한 상태를 유지하고 임무를 완수하려는 최우선적인 동기에 따라 움직인다.
AI 에이전트 보이저는 또한 특정 자극에 대한 경직된 반응을 넘어 상황에 따라 자유롭게 결정을 내릴 수 있다. 마르텔라는 "ChatGPT가 같은 질문에 항상 약간씩 다른 답을 제시하는 것처럼, 보이저도 매 비행마다 다른 경로와 목표를 따른다"고 설명했다. AI 에이전트는 전반적인 목표를 달성하기 위한 전략과 단계를 독립적으로 개발하고 이를 기반으로 구체적인 결정을 내린다.
지역적 자유 의지 vs. 전체적 자유 의지
마르텔라의 관점에서 두 AI 시스템 모두 기능적 자유 의지의 조건을 충족한다. 그러나 인간과 우리의 자유 의지 사이에는 여전히 한 가지 중요한 차이점이 있다. 인간은 여전히 이러한 AI 시스템의 포괄적인 목표를 명시한다. AI 드론의 경우, 이는 적을 감시하고 제거하는 것이지만, 마인크래프트 게임의 AI 에이전트는 주변 환경을 탐험하고, 활용하고, 기술적으로 개발하도록 설계되었다.
"따라서 이러한 AI 모델은 '지역적' 자유 의지만 가지고 있다고 주장할 수 있다. 즉, 스스로 하위 목표를 정의하고, 대안을 고려하고, 전체 목표의 경계 내에서 결정을 내릴 자유가 있다"고 마르텔라는 설명했다. 반면 인간은 스스로 자신의 내적 동기와 전체 목표를 개발하기 때문에 전체적 자유 의지를 가지고 있다.
인간과 AI의 차이는 점진적일 뿐일까?
하지만 연구자가 강조하듯이 이러한 구분은 처음 보이는 것만큼 명확하지 않다. 그는 "인간조차도 자신의 선호도와 목표를 완전히 통제할 수는 없다"고 주장한다. 우리 역시 유전자, 초기 경험, 그리고 사회문화적 영향에 의해 형성된다. "따라서 우리의 가치관, 목표, 그리고 욕망은 우리가 인지하거나 인정하고 싶은 것보다 훨씬 더 미리 결정되어 있다"고 마르텔라는 말했다.
그의 관점에서, 인공지능과 인간 사이의 차이, 특히 자유 의지의 측면에서의 차이는 명확한 구분보다는 점진적이다. "이것은 연속적인 현상이다"고 AI 연구자는 강조했다. "따라서 인간과 인공지능 사이의 차이는 점진적일 뿐이다. 인간은 현재 버전의 AI보다 전체적인 자유 의지에 더 가깝다. 하지만 이러한 격차는 가까운 미래에 좁혀질 것이다.“
도덕성의 문제
하지만 이것이 구체적으로 무엇을 의미할까? 그 결과는 무엇일까? 마르텔라가 강조하듯이, 이는 AI가 이미 진정한 의식을 가지고 있다는 것을 의미하지 않는다. 인공지능은 아직 공감이나 고통과 감정을 느끼는 능력과 같은 전형적인 인간적 특징을 가지고 있지 않다. "따라서 AI 시스템이 특정 권리와 도덕적 지위를 가진 인간으로 인정받을 수 있는지는 아직 논의의 여지가 없다. 이는 기능적 자유 의지 이상의 것을 요구한다"고 마르텔라는 설명했다.
"더 흥미로운 질문은 기능적 자유 의지를 가진 AI 모델이 자신의 결정에 대해 도덕적 책임을 질 수 있는지 여부다"고 연구자는 덧붙였다. 자유롭고 독립적으로 행동할 수 있는 능력은 종종 도덕적 책임의 전제 조건으로 간주된다. 인공지능이 자유롭게 결정하고 행동할 수 있다면, 인간에게 잠재적으로 위험한 부도덕한 행동의 위험 또한 더 커진다.
"우리는 여기서 미지의 영역에 진입하고 있다. AI 시스템에 더 많은 자유를 부여할수록 처음부터 도덕적 나침반을 제공하는 것이 더욱 중요해진다. 그래야만 AI는 올바른 결정을 내릴 수 있을 것이다"고 마르텔라는 강조했다.
참고: AI and Ethics, 2025; doi: 10.1007/s43681-025-00740-6)
출처: Aalto University
[더사이언스플러스=문광주 기자]
[ⓒ the SCIENCE plus. 무단전재-재배포 금지]