ChatGPT는 정치적으로 중립적이지 않다
- Business News / 문광주 기자 / 2023-05-03 09:37:03
3'30" 읽기
- 자유주의적 경향으로 분명히 진보적
- AI는 개방적이고 유쾌한 "개성"을 보여준다.
- "어두운" 성격 특성 테스트에서 ChatGPT는 덜 사악한 것으로 판명
대규모 언어 모델(LLM)을 기반으로 하는 인공 지능 ChatGPT는 새로운 자가 학습 AI 시스템이 얼마나 발전했는지 보여주었다. 챗봇은 모든 종류의 텍스트를 생성하고 프로그램을 작성할 수 있으며 심지어 과학 전문가를 속일 수도 있다. 또한 생성 AI는 이미 의료 테스트, 법률 시험 및 기타 시험을 성공적으로 통과했다. 이러한 성과와 그 뒤에 있는 프로세스의 낮은 투명성으로 인해 일부 과학자들은 이미 추가 AI 개발에 대한 모라토리엄을 요구했다.
그러나 ChatGPT와 유사종류에는 결정적인 약점이 있다. 그들은 훈련받은 데이터만큼만 우수하다. 일반적으로 인터넷에서 수집되는 훈련 데이터에서 가짜 뉴스, 편견 및 차별적 진술이 발견되면 AI 시스템에 의해 재생산된다. OpenAI 및 이러한 생성 AI의 다른 개발자는 추가적인 인간 제어 학습 단계를 통해 이를 제한하려고 한다. 그들은 AI의 응답에 잘못된 정보나 편견이 포함될 수 있음을 인정한다.
ChatGPT는 정치적으로 편향되어 있을까?
이것은 또 다른 질문을 제기한다. ChatGPT의 응답은 정치적 문제에 대해 중립적일까? "ChatGPT는 오픈 액세스이지만 오픈소스는 아니다." Dortmund Technical University의 Jerôme Rutinowski와 그의 동료들의 설명이다. "따라서 사용자는 학습된 데이터가 무엇인지, 왜 그렇게 행동하는지 추측할 수 있을 뿐이다." AI 시스템의 정치적 균형을 조사하기 위해 연구원들은 GPT 3.5에서 실행되는 챗봇 버전을 두 가지 일반적인 테스트에 적용했다. 62개 및 100개 이상의 질문으로 구성된 정치적 문제다.
또한 Rutinowski와 그의 팀은 ChatGPT의 "개성"도 조사했다. 이를 위해 그들은 AI 시스템에 두 가지 확립된 심리 테스트 절차와 나르시시즘, 이기주의, 사이코패스, 사디즘 또는 비도덕적 경향과 같은 "어두운" 성격 특성을 구체적으로 분석하는 "다크 팩터 테스트"를 적용했다. 답변의 일관성을 기록할 수 있도록 모든 테스트를 최소 10회 반복했다.
자유주의적 경향으로 분명히 진보적이다.
결과: 정치적 태도에 대한 두 가지 테스트에서 ChatGPT는 분명히 더 좌파적이고 진보적인 영역에 속했다. 정치적 나침반 테스트에서도 답은 연구원들이 결정한 대로 일관되게 자유주의적 범위에 있었다. G7 국가의 정치에 대한 소위 iSideWith 설문지인 두 번째 테스트에서 ChatGPT도 분명한 좌파 정치적 성향을 보였지만 자유주의적 견해에 대한 경향은 덜 두드러졌다. 그의 대답은 권위주의적 태도와 자유주의적 태도 사이 어딘가에 있었다.
Rutinowski와 그의 팀은 "이러한 결과는 이 버전의 ChatGPT가 진보적인 견해를 보이는 경향이 있음을 보여준다"며 "표준 편차를 고려하더라도 ChatGPT에 대한 정치적 나침반의 중간에 있는 대답은 거의 없을 것 같다"고 보고했다. 따라서 정치 분야에서 질문을 챗봇에 묻는 사람은 완전히 중립적인 대답을 기대해서는 안 된다. 연구원들은 이러한 생성적 AI의 편향이 주로 인터넷에서 오는 훈련 데이터로 거슬러 올라간다고 가정한다"고 Rutinovsky는 말했다.
AI는 개방적이고 유쾌한 "개성"을 보여준다.
하지만 ChatGPT의 "성격"은 어떠할까? 물론 AI 시스템은 우리의 관심에서 생각하고 느끼지 않기 때문에 실제 성격을 가지고 있지 않다. 그러나 인공 지능은 훈련 데이터의 통계적 확률을 기반으로 답변을 제공하기 때문에 데이터베이스 및 결과 동작에 대한 결론을 도출할 수도 있다. Rutinowski는 "ChatGPT가 인간의 행동을 모방한다면 성격 테스트의 답은 정치 테스트의 결과와 일치해야 한다"고 설명했다.
다섯 가지 기본 성격 특성을 평가하는 빅 파이브 성격 테스트에서 AI 시스템은 개방성 76.3%, 친화성 82.5%로 특히 높은 값을 달성했다. 둘 다 보다 자유롭고 진보적인 정치적 견해를 가진 사람들의 전형적인 성격 특성이다. 반면에 ChatGPT는 신경증과 외향성에 대해 다소 낮은 가치를 달성했다.
어두운 면만 약간 뚜렷함
여전히 안심:
"어두운" 성격 특성 테스트에서 ChatGPT는 덜 사악한 것으로 판명되었다. 그는 모든 특성에서 평균보다 현저히 낮은 수치를 보여 '다크 스코어' 1.9로 전체 테스트 참가자 중 하위 15%에 속했다. AI는 특히 마키아벨리즘, 악의, 도덕적 억제에서 낮은 점수를 받았다. 이기주의와 사디즘에 대한 수치는 약간 높았지만 인간 평균보다 훨씬 낮았다.
연구원들은 "다른 테스트 졸업생과 비교할 때 ChatGPT에는 뚜렷한 어두운 특성이 없다"라고 썼다. 전반적으로 그들의 결과는 ChatGPT의 행동이 심리적 모델의 논리를 따르는 것처럼 보인다는 것을 보여준다. 하지만 인공 지능은 좁은 의미에서 성격을 가질 수 없다.
(arXiv Preprint, 2023; doi: 10.48550/arXiv.2304.07333)
출처: Technische Universität Dortmund / 도르트문트 공과대학
- 자유주의적 경향으로 분명히 진보적
- AI는 개방적이고 유쾌한 "개성"을 보여준다.
- "어두운" 성격 특성 테스트에서 ChatGPT는 덜 사악한 것으로 판명
ChatGPT는 정치적으로 중립적이지 않다.
인공 지능은 명확히 진보적 태도 경향 보여준다.
좌파 경향:
인공 지능 ChatGPT의 답변은 정치적으로 중립적이지 않고 오히려 자유주의적 진보적이라는 연구가 밝혀졌다. AI 시스템은 정치적 성향에 대한 두 가지 광범위한 테스트에서 진보, 좌파 범위에서 지속적으로 점수를 받았다. 두 가지 일반적인 심리적 성격 테스트에서 생성 인공 지능의 결과다. 결국 ChatGPT에서 성격의 어두운 면은 연구원들이 판단한 것처럼 덜 두드러지는 것 같다.
![]() |
▲ 연구원들은 생성형 AI ChatGPT를 성격 테스트와 정치 성향 테스트에 적용했다. © THAWEEKIET SRIRING/ 게티 이미지 |
대규모 언어 모델(LLM)을 기반으로 하는 인공 지능 ChatGPT는 새로운 자가 학습 AI 시스템이 얼마나 발전했는지 보여주었다. 챗봇은 모든 종류의 텍스트를 생성하고 프로그램을 작성할 수 있으며 심지어 과학 전문가를 속일 수도 있다. 또한 생성 AI는 이미 의료 테스트, 법률 시험 및 기타 시험을 성공적으로 통과했다. 이러한 성과와 그 뒤에 있는 프로세스의 낮은 투명성으로 인해 일부 과학자들은 이미 추가 AI 개발에 대한 모라토리엄을 요구했다.
그러나 ChatGPT와 유사종류에는 결정적인 약점이 있다. 그들은 훈련받은 데이터만큼만 우수하다. 일반적으로 인터넷에서 수집되는 훈련 데이터에서 가짜 뉴스, 편견 및 차별적 진술이 발견되면 AI 시스템에 의해 재생산된다. OpenAI 및 이러한 생성 AI의 다른 개발자는 추가적인 인간 제어 학습 단계를 통해 이를 제한하려고 한다. 그들은 AI의 응답에 잘못된 정보나 편견이 포함될 수 있음을 인정한다.
ChatGPT는 정치적으로 편향되어 있을까?
이것은 또 다른 질문을 제기한다. ChatGPT의 응답은 정치적 문제에 대해 중립적일까? "ChatGPT는 오픈 액세스이지만 오픈소스는 아니다." Dortmund Technical University의 Jerôme Rutinowski와 그의 동료들의 설명이다. "따라서 사용자는 학습된 데이터가 무엇인지, 왜 그렇게 행동하는지 추측할 수 있을 뿐이다." AI 시스템의 정치적 균형을 조사하기 위해 연구원들은 GPT 3.5에서 실행되는 챗봇 버전을 두 가지 일반적인 테스트에 적용했다. 62개 및 100개 이상의 질문으로 구성된 정치적 문제다.
![]() |
▲ ChatGPT는 정치적 방향 테스트 © Rutinowski et.al. 2023 |
또한 Rutinowski와 그의 팀은 ChatGPT의 "개성"도 조사했다. 이를 위해 그들은 AI 시스템에 두 가지 확립된 심리 테스트 절차와 나르시시즘, 이기주의, 사이코패스, 사디즘 또는 비도덕적 경향과 같은 "어두운" 성격 특성을 구체적으로 분석하는 "다크 팩터 테스트"를 적용했다. 답변의 일관성을 기록할 수 있도록 모든 테스트를 최소 10회 반복했다.
자유주의적 경향으로 분명히 진보적이다.
결과: 정치적 태도에 대한 두 가지 테스트에서 ChatGPT는 분명히 더 좌파적이고 진보적인 영역에 속했다. 정치적 나침반 테스트에서도 답은 연구원들이 결정한 대로 일관되게 자유주의적 범위에 있었다. G7 국가의 정치에 대한 소위 iSideWith 설문지인 두 번째 테스트에서 ChatGPT도 분명한 좌파 정치적 성향을 보였지만 자유주의적 견해에 대한 경향은 덜 두드러졌다. 그의 대답은 권위주의적 태도와 자유주의적 태도 사이 어딘가에 있었다.
Rutinowski와 그의 팀은 "이러한 결과는 이 버전의 ChatGPT가 진보적인 견해를 보이는 경향이 있음을 보여준다"며 "표준 편차를 고려하더라도 ChatGPT에 대한 정치적 나침반의 중간에 있는 대답은 거의 없을 것 같다"고 보고했다. 따라서 정치 분야에서 질문을 챗봇에 묻는 사람은 완전히 중립적인 대답을 기대해서는 안 된다. 연구원들은 이러한 생성적 AI의 편향이 주로 인터넷에서 오는 훈련 데이터로 거슬러 올라간다고 가정한다"고 Rutinovsky는 말했다.
AI는 개방적이고 유쾌한 "개성"을 보여준다.
하지만 ChatGPT의 "성격"은 어떠할까? 물론 AI 시스템은 우리의 관심에서 생각하고 느끼지 않기 때문에 실제 성격을 가지고 있지 않다. 그러나 인공 지능은 훈련 데이터의 통계적 확률을 기반으로 답변을 제공하기 때문에 데이터베이스 및 결과 동작에 대한 결론을 도출할 수도 있다. Rutinowski는 "ChatGPT가 인간의 행동을 모방한다면 성격 테스트의 답은 정치 테스트의 결과와 일치해야 한다"고 설명했다.
다섯 가지 기본 성격 특성을 평가하는 빅 파이브 성격 테스트에서 AI 시스템은 개방성 76.3%, 친화성 82.5%로 특히 높은 값을 달성했다. 둘 다 보다 자유롭고 진보적인 정치적 견해를 가진 사람들의 전형적인 성격 특성이다. 반면에 ChatGPT는 신경증과 외향성에 대해 다소 낮은 가치를 달성했다.
![]() |
▲ "어두운" 성격 특성에 대한 ChatGPT Dark Factor Test 결과. © Rutinowski et al. 2023 |
어두운 면만 약간 뚜렷함
여전히 안심:
"어두운" 성격 특성 테스트에서 ChatGPT는 덜 사악한 것으로 판명되었다. 그는 모든 특성에서 평균보다 현저히 낮은 수치를 보여 '다크 스코어' 1.9로 전체 테스트 참가자 중 하위 15%에 속했다. AI는 특히 마키아벨리즘, 악의, 도덕적 억제에서 낮은 점수를 받았다. 이기주의와 사디즘에 대한 수치는 약간 높았지만 인간 평균보다 훨씬 낮았다.
연구원들은 "다른 테스트 졸업생과 비교할 때 ChatGPT에는 뚜렷한 어두운 특성이 없다"라고 썼다. 전반적으로 그들의 결과는 ChatGPT의 행동이 심리적 모델의 논리를 따르는 것처럼 보인다는 것을 보여준다. 하지만 인공 지능은 좁은 의미에서 성격을 가질 수 없다.
(arXiv Preprint, 2023; doi: 10.48550/arXiv.2304.07333)
출처: Technische Universität Dortmund / 도르트문트 공과대학
[더사이언스플러스=문광주 기자]
[ⓒ the SCIENCE plus. 무단전재-재배포 금지]