인간이 슈퍼 AI(인공지능)를 제어할 수 있을까?

Business News / 문광주 기자 / 2021-01-24 21:49:32
(3분 읽기)
- 사람들이 개입하기 전에 결정을 내리는 속도 때문에 사람을 죽이거나 전쟁을 시작할 수
있는 자율 무기와 관련해 이미 논의 중
- 자가 학습 초지능 AI시스템을 완전히 감독하는 것은 불가능할 수 있다.
- 기본 수학적 한계가 있다.

디지털 슈퍼 지능을 제어할 수 있을까?
미래의 자가 학습 AI 시스템은 프로그래밍 측면에서 제어 불가능할 수 있다.


통제 불능 :
통제 불가능하고 인간에게 피해를 주는 인공 지능의 공상 과학 시나리오는 얼마나 현실적일까? 실제로 컴퓨터 과학자들에 따르면 자가 학습 초지능 AI시스템을 완전히 감독하는 것은 불가능할 수 있다. 특수 보호 알고리즘에 의한 제어조차도 프로그래밍 상의 이유로 비효율적일 것이다. 

▲ 인류가 초 지능 AI를 제어할 수 있을까?

인공 지능은 빠르게 발전하고 있다.
신경망과 적응 알고리즘 덕분에 AI 시스템은 이미 자율 ​​주행 차량을 제어하고 질병을 진단하며 복잡한 단백질 구조를 해독하고 있다. 자전거 타기, 포커 게임 및 전략 게임조차도 오늘날 이미 적응형 기계 두뇌를 습득 할 수 있다. 때로는 우리 인간보다 더 낫다. 동시에 그들의 결정은 때때로 예상보다 덜 객관적이다.

슈퍼 AI가 곧 출시 될까?

이것은 이 발전이 얼마나 멀리 갈 것인지에 대한 의문이 제기된다.
인간보다 우월한 인공 지능(AI)이 존재할까? 인터넷에 연결된 AI는 모든 인간 데이터에 액세스 할 수 있으며 기존의 모든 프로그램을 대체하고 인터넷에 연결된 모든 기계를 제어 할 수 있다. 그런 인공 지능 시스템이 암을 치료하고 세계 평화를 가져오고 기후 재앙을 예방할 수 있을까? 아니면 인류를 파괴하고 지구를 장악할까?

막스 플랑크 인간 개발 연구소의 공동 저자 마누엘 세브리안(Manuel Cebrian)은 “세계를 제어하는 ​​초지능 기계는 공상 과학 소설처럼 들린다. 그러나 오늘날에도 특정 중요한 작업을 독립적으로 수행하는 기계가 있다. 프로그래밍한 사람이 학습 방법을 완전히 이해하지 못하고 있다. 따라서 이것이 언젠가 인류가 통제할 수 없고 위험해질 수 있는지에 대한 의문이 제기된다."

이것은 사람들이 개입하기 전에 결정을 내리는 속도 때문에 사람을 죽이거나 전쟁을 시작할 수 있는 자율 무기와 관련해 이미 논의되고 있다.

규칙에 따라 잠그거나 제어할 수 있을까?

마드리드 아우토노마 대학교의 마누엘 세브리안(Manuel Cebrian)과 제1저자 마우엘 알폰세카(Manuel Alfonseca)동료들은 이론적으로 슈퍼 AI를 제어 할 수 있는지 여부와 방법을 연구했다.

이에 따르면 디지털 초지능을 제어하는 ​​데는 두 가지 기본 접근 방식이 있다.
하나는 리소스를 인터넷 및 기타 장치에서 격리하여 외부 세계와 접촉하지 못하도록 의도적으로 제한할 수 있다. 그러나 이것은 또한 초지능 AI의 기능이 상당히 낮아질 것이라는 것을 의미한다. 이런 식으로 인류의 큰 문제를 해결하지 못할 것이다.

다른 옵션은 예를 들어 윤리 규칙을 프로그래밍하여 AI가 처음부터 인류의 이익을 위한 목표만을 추구하도록 동기를 부여하는 것이다.
이러한 규칙의 잘 알려진 예는 아이작 아시모브(Isaac Asimov)의 세 가지 로봇 법칙이다.

요컨대 로봇은 사람을 해쳐서는 안되며, 명령이 규칙 1을 어기는 경우를 제외하고는 사람에게 복종해야 한다고 말한다. 그리고 로봇은 규칙 1과 2에 위배되지 않는 한 스스로를 보호해야 한다.

그러나 문제는 이러한 규칙이 간단한 알고리즘에는 적합하지만 자기 학습, 초지능 AI에는 적합하지 않다는 것이다.
연구진은 "이러한 초지능은 인간이 이해할 수 없고 확실히 통제할 수 없는 목표를 달성하기 위해 다양한 자원을 동원할 수 있기 때문"이라고 설명했다.

▲ 로봇은 사람을 해쳐서는 안되며, 명령이 규칙 1을 어기는 경우를 제외하고는 사람에게 복종해야 한다고 말한다.

그리고 로봇은 규칙 1과 2에 위배되지 않는 한 스스로를 보호해야 한다.


제어 알고리즘이 자체적으로 중지됨

Alfonseca와 그의 팀은 예제를 통해 문제가 실제로 어디에 있는지 설명했다.
그들은 초지능 AI가 어떤 상황에서도 인류에게 해를 끼치지 않도록 하는 이론적 알고리즘을 설계하고 있다. 이를 위해 이 알고리즘은 먼저 AI의 동작을 이해하고 일종의 드라이런에서 그 동작이 해로운지 여부를 알아 내야 한다. 이 경우 AI를 중지하는 두 번째 서브 루틴이 이어진다.

그러나 실제로 이 원칙은 한계에 도달한다.
“이론적인 컴퓨터 과학의 간단한 기본 규칙으로 문제를 쪼개면 AI가 세상을 파괴하지 않도록 명령하는 알고리즘이 실수로 자체 프로세스를 중단시키는 것으로 나타났다. 가져올 수 있다.”라고 Cebrian의 동료 이야드 라흐반(Iyad Rahwan)은 설명한다. "그러면 이 알고리즘을 거의 사용할 수 없게된다."

“기본 수학적 한계”

그들의 계산을 바탕으로 과학자들은 AI가 세상에 해를 끼칠지 여부를 인식하고 여전히 작동하는지 여부를 인식하는 알고리즘을 프로그래밍할 수 없다는 결론에 도달한다.
"무위험 코스에서 두 번째를 유지하기 위해 하나의 AI 시스템을 사용하는 데는 기본적인 수학 제한이 있다"고 그들은 설명했다.

또한 우리는 기계가 초지능인지조차 알지 못할 것이다. 그러한 AI의 지능이 인간보다 우월한지는 현재의 지식으로 계산할 수 없기 때문이다.
(Journal of Artificial Intelligence Research, 2021; doi : 10.1613 / jair.1.12202)

출처 : Max Planck Institute for Human Development, Berlin

[더사이언스플러스=문광주 기자] "no science, no future"

[ⓒ the SCIENCE plus. 무단전재-재배포 금지]