양자 컴퓨터 균열 버그 문제 개선 (영상)

기술 / 문광주 기자 / 2023-02-24 11:44:46
3'50" 읽기 + 4'00" 영상
증가하는 큐비트 수에 따라 확장하는 것보다 더 많은 오류를 포착

양자 컴퓨터 균열 버그 문제 개선
오류 수정을 통해 스케일링에도 불구하고 처음으로 오류율 감소 가능


확장에도 불구하고 오류 감소:
Google 연구원은 중요한 임계값을 넘는 양자 컴퓨터의 오류 수정 방법을 개발했다. 그들의 시스템은 증가하는 큐비트 수에 따라 확장하는 것보다 더 많은 오류를 포착한다고 팀은 Nature에 보고했다. 이는 여러 데이터 큐비트를 논리 단위로 결합하고 오류를 나타내는 추가 측정 큐비트를 삽입하여 가능하다. 

▲ 이것이 Google Quantum Computer Sycamore와 초전도 코일 및 냉각 시스템의 모습이다. 오류 수정의 중요한 진보가 달성되었다. © Google Quantum AI

양자 컴퓨터는 미래의 컴퓨터로 간주된다. IBM, Google 및 중국 연구원과 같은 회사는 이미 가장 크고 강력한 큐비트 컴퓨터를 놓고 경쟁하고 있다. 그러나 문제는 양자비트가 매우 오류가 발생하기 쉽다는 것이다. 작은 교란만으로도 얽힘과 중첩에서 벗어날 수 있으며 오류율은 큐비트 수에 따라 증가한다.

효율적인 오류 수정 시스템이 없으면 양자 컴퓨터는 필요한 성능으로 확장할 수 없다. 따라서 과학자들은 큐비트 오류를 ​​측정하고 억제하기 위한 전략에 집중적으로 노력하고 있다. 그러나 지금까지 이러한 수정 시스템은 추가 큐비트에 의해 추가된 것보다 더 많은 오류를 제거할 수 없었다. Google Quantum AI의 Hartmut Neven과 Julian Kelly는 "물리적 오류가 항상 이겼다"고 설명했다.
▲ 중앙에 양자 칩이있는 Sycamore Quantum 프로세서 및 라인 연결이 외부로로드되었다. © Google Quantum AI

확장에도 불구하고 오류 감소

그러나 이제 상황이 바뀌었다. "처음으로 연구원들은 큐비트 수가 증가함에 따라 오류가 감소할 수 있음을 실험적으로 입증했다"고 Google CEO Sundar Pichai는 말했다. Google Quantum AI가 개발한 프로토타입은 17개의 물리적 큐비트로 구성된 논리 회로의 계산 주기당 오류율이 3.038%인 반면 49큐비트로 구성된 회로의 오류율은 2.914%였다.

연구원들은 "그게 별 것 아닌 것 같지만, 논리 큐비트를 확장하는 실험적 이정표에 도달한 것은 이번이 처음"이라고 설명했다. 처음으로 양자 오류 수정이 양자 비트 수가 증가함에 따라 양자 컴퓨터의 성능을 향상시킬 수 있는 임계값을 초과했다. "이는 양자 컴퓨팅에 필요한 논리적 오류율에 이르는 길을 열어준다."

논리적 큐비트는 양자 계산을 더욱 강력하게 만든다.

이러한 발전은 두 가지 전략에 기반한 오류 수정으로 가능했다.
첫 번째 기본 원칙은 소위 표면 코드라고 하는 논리적 큐비트로 계산하는 것이다. 여러 물리적 양자비트(Google 양자 컴퓨터의 경우 초전도 물질의 준입자로 구성됨)가 결합되어 컴퓨팅 장치를 형성한다. 큐비트 중 하나가 간섭으로 인해 넘어지면 이 컴퓨팅 장치의 전체 결과를 얻기에 충분한 다른 큐비트가 남아 있다.

Neven과 Kelly는 간단한 비유를 사용하여 이를 설명했다. 정보 손실을 방지하기 위해 대신 3비트를 전송한다: 111. 그중 하나가 뒤집혀도 Alice는 여전히 수신된 비트의 대부분의 비율을 읽을 수 있으므로 정보를 얻을 수 있다.” 논리적 큐비트를 형성하기 위해 더 많은 큐비트를 결합할수록 시스템이 클수록 오류에 덜 민감하다.

실험을 위해 과학자들은 72개의 초전도 큐비트가 있는 Sycamore 양자 컴퓨터를 사용했으며, 여기에서 17개 및 49개의 물리적 큐비트로 구성된 논리적 컴퓨팅 장치를 실행했다.

측정 큐비트는 오류를 감지한다.

오류 수정의 두 번째 전략은 양자 물리 연산의 근본적인 문제를 우회한다. 즉, 큐비트의 상태를 읽는 순간 일관성이 파괴되고 계산이 중지된다. 계산을 중단하지 않고 오류 발생을 모니터링하기 위해 Google 연구원은 데이터 큐비트를 특수 측정 큐비트로 보완했다. 이들은 양자 컴퓨터의 컴퓨팅 비트와 상태에 대한 "도청" 사이에 있다.

요령: "이러한 측정은 논리 단위의 큐비트가 여전히 동일한 것을 표시하는지 또는 오류로 인해 다른지 여부를 알려준다"고 Neven과 Kelly는 설명했다. "이러한 방식으로 개별 데이터 큐비트를 읽을 필요 없이 오류를 나타낸다." 측정 시스템은 큐비트에서 비트 및 위상 오류를 감지하고 데이터 큐비트의 대부분 상태를 읽어 이러한 오류를 보상할 수 있다.


"양자 오류 수정의 새로운 시대“

연구원들은 이러한 시스템을 결합하여 처음으로 17큐비트의 작은 단위보다 49큐비트의 더 큰 논리적 큐비트 단위에서 더 낮은 오류율을 달성했다. 오류율의 차이는 미미하지만 5개 이상의 표준 편차에서 유의미했다. "이 결과는 우리가 실용적인 양자 오류 수정의 새로운 시대에 접어들고 있음을 보여준다"고 Neven과 Kelly는 말했다. 그러나 그들은 이것이 시작일 뿐이며 일부 개선이 여전히 필요하다는 점을 인정한다.

다른 양자 연구자들도 비슷한 견해를 가지고 있다. 인스브루크 대학의 링바우어(Ringbauer)는 "이것은 근본적인 오류 원인을 여전히 상당히 억제해야 하지만 노력할 가치가 있음을 보여주는 중요한 첫 단계다"고 말했다.

개발은 이제 막 시작

Neven과 Kelly에 따르면 Google Quantum AI의 자체 목표는 오류율을 현재 100분의 1에서 1만분의 1로, 앞으로는 100만 분의 1로 줄이는 것이다. 무엇보다 초전도 큐비트의 안정성이 더욱 높아져야 한다. 표면 코드와 병행하여 연구원들은 2021년에 제시된 또 다른 오류 수정 방법인 반복 코드도 연구하고 있다. 데이터 및 측정 큐비트는 체인에서 번갈아 나타난다.
(자연, 2023; doi: 10.1038/s41586-022-05434-1)
출처: Nature, Google Quantum AI

[더사이언스플러스=문광주 기자]

[ⓒ the SCIENCE plus. 무단전재-재배포 금지]