※ 아래 글은 정보통신기술진흥센터(IITP)가 발간하는 주간기술동향 1882호(2019. 2. 5. 발행)에 기고한 원고입니다.

▶ IITP에서 PDF 포맷으로 퍼블리싱한 파일을 첨부합니다. 가독성이 좋으니 참고하시기 바랍니다.

양자컴퓨팅 선도기업들, 양자컴퓨터 소프트웨어 개발자 확보 경쟁 시작.pdf
0.47MB

 

현재의 컴퓨터와는 완전히 다른 원리로 움직이는 양자컴퓨터에 대한 기대가 높아짐에 따라, 구미의 기업들 사이에서 양자 컴퓨터용 소프트웨어 개발자 확보 경쟁이 시작되고 있음

 

작년 12월 실리콘밸리에서 열린 양자컴퓨터의 비즈니스 활용에 관한 국제 컨퍼런스인 ‘Q2B Conference’에서는 여러 기업들이 양자 소프트웨어 개발자 지원 정책을 발표하였음

 

유럽의 항공기업 에어버스(Airbus)', 고성능 컴퓨팅의 성능 향상이 한계에 이르고 전혀 만족스럽지 않게 됨에 따라 고도의 항공물리 시뮬레이션에 더 많은 컴퓨팅 파워가 필요해졌으며, 컴퓨팅 패러다임의 변화를 위해 양자 컴퓨터용 소프트웨어 개발에 도전 중이라 설명

 

2020년까지 양자컴퓨터를 도입할 계획인 에어버스는 항공물리 시뮬레이션을 양자 컴퓨터로 구현할 수 있는 소프트웨어 개발자를 모집하기 위해 ‘Airbus Quantum Computing Challenge(에어버스 양자 컴퓨팅 챌린지)' 프로그램을 전개하고 있음

 

챌린지 프로그램을 통해 뽑힌 소프트웨어 개발자는 2020년 이후 도입될 양자컴퓨터를 사용할 수 있으며, 직접적인 자금 지원도 받을 수 있음

 

[ 그림  1] Q2B  컨퍼런스의  VC  패널 토론 (자료: QC Ware) 

기업들이 양자컴퓨터용 소프트웨어 개발자 확보에 나선 배경에는 슈퍼컴퓨터 업계가 성능 향상을 사실상 단념하고 딥러닝 연산에 적합한 수준의 연산 능력에만 특화되어 가고 있기 때문

 

슈퍼컴퓨터의 성능 향상이 둔화되고 있는 주된 이유는 집적회로의 트랜지스터 수가 1년 반~2 년마다 2배가 된다는 무어의 법칙이 종언을 고하고 있는 것이지만, 슈퍼컴퓨터 업계의 최근 사업전략 변화에서도 기인함

 

슈퍼컴퓨터의 부동소수점 방식에는 실수를 32 비트로 처리하는 단정밀도(single precision), 64 비트로 처리하는 배정밀도(double precision), 128 비트로 처리하는 4배정도(quadruple precision)이 있음

 

슈퍼컴퓨터 업계는 지금까지 물리 시뮬레이션에 필요한 배정밀도의 부동소수점(FP64) 연산 성능을 끌어 올리는 데 주력해 왔으나, 최근에는 이를 포기하고 딥러닝 연산에 사용되는 단정밀도나 그 이하의 부동소수점 연산 성능 향상에 특화하려는 모습을 보이고 있음

 

에어버스의 경우 연간 IT 예산의 3%를 슈퍼컴퓨터에 투입하고 있기 때문에, 에어버스에게 슈퍼컴퓨터의 성능 향상 둔화는 미래의 우려가 아니라 이미 현재의 고민이며, 따라서 양자컴퓨터에 앞으로 더 많은 기대를 걸 수밖에 없는 상황

 

에어버스처럼 그 동안 슈퍼컴퓨터에 거액을 투자해왔던 기업이나 정부기관들로부터 양자컴퓨터로 패러다임 전환이 시작되고 있는 현상은 주목할 만한 현상임

 

양자컴퓨터로 전환을 대표하는 주자는 미 공군인데, Q2B 컨퍼런스에 등단한 공군 연구소(Air Force Research Laboratory, AFRL)는 미 공군의 양자 정보과학 전략에 대해 설명하였음

 

AFRL은 양자컴퓨터가 기계학습 및 최적화, 새로운 재료를 발견하기 위한 시뮬레이션 등에서 활용이 기대된다고 전망하며, 현재 미 공군이 양자컴퓨터 프로그래밍 언어와 알고리즘에 중점적으로 투자 중이라 밝혔음

 

Q2B 컨퍼런스의 VC(벤처캐피탈) 패널 토론에는 에어버스와 미 공군 외에도 골드만삭스, BMW, 스페인의 대형 금융기관인 BBVA 등이 참여해 양자컴퓨터에 대한 각 기업의 기대와 대응 상황을 설명하였음

 

양자컴퓨터가 현재 컴퓨터의 성능을 압도적으로 상회할 것인지는 아직 확실하지 않으나, IBM과 구글 등 양자컴퓨터 제조업체들은 수년 내에 등장할 ‘NISQ’라는 하드웨어가 현재 컴퓨터 의 성능을 충분히 상회할 가능성이 있다는 견해를 밝히고 있음

 

NISQNoisy Intermediate-Scale Quantum Computer의 약어로 오류가 있는 중간 규모 양자 기술을 의미하는데, 이 정도만 되어도 현행 컴퓨터의 성능을 능가할 것이란 전망이 나옴에 따라 선진 기업들은 과감히 양자컴퓨터에 대한 선행투자를 시작하고 있는 것임

 

이런 가운데 양자컴퓨터 개발 스타트업인 미국의 리게티 컴퓨팅(Rigetti Computing)’도 소프트웨어 개발자 콘테스트인 ‘Rigetti Quantum Advantage Prize’를 시작하였음

 

이 대회는 리게티 컴퓨팅이 현재 평가판으로 제공 중인 양자컴퓨터의 클라우드 서비스를 이용하여 양자 어드밴티지(Quantum Advantage)’를 입증한 연구자나 개발자에게 최대 100만 달러의 상금을 수여함

 

양자 어드밴티지IBM이 주창하는 개념으로, 양자컴퓨터가 현재의 컴퓨터보다 높은 성능과 예측 정확도를 제공하고, 보다 저렴한 비용으로 연산을 수행하는 등 실질적인 이점을 보여주는 발전 단계를 가리킴

 

[ 그림  2]  리게티 컴퓨팅의 양자컴퓨팅 개발자 대회 (자료: Nima Alidoust)

 

리게티 컴퓨팅이 거액의 상금을 내걸고 대회를 진행하는 것은, 많은 연구자와 개발자들이 양자컴퓨팅을 시험해보게 함으로써 양자컴퓨팅의 실용적인 용도를 탐구하고 그 속에서 진가를 검증하려는 목적이라 할 수 있음

 

양자컴퓨터가 단순한 버즈워드로 끝날지, 아니면 정말 세상을 바꿀 수 있을 것인지는 하드웨어뿐만 아니라 양자컴퓨팅 소프트웨어의 발전에 의해서도 좌우될 것임

※ 아래 글은 정보통신기술진흥센터(IITP)가 발간하는 주간기술동향 1828호(2017. 12. 27. 발행)에 기고한 원고입니다.


▶ IITP에서 PDF 포맷으로 퍼블리싱한 파일을 첨부합니다. 가독성이 좋으니 참고하시기 바랍니다.

폴크스바겐, 골드만삭스, 에어버스의 양자 컴퓨터 활용 계획.pdf



ž 12월 초 실리콘밸리에서 개최된 Q2B 컨퍼런스에서는 자동차, 금융, 항공산업의 기업들이 등단해 양자 컴퓨터를 자신들의 비즈니스에 어떻게 활용할 것인지 소개하였음


Ø 실리콘밸리에 있는 미 항공우주국(NASA)의 에임스 연구 센터에서 개최된 Q2B 컨퍼런스는 양자 컴퓨터용 소프트웨어 개발 스타트업인 QC웨어(QC Ware)NASA가 공동으로 개최했으며, 양자 컴퓨터의 비즈니스 활용을 주제로 발표와 토론이 펼쳐졌음


Ø 미국과 유럽에서는 전통 있는 유력 기업들이 양자 컴퓨터의 비즈니스 활용을 본격적으로 검토하기 시작했는데, 폴크스바겐, 골드만삭스, 에어버스가 대표적으로, 이들은 'Q2B 컨퍼런스에 등장해 각 기업이 양자 컴퓨터에 대해 갖고 있는 기대를 설명하였음


Ø 지금까지 양자 컴퓨터에 대한 논의는 거의 학회 형식으로 개최되었고 등단자나 참관객 모두 이 분야의 연구자인 경우가 대부분이었으며, 이번 Q2B 컨퍼런스처럼 비즈니스 색채가 강하고 기업이 강연까지 직접 맡는 경우는 매우 드물었음


Ø 이런 점에서 이번 Q2B 컨퍼런스는 미국과 유럽에서는 이미 양자 컴퓨터가 연구 단계에서 산업 단계로 이행하고 있음을 보여주는 하나의 이정표로서 의의가 있으며, 이번 컨퍼런스에서 다루어진 논지는 향후 기업에서 양자 컴퓨팅 활용을 고민할 때 참조가 될 수 있을 것으로 보임



ž 폴크스바겐은 양자 컴퓨터를 비즈니스에 가장 먼저 활용하는 기업이 되기 위해, 양자 컴퓨터의 개념과 연산 능력을 직접 검증하고 있음


Ø 컨퍼런스에 등단한 폴크스바겐의 마틴 호프만 CIO(최고정보책임자)는 현재 2종류의 양자 컴퓨터를 실제 사용하며 검증과 알고리즘 개발을 진행하고 있다고 소개


Ø 하나는 캐나다 D-웨이브 시스템이 만든 양자 어닐링 방식의 양자 컴퓨터 'D-Wave 2000Q' 모델로 폴크스바겐은 올해 3월 검증 결과를 발표한 바 있음


Ø 또 하나는 구글에서 개발을 진행 중인 양자 게이트 방식의 양자 컴퓨터로 폴크스바겐과 구글은 지난 11월에 양자 컴퓨터용 알고리즘 개발을 주 내용으로 한 제휴를 발표하였음


Ø 폴크스바겐에 따르면 D-웨이브의 양자 어닐링 방식으로 기존 컴퓨터에서는 절대로 도달할 수 없는 계산 능력이 실현될 수 있을지 여부는 아직 알 수 없음


Ø 구글의 양자 게이트 방식에 대해서도, 구글이 기존 컴퓨터에서 실현 불가능한 계산 능력이 있음을 나타내는 양자 초월성(Quantum Supremacy)을 입증하고 있지만 현 시점에서 그와 같은 하드웨어는 아직 존재하지 않는다고 말하고 있음


Ø 현재 양자 컴퓨터에 대해 명확하게 단언할 수 있는 상황이 아님에도 폴크스바겐이 검증을 시작한 이유에 대해, 마틴 호프만 CIO는 양자 컴퓨터가 상용화되었을 때 그것을 가능한 한 빨리 업무에 활용한 기업이 되고 싶기 때문이라 설명


ž 폴크스바겐은 구체적으로 도시 교통 서비스의 이동 경로 최적화와 전기자동차용 고성능 배터리 개발에 양자 컴퓨터를 적용할 수 있을 것으로 기대하고 있음


Ø 호프만 CIO D-웨이브 시스템의 적응 영역으로 도시 교통 서비스의 이동 경로 최적화를 꼽았는데, 폴크스바겐이 계획하고 있는 주문형 모빌리티 서비스를 제공할 때 차량의 이동 경로를 양자 컴퓨터를 이용해 고속으로 최적화할 수 있을 지에 대해 검증하고 있다고 함


<자료> Startup Times


[그림 1] 폴크스바겐의 양자 컴퓨터 활용 예


Ø 도시의 이동 수요를 예측하는 알고리즘은 기존의 컴퓨터를 이용한 기계학습에 의해서도 개발되고 있지만, 이동 수요에 따른 공급을 실현하기 위해 차량이 어떤 경로를 어느 정도의 속도로 달리게 할 것인가 하는 문제를 양자 컴퓨터를 이용해 해결하려는 것임


Ø 즉 기존 방식으로 불가능한 것은 아니나 양자 컴퓨터를 통한 보다 향상된 최적화(Quantum Enhanced Optimization)를 실현하려는 것이 폴크스바겐의 목적임


Ø 한편 구글의 양자 게이트 방식은 화학 시뮬레이션에 활용될 것으로 기대한다는 입장인데, 11월에 폴크스바겐은 보도자료를 통해, 전기자동차용 고성능 배터리 개발 등에 양자 컴퓨터를 사용한 화학 시뮬레이션을 기대할 수 있을 것 같다고 발표한 바 있음


Ø Q2B 컨퍼런스에 등단한 알파벳의 벤처캐피탈 부문인 구글벤처스는 화학 시뮬레이션의 속도를 높일 수 있는 양자 컴퓨터가 6~9년 후에 상용화 될 것으로 예측했는데, 폴크스바겐은 양자 컴퓨터를 이용한 화학 시뮬레이션의 가속화를 겨냥해 구글과 공동 연구를 시작한 것으로 보임


ž 이어 등단한 골드만삭스는 자신들이 양자 컴퓨터에 관심을 갖게 된 계기는 범용 양자 컴퓨터에 의해 기존 공개키 암호 방식이 깨질 수 있다는 우려를 접했기 때문이라고 밝혔음


Ø 범용 양자 컴퓨터는 거대한 수의 소인수분해를 할 수 있다고 알려져 있어 현재의 암호 체계가 깨질 수 있고, 그에 따라 고객 정보가 유출될 수 있다는 경고가 제기되어 온 바 있음


Ø 그러나 골드만삭스 연구개발 부문의 폴 버샤드에 따르면, 큰 수의 소인수분해가 가능한 범용 양자 컴퓨터의 실현은 먼 미래의 일로 판단하고 있으며, 오히려 현재 골드만삭스는 양자 컴퓨터를 이용한 몬테카를로 시뮬레이션'의 고속화 등에 관심을 갖고 있다고 함


Ø 몬테카를로 시뮬레이션은 수 많은 경우의 수를 연산하는 방법으로 금융 기관의 리스크 계산 등에서 빠뜨릴 수 없는 기법인데, 현재 골드만삭스는 몬테카를로 시뮬레이션을 위해 엄청난 규모의 수퍼 컴퓨터를 투입하고 있어 이를 양자 컴퓨터로 대체하는 방안을 모색 중이라는 것


ž 에어버스 역시 항공기 설계나 고장 원인 분석을 위해 사용되고 있는 수퍼 컴퓨터를 보완할 수 있는 가능성 모색을 위해 양자 컴퓨터의 검증을 진행 중이라고 밝혔음


Ø 에어버스 연구개발 부문의 티에리 보터에 따르면, 에어버스는 항공기의 설계를 지원하기 위해 엄청난 양의 시뮬레이션을 수퍼 컴퓨터에서 실행하고 있으며 IT 예산의 3%가 이와 관련한 하드웨어에 투자되고 있다고 함


Ø 따라서 에어버스는 수퍼 컴퓨터를 보완하는 기술을 지속적으로 필요로 하고 있으며, 에어버스의 기존 응용프로그램을 수퍼 컴퓨터보다 빠르게 풀 수 있기만 하다면 그것이 어느 메이커든 어떤 방식이든 상관없으며, 양자 역학에 근거하고 있는지 여부도 상관하지 않는다고 함


Ø 에어버스가 양자 컴퓨터의 적용 영역으로 기대하는 것은 결함 트리 분석(Fault Tree Analysis)의 속도인데, 이 분석 기법은 항공기 고장 원인 등을 분석하는데 사용되지만, 규모가 큰 경우의 분석은 매우 어려운 문제이며 수퍼 컴퓨터로 해결하는 것도 불가능 하다고 함


Ø 에어버스는 QC웨어가 개발한 소프트웨어와 D-웨이브의 양자 어닐링 방식을 사용하여 결함 트리 분석을 수행할 수 있는지 검증했는데, 에어버스가 요구하는 규모의 결함 분석을 D-웨이브의 머신으로 푸는 것은 애초부터 기대하지 않았지만 몇 가지 흥미로운 검증 결과를 얻었다고 함


Ø 보터에 따르면 기존 컴퓨터와 달리 D-웨이브의 머신을 사용하는 경우 문제의 크기가 바뀌어도 문제를 푸는 데 걸리는 시간이 더 길어지지 않고 동일했는데, 이를 통해 기존 컴퓨터와 전혀 다른 원리로 작동하는 D-웨이브 시스템의 특이성을 재차 확인할 수 있었음


Ø 에어버스는 앞으로 D-웨이브 시스템의 양자 컴퓨터와 수퍼 컴퓨터를 조합하여 결함 트리 분석을 효율적으로 수행하는 방법 등을 검증해 나갈 계획이라고 함

※ 아래 글은 정보통신기술진흥센터(IITP)가 발간하는 주간기술동향 1797호(2017. 5. 24 발행)에 기고한 원고입니다.


▶ IITP에서 PDF 포맷으로 퍼블리싱한 파일을 첨부합니다. 가독성이 좋으니 참고하시기 바랍니다.

양자 컴퓨터 개발 스타트업 &lsquo;리게티&rsquo;, 양자 알고리즘 개발 플랫폼 제공.pdf



[ 요 약 ]


양자 컴퓨터 개발은 대학의 기초 연구와 관계가 깊고 IT 대기업들도 대학과 공동 연구를 진행하고 있기 때문에, IBM, 구글마이크로소프트 등 IT 공룡들뿐 아니라 대학에서 출발한 스타트업들의 활약도 눈에 띔이 중 대표적 양자 스타트업인 리게티 컴퓨팅은 반도체 칩의 성능이 한계에 다다름에 따라 발생하는 수퍼 컴퓨터의 거대화와 막대한 전력 소비의 문제를 해결하기 위해 양자 컴퓨터를 개발 중이며양자 알고리즘 개발 플랫폼을 제공하면서 업계의 관심과 기대를 모으고 있음



[ 본 문 ]

ž 스타트업 리게티 컴퓨팅(Rigetti Computing)은 반도체 칩 성능의 한계 봉착에 따른 수퍼 컴퓨터의 거대화와 막대한 전력 소비 문제를 해결하기 위해 양자 컴퓨터를 개발 중


Ø IBM과 구글은 최근 수년 내 범용 양자 컴퓨터를 상용화한다는 계획을 나란히 발표하였는데, 현 시점에서 이런 발표가 나오고 있는 것은 기술 패러다임의 관점에서 보면 수퍼 컴퓨터 성능이 한계에 가까워지고 있는 사실과 밀접한 관련이 있음



Ø 컴퓨터의 성능은 결국 실리콘 칩의 성능인데, 반도체 칩 하나의 성능을 높이는 것이 점점 더 어려워짐에 따라 수퍼 컴퓨터의 연산 능력을 높이려면 보다 많은 프로세서들로 구현할 수밖에 없는 상황에 맞닥뜨리고 있음


Ø 이는 프로세서의 성능이 18개월마다 두 배 향상된다는 무어의 법칙(Moor 's Law)이 끝나가고 있음을 의미하는데, 그 이유는 반도체 칩 회로의 선 폭을 더 이상 가늘게 할 수 없기 때문


Ø 현재 세계에서 가장 빠른 컴퓨터로 평가받고 있는 중국의 수퍼 컴퓨터 Tianhe-2(티엔허-2)는 프로세서로 인텔 제온(Intel Xeon) 32,000개 탑재하고 있으며 시스템 전체로는 312만 개의 코어가 사용되어 소비 전력은 24MW로 웬만한 한 개 도시에 공급되는 수준의 전력 소비를 필요로 함


<자료> CNTV

[그림 1] 중국의 수퍼 컴퓨터 티엔허 2


Ø 즉 현재의 수퍼 컴퓨터는 거대화라는 문제 외에도, 보다 치명적인 대규모의 전력 소모라는 문제점을 안고 있는데, 수퍼 컴퓨터 한 대 운영에 원자력 발전소 한 개가 필요한 꼴임


Ø 이 문제를 해결하고자 미국의 스타트업 리게티 컴퓨팅(Rigetti Computing)은 양자 컴퓨터 기술을 개발하고 있는데, 리게티는 구글 및 IBM과 마찬가지로 양자 컴퓨터를 클라우드로 제공할 계획이며, 주로 양자 화학 및 인공지능 분야의 응용프로그램에서 사용될 것을 겨냥하고 있음


ž 리게티는 양자 컴퓨터 개발의 의의에 대해, 고전 물리학의 세계에서 양자 역학의 세계로 거대한 도약을 하는 것이라 설명하고 있음


Ø 창업자인 채드 리게티(Chad Rigetti)는 양자 컴퓨터 개발의 의의를 물리학의 관점에서 설명하고 있는데, 컴퓨터의 역사를 되돌아 보면 동작 원리는 고전 물리학인 뉴턴 역학(Newtonian Mechanics)에서 양자 역학(Quantum Mechanics)으로 옮겨가고 있는 중이라고 함


Ø 컴퓨터 비즈니스 초기에는 많은 기업이 뉴턴 역학을 응용한 시스템을 기반으로 사업을 시작했는데, 성공을 거둔 대표적인 기업이 IBM


Ø 창업 당시 IBM의 회사명은 Computer Tabulating and Recording Company로 펀치 카드를 이용하는 관리 시스템을 만들던 회사였는데, 펀치 카드는 직원의 출퇴근 기록 등에 사용되었으며 카드에 구멍을 뚫어 구멍의 정렬에 정보를 인코딩 하는 기계적인 방식을 사용하였음


Ø 그 후 윌리엄 쇼클리(William Shockley)가 반도체를 발명하고 인텔이 이를 IC(집적회로)로 집적해 반도체 칩으로 출시했는데, 컴퓨터에서는 혁명적 기술이었지만 물리학의 관점에서 보면 고전 역학의 영역을 벗어나지 않는 것으로 그 작동 원리는 맥스웰 방정식으로 대표됨


Ø 맥스웰의 방정식(Maxwell 's Equations)은 전자기장의 작동을 정의하는 방정식인데, 고전 물리학 기반의 전자기학을 집대성한 것으로 평가받고 있음


Ø 반면 아인슈타인 등이 양자 역학의 기초 이론을 제창한 지 100 년 후에 등장한 양자 컴퓨터의 작동 방식은 슈뢰딩거 방정식(Schrödinger Equation)으로 정의되는데, 이는 양자 상태를 정의하는 방정식으로서 양자 역학 시대의 서막을 올린 발견으로 평가받고 있음


Ø 원자와 전자 등 미시적 수준의 작동 방식을 규명하는 양자 역학을 정보의 조작에 응용하는 양자 컴퓨터 개발은 연산 소자의 진화일 뿐만 아니라, 물리학의 관점에서 본다면 뉴턴 역학에서 양자 역학으로 거대한 도약이라 할 수 있음



<자료> Rigetti Computing


[그림 2] 리게티 컴퓨팅이 운영 중인 2대의 양자 컴퓨터


ž 리게티는 최근 벤처캐피털들로부터 막대한 개발자금을 투자 받아 연구를 진행 중이며, 현재 내부적으로 2개의 양자 컴퓨터를 작동 시키고 있음


Ø 양자 컴퓨터 개발의 대학의 기초 연구와 관련이 깊기 때문에 IT 대기업들과 대학의 공동 연구 및 인력 교류가 활발한데 설립자인 채드 리게티 역시 예일 대학에서 수년 동안 양자 컴퓨터 연구에 종사한 후 IBM의 양자 컴퓨터 개발에 참여한 바 있으며, 이후 2013년에 리게티를 설립


Ø 리게티는 유명 액셀러레이터인 Y-콤비네이터(Y-Combinator) 등으로부터 시드 펀딩을 받아 사업을 시작했으며, 올해 3월에 유명 벤처 캐피털인 안드리센 호로비츠(Andreessen Horowitz) 등에서 총 6,400만 달러의 투자를 유치해 기술 상용화를 위한 연구개발을 가속화 하고 있음



Ø 리게티는 예일 대학에서 단일 원자와 이온에 정보를 인코딩 하는 연구에 종사했으며, 극저온에서 전기 회로에 인공적으로 원자를 생성하는 방식을 연구했는데, 이 기술 방식을 통해 기존의 반도체 칩 제조 시설을 이용해 양자 칩을 양산화하는 기간을 단축할 수 있다고 함


Ø 리게티에서는 양자 기술을 IC(집적회로)화 하는 기법인 양자 IC(Quantum Integrated Circuit)를 개발하고 있는데, 현재 리게티가 개발한 양자 IC 칩에는 3개의 큐비트(Qubit)를 탑재할 수 있음



<자료> Rigetti Computing

[그림 3] 리게티가 개발한 양자 IC(집적 회로)


Ø 리게티 컴퓨팅의 자체 연구소에는 이미 두 개의 양자 컴퓨터가 작동하고 있는데, 그림 2에서 Rigetti BF01 Rigetti BF02라는 표지판 위쪽에 있는 흰색의 원통이 양자 컴퓨터의 케이스임


Ø 이 케이스 안에 양자 IC 칩이 포함되어 있으며 절대 영도 근처까지 냉각된 상태에서 가동되는데, 이 칩에 60~70 개의 큐비트를 탑재하게 되면 수퍼 컴퓨터 성능을 웃돈다고 함


ž 리게티는 양자 알고리즘 개발 인프라인 포레스트(Forest)를 공개했는데, 이는 양자 컴퓨터와 기존 컴퓨터를 연결하는 하이브리드 알고리즘을 개발할 수 있는 독특한 아키텍처임


<자료> Rigetti Computing


[그림 4] 리게티의 포레스트 플랫폼


Ø 포레스트 플랫폼의 개발 언어는 (Quil)이라 불리는데 이를 통해 양자 알고리즘을 작성하며, 개발된 알고리즘을 집약한 라이브러리인 그로브(Grove)와 개발 도구인 파이퀼(pyQuil)도 함께 제공되고 있음


Ø (Quil) 언어로 작성된 프로그램은 컴파일러를 통해 양자 프로세서용 객체를 생성하는데, 리게티의 양자 컴퓨터뿐만 아니라 타사가 개발하고 있는 범용 양자 컴퓨터 전반에 적용 할 수 있다고 함


Ø 퀼은 양자 알고리즘을 작성하는 프로그래밍 언어이지만, 동시에 양자 추상 머신(Quantum Abstract Machine, QAM)이라 불리는 양자 조작을 수학적으로 기술하는 구조이기도 함



Ø QAM은 양자 프로세서와 기존의 프로세서가 연계하여 가동하는 구조로 되어 있는데, 이러한 하이브리드 모델로 기존 컴퓨터의 메모리를 공유하여 양자 알고리즘을 실행하게 됨


Ø 그림 5의 왼쪽은 양자 컴퓨터에서 연산자를 지정하는 프로그래밍을 한 것으로, 큐비트 상태를 측정하면 이 정보는 기존 컴퓨터의 메모리(하단의 숫자 열)에 저장됨


Ø 그림 5의 오른쪽은 기존 컴퓨터 프로그램 로직으로 지정하고 실행한 것으로, 양자 컴퓨터 알고리즘 개발은 이해하기 어렵지만 하이브리드 모델은 기존의 프로그래밍 기술을 융합한 것으로 친숙한 것이 장점



<자료> Rigetti Computing


[그림 5] 리게티의 하이브리드 모델


ž 리게티 컴퓨팅은 양자 컴퓨터의 킬러 애플리케이션은 양자 화학(Quantum Chemistry)과 인공지능(AI)이 될 것이라 예상하고 있음


Ø 양자 화학은 현재 수퍼 컴퓨터를 이용해서도 연구를 진행하고 있지만, 양자 컴퓨터를 이용하면 대규모의 연산이 필요한 문제를 해결할 수 있는 장점이 있음


Ø 가령 고정밀도의 촉매를 생성하여 지구상의 이산화탄소를 흡수함으로써 지구 온난화 문제의 해결에 기여할 것으로 기대되고 있으며, 소재 연구에서 상온 초전도 소재를 찾아 내거나, 의료 분야에서 분자 구조를 기반으로 한 신약 개발을 가능케 할 것으로 기대되고 있음


Ø 또한 양자 컴퓨터는 인공지능(AI)과 기계학습에서 학습 모델을 시스템에 통합하여 기존 컴퓨터에서 구현할 수 없는 대규모 모델을 실행할 수 있을 것으로 예상되고 있음


Ø 한편 양자 컴퓨터가 기존의 암호체계를 붕괴시킬 가능성을 내포함에 따라 미국, 중국, 러시아 등 군사 강국들 간 양자 컴퓨터를 이용한 사이버 공격 역량 강화 경쟁이 시작되고 있는데, 채드 리게티는 양자 컴퓨터가 미국의 패권을 다시 강화하는 계기가 될 수 있을 것으로 전망


ž 스타트업 리게티의 등장은 양자 컴퓨터를 매개로 하여 현재의 IT 공룡들을 넘어설 새로운 기업의 탄생 가능성을 시사하며, 탄탄한 순수 과학 기반의 중요성을 환기시키고 있음


Ø 일반적으로 양자 컴퓨터의 개발에는 막대한 연구비가 필요한 것으로 알려져 있으며, 이런 이유로 IBM, 구글, MS 등의 개발 움직임이 주로 조명 받고 있음


Ø 그러나 양자 역학을 제대로 이해하고 있는 사람은 지구 상에 10명이 채 안될 것이라는 물리학자자 리차드 파인만의 말처럼, 양자 컴퓨터 개발은 기업 자체의 연구개발 만으로는 이루어질 수 없으며 양자 물리학 학계와 협업이 절대적으로 필요한 부분임


Ø 이 때문에 양자 물리학에 강점을 가진 대학들이 주목을 받고 있고 IT 대기업들도 다양한 방식으로 이들 대학과 협업 체계를 구축하고 있는데, 인공지능 연구와 마찬가지로 대학의 양자 역학 연구팀을 중심으로 한 스타트업이 향후 다수 출현할 것으로 예상됨


Ø 양자 컴퓨터는 컴퓨팅의 패러다임을 근본적으로 바꿀 뿐 아니라, 신소재 개발, 인공지능 등 정보기술은 물론 사회 전반에 혁신적 변화를 가져올 토대를 제공할 수 있다는 점에서 양자 컴퓨터의 주도권을 가지는 기업이 새롭게 IT 패권을 거머쥐게 될 것으로 예상됨


Ø IT 공룡들이 양자 컴퓨터에 투자를 아끼지 않는 것은 현재의 패권을 유지하기 위해서일 것이며, 리게티 같은 스타트업에도 막대한 투자 자금이 몰리는 것도 현재의 지형을 뒤엎을 수 있는 새로운 IT 강자의 출현이 양자 컴퓨터를 매개로 가능할 것으로 보기 때문



Ø 자율주행 자동차, 인공지능 분야와 마찬가지로 양자 컴퓨팅 분야에서도 대학의 순수과학 연구 자산이 새로운 비즈니스 탄생의 기반이 될 것으로 보이며, 기업과 대학의 협업 및 대학 기반의 스타트업 출현 등이 활발히 전개되며 본격적인 양자 컴퓨팅 시대의 개막이 더욱 앞당겨질 전망


Ø 양자 컴퓨팅 혁명이 예상보다 가까워지고 있다는 기대가 높아지는 가운데, 시장조사기관 마켓 리서치 퓨처는 2022년 양자 컴퓨팅 산업의 시장 규모를 24 6,400만 달러로 예상했으며 미국의 주요 플레이어로는 IBM, 인텔, 리게티 컴퓨팅 등 6개 기업을 꼽았음


<자료> Market Research Future


[그림 6] 2015~2022 양자 컴퓨터 시장규모 전망


※ 아래 글은 정보통신기술진흥센터(IITP)가 발간하는 주간기술동향 1796호(2017. 5. 17 발행)에 기고한 원고입니다.


▶ IITP에서 PDF 포맷으로 퍼블리싱한 파일을 첨부합니다. 가독성이 좋으니 참고하시기 바랍니다.

MS 양자 컴퓨터 개발-양자 알고리즘 개발에서 우위.pdf



[ 요 약 ]


마이크로소프트(MS)는 일찍부터 양자 물리학의 최첨단 기술을 사용하여 안정적으로 가동할 수 있는 양자 컴퓨터 개발을 목표로 연구를 진행해 왔으며 최근 그 결과를 공개하였음. MS에 따르면 자신들의 강점은 소프트웨어 부문에서 이미 양자 컴퓨터를 위한 개발환경 및 시뮬레이터를 제공하고 있다는 것으로하드웨어의 본격적인 등장에 앞서 양자 알고리즘의 연구에서 IBM, 구글 등 경쟁자들에 앞서 의미 있는 진전을 만들어 내고 있다는 평가를 받고 있음


[ 본 문 ]


ž 마이크로소프트(MS)의 양자 컴퓨터 개발은 10여 년 전에 시작되었는데, 2005년 양자 컴퓨터 개발을 위한 연구기관 스테이션 Q(Station Q)를 개설한 것이 본격적인 시발점


Ø 스테이션Q Microsoft Research(마이크로소프트 연구소)의 양자 컴퓨터 연구 부문으로 하드웨어 장치의 개발을 담당하고 있으며, 범용 양자 컴퓨터(Universal Quantum Computer)를 개발해 제품화하는 것을 최종 목표로 하고 있음


Ø 스테이션 Q는 저명한 수학자 마이클 프리드먼(Michael Freedman)에 의해 설립되었는데, 프리드먼은 양자 컴퓨터 아키텍처 중 하나인 '위상 양자 컴퓨터(Topological Quantum Computer)'라는 기술방식의 연구를 진행하고 있었음


<자료> Microsoft


[그림 1] MS의 스테이션 Q(왼쪽이 프리드먼)



Ø 위상 양자 컴퓨터는 이차원 평면에서 움직이는 특수한 입자의 특성을 이용하는 것인데, 입자의 위상 변화를 정보 단위로 하는 방식임


Ø 프리드먼은 위상 양자 컴퓨터 방식을 당시 MS의 최고연구책임자(CRO)였던 크레이그 문디(Craig Mundie)에 제안했는데, 이를 계기로 MS의 양자 컴퓨터 개발이 시작되었으며 프리드먼이 제창하는 방식의 양자 컴퓨터를 차세대 사업의 핵심 축으로 자리매김하였음


Ø 캘리포니아 산타바바라에 처음 설립된 스테이션 Q는 현재 미국 레드몬드, 퍼듀 대학, 매릴랜드 대학, 유럽의 코펜하겐, 델프트, 쮜리히, 호주 시드니 등에도 설립되어 미국, 유럽, 아시아권 양자 컴퓨터 연구진들과 활발한 협력 연구활동을 벌이고 있음


ž 이후 MS의 양자 컴퓨터 연구는 2011년 양자 컴퓨터 소프트웨어를 개발 부문인 Quantum Architectures and Computation Group(QuArC)을 개설하며 또 하나의 전기를 마련하였음


<자료> Microsoft


[그림 2] QuArC의 양자 컴퓨터 시뮬레이터


Ø 'QuArC'은 스테이션 Q의 소프트웨어 부문으로 자리매김 되어 양자 컴퓨터 알고리즘 연구를 수행하고 있으며, 이미 프로그래밍 환경과 양자 컴퓨터 시뮬레이터를 개발해 일반에 공개하였음


Ø QuArC의 주요 목표는 본격적인 양자 컴퓨터 하드웨어의 등장에 앞서 실제로 사회에 도움이 되는 양자 응용프로그램의 개발을 진행하여 기여한다는 것임


Ø MS는 양자 컴퓨터 연구개발 성과를 대학을 위시한 외부 연구기관들에 공유하고 있는데, 학계의 연구 개발에 기여한다는 목적 외에도 우수한 인재를 육성·채용한다는 목적 하에서 펼치고 있는 정책으로 분석되고 있음


Ø QuArC의 선임연구원인 크리스타 스보르(Krysta Svore)는 캘리포니아 공과대학에서 강의하며 양자 컴퓨터의 응용 분야에 대한 구상을 밝힌 바 있는데, MS의 양자 컴퓨터 개발과 관련한 주요 아이디어는 캘리포니아 공과대학에서 태동했다고 볼 수 있음


ž 양자 컴퓨터 개발에 나서고 있는 다른 기업들과 마찬가지로 MS 역시 양자 컴퓨터의 킬러 애플리케이션은 자연계의 시뮬레이션이라 생각하고 있음


Ø 크리스타 스보르도 물리적 현상을 양자 레벨, 즉 원자나 전자 등의 상태를 마이크로 차원에서 정의하는 방법을 통해 시뮬레이션 하려면 양자 컴퓨터가 최적의 프로세서라고 설명하고 있음


Ø 현재 물리 현상을 시뮬레이션 하거나 물질 소재의 연구 및 소립자 연구에서 수퍼 컴퓨터가 사용되는데, 이런 용도가 수퍼 컴퓨터 사용 시간의 절반 가까이를 차지하고 있음


Ø 그러나 수퍼 컴퓨터의 대부분이 자연 현상의 시뮬레이션에서 사용되고 있긴 하지만 분자를 양자 레벨에서 시뮬레이션 하는 데 슈퍼 컴퓨터의 성능은 충분하지 않으며 작은 크기의 분자 밖에 취급할 수 없는 것이 현재 수퍼 컴퓨터의 수준임


Ø 이에 비해 양자 컴퓨터는 복잡한 분자 구조를 전자 수준까지 분석 할 수 있는데, MS가 주목하고 있는 것은 에너지 분야에서 양자 컴퓨터를 활용하여 지구 온난화를 방지한다는 구상임



Ø QuArC는 페레독신(Ferredoxin)이라는 분자의 시뮬레이션을 진행하고 있는데, 페레독신은 철(Fe)과 황(S)으로 구성된 단백질로 식물의 광합성을 통해 전자를 운반하는 역할을 하는 물질임



<자료> Cell


                                    [그림 3] 페레독신의 구조


Ø MS가 주목하는 것은 페레독신을 사용하여 공기 중의 이산화탄소를 흡수하는 촉매를 생성하는 아이디어인데, 식물이 광합성으로 이산화탄소를 흡수하듯 이 페레독신을 이용한 촉매가 있으면 배출되는 이산화탄소의 양을 80~90%까지 감소시킬 수 있다고 함


Ø 이 촉매를 생성하려면 양자 수준에서 페레독신의 에너지 상태를 파악할 필요가 있는데 MS는 여기에 양자 컴퓨터를 사용해 큐빗(Qubit)을 전자 상태에서 매핑하여 분자를 시뮬레이션 하고 있으며, 페레독신의 시뮬레이션에는 100~200개의 큐빗이 필요하다고 함


ž 마이크로소프트는 페레독신을 포함한 분자 시뮬레이션을 위한 양자 알고리즘의 개발을 진행하고 있는데, QuArC 건립 이후 5년 동안 급속도로 기술 수준을 발전시켰음


Ø 2012년 페레독신의 에너지 레벨을 구하는 양자 알고리즘을 개발할 당시에는 양자 컴퓨터에서 실행해도 240억 년이 걸리는 수준이었는데, MS는 이 알고리즘의 개량을 계속해 2015년 경에는 이 시간을 68분 정도로 단축할 정도로 향상시켰음


Ø [그림 4]의 그래프는 분자 시뮬레이션에서 양자 알고리즘의 성능을 보여주고 있는데, 세로축은 계산에 필요한 시간(추정)을 나타내고 가로축은 계산에 필요한 큐빗의 수를 나타내며, 점선 그래프는 서로 다른 양자 알고리즘을 나타내는데 위부터 아래의 순서로 성능이 향상되고 있음을 보여주고 있음




<자료> Quantum Artificial Intelligence Lab


[그림 4] 양자 알고리즘의 분자 시뮬레이션 성능


Ø 페레독신은 그래프의 오른쪽에 Fe2S2로 표시되어 있는데, MS는 수학 모델의 개량 및 소프트웨어의 최적화를 통해 성능을 향상시켰다고 설명하고 있음


ž 한편 양자 레벨 시뮬레이션을 통해 양자 컴퓨터를 이용해 새로운 소재를 찾을 수 있다는 기대감도 커지고 있는데, 목표 중 하나는 실온에서 초전도를 일으키는 물질을 찾는 것임.


Ø 이 물질은 'Room-Temperature Superconductor(상온 초전도체)'라고 하는데 말 그대로 실온에서 초전도가 되는 물질로, 초전도 상태가 되면 전기 저항이 없어져 전기를 보낼 때 에너지 손실은 제로가 되므로 이를 찾아내는 것은 전세계의 위대한 도전(grand challenge)이라 불리고 있음


Ø 양자 컴퓨터에서 상온 초전도 물질이 발견된다면 그 이점은 헤아릴 수 없는데, 대표적 활용사례는 송전 선로로 발전소에서 가정까지 에너지 손실 없이 전력을 내보낼 수 있게 됨


Ø 일반 전선을 사용할 경우 송전 과정에서는 전력의 6% 정도가 손실되는데, 초전도 상태로 전송하게 되면 손실을 없앨 수 있다는 것을 알지만 이를 위해서는 고압선을 섭씨 영하 200도 가까이 냉각시켜야 한다는 점이 실현의 걸림돌이 되고 있는 상황


Ø 그러나 양자 컴퓨터를 통해 상온 초전도 물질이 발견된다면, 가령 미국 서부 사막에 태양광 발전소를 건설하고 거기서 발전한 전력을 손실 없이 동부의 뉴욕으로 송전하는 것이 가능해 짐


Ø 자기부상열차로도 불리며 특히 학계에서 큰 관심을 보이고 있는 초전도 리니어(Linear)는 초전도 코일을 탑재하며 이것이 자석이 되어 부력과 추진력을 얻게 되지만, 코일을 초전도 상태로 하기 위해서는 액체 헬륨으로 섭씨 영하 269도까지 냉각시켜야 하는 과제가 있음


Ø 상온 초전도 물질이 발견된다면 냉각 장치가 필요 없어져 열차의 구조가 크게 단순화 되므로 미국의 연구자들은 양자 컴퓨터를 통해 이 소재를 찾아내는 것을 목표로 하고 있는데, 양자 컴퓨터로 돌파구를 찾게 된다면 초전도 리니어가 폭넓게 보급될 수 있을 것으로 보임



<자료> SciencePLX


[그림 5] 초전도 리니어(자기부상열차)


ž 이처럼 양자 컴퓨터가 자연계의 시뮬레이션에 적합한 이유는 자연계의 현상은 고전 물리학으로 정의할 수 없으며 자연계가 양자역학에 따라 움직이고 있기 때문


Ø 크리스타 스보르와 함께 캘리포니아 공과대학에서 교수로 재직 중이며, 1965년에 노벨 물리학상을 수상한 리차드 페인만(Richard Feynman)은 양자 컴퓨터가 자연계의 시뮬레이션에 가장 적합하다고 설명하고 있음


Ø 페인만은 캘리포니아 공과대학의 'Potentialities and Limitations of Computing Machines(컴퓨터의 가능성과 한계)' 강좌에서 양자 컴퓨터에 대해 언급하고 있는데, 자연계는 양자 역학에 따라 움직이고 있기 때문에 이를 시뮬레이션 할 수 있는 것은 양자 컴퓨터 밖에 없다고 말하고 있음


Ø 양자 컴퓨터 개념의 창시자로 알려진 페인만은, 자연계의 현상은 고전 물리학의 이론으로 정의할 수 없으며 자연계를 시뮬레이션 한다면 양자 컴퓨터를 사용해야 한다고 설명하고 있으며, 동시에 양자를 제어하는 것은 매우 어렵다는 점을 함께 언급하고 있음


Ø 페인만은 아인슈타인의 상대성 이론과 양자 역학을 융합하는  'Quantum Electrodynamics(양자 전기역학)' 이론으로 노벨 물리학상을 수상하였는데, 그의 물리학 강의 노트(The Feynman Lectures on Physics)는 웹에 공개되어 있으며 물리학의 성경으로 인정받고 있음


ž MS가 추구하고 있는 위상 양자 컴퓨터 기술은 오류에 대한 내성이 높은 구조가 특징이지만, 매우 어렵고 아직 초기단계여서 장기적인 연구가 요구된다는 것이 걸림돌임


Ø 위상 양자 컴퓨터는 기존의 연구와 다른 방식의 새로운 패러다임으로, 양자 컴퓨터의 오류에 대한 내성이 높은 구조라는 것이 가장 큰 특징이자 장점


Ø 위상 기하학(Topology)은 물건을 부드럽게 변형했을 때 변하지 않는 성질을 연구하는 학문인데, 부드러운 변형이란 물건을 늘이거나 줄이거나 구부러뜨리거나 하는 것을 의미하며, 찢거나 합치는 것은 포함되지 않음


Ø , 위상 기하는 외부 자극에 영향을 받지 않는 특성을 가지고 있으며, 이를 양자 컴퓨터에 응용한 것이 바로 위상 양자 컴퓨터(Topological Quantum Compute)



Ø 위상 양자 컴퓨터는 선 모양의 'Quasiparticle(의사 입자) 집합체'를 기본 단위로 하며, 기본 단위 사이의 엉킴을 측정하여 이를 연산단위 큐빗으로 하는데, 의사 입자의 집합체는 뜨개질처럼 다른 집합체와 얽히면서 진행됨



<자료> Nature


[그림 6] 위상 양자 컴퓨터의 연산단위


Ø 의사 입자로는 소립자의 한 형태인 '애니온(Anyon)'이 사용되는데, 애니온은 전자와 그 반물질(antimatter)를 동시에 가지는 것으로 1937년 이탈리아의 천재 물리학자 에토레 마요라나가 예언한 '마요라나 페르미온(Majorana Fermion)'이라고도 불림


Ø 마요라나 페르미온은 그 존재가 의심되어 오다 지난 2012년 네덜란드 델프트 기술대학 연구진에 의해 처음으로 관측되었는데, 이 발견은 MS의 지원으로 이루어진 것이며 이후 델프트 대학 연구진과 MS는 긴밀한 협력을 유지하며 양자 컴퓨터 개발을 지속하고 있음


Ø 위상 양자 컴퓨터가 오류에 대한 내성이 높은 이유는 개별 의사 입자에 정보를 인코딩 하는 것이 아니라 선이 꼬이는 횟수(선이 겹치는 부분), 즉 의사 입자의 집합체가 포지션을 바꾸는 순서에 정보를 인코딩 하기 때문


Ø 의사 입자는 외부의 노이즈에 의해 강도와 위치가 변화하지만, 정보는 위상의 특성에 포함되어 있기 때문에 노이즈의 영향을 받지 않게 되는 것임



<자료> Delft University of Technology


             [그림 7] 델프트 기술대학과 MS의 공동 연구



ž 위상 양자 컴퓨터는 전형적인 고위험·고수익의 기술방식으로 자금력이 풍부한 MS로서는 투자해 봄직한 방식이며, 성공을 거둘 경우 MS는 양자 컴퓨터의 선두로 올라설 수 있음


Ø MS는 아직 수수께끼의 해명이 완전히 이루어지지 않은 마요라나 페르미온 소립자를 이용하고 있기 때문에, MS의 양자 컴퓨터 개발 목표는 그 신뢰성을 확보하는 데 있음


Ø 입자에 정보를 삽입하는 방식으로 개발하는 양자 컴퓨터의 오류 비율은 비교적 높아 10^(-4) 정도라고 알려져 있는 반면, 위상 양자 컴퓨터의 오류 비율은 이보다 매우 낮은 10^(-30)까지 도달할 수 있다고 알려져 있음


Ø 현재 상용 양자 컴퓨터는 오류 비율이 10^(-10) 정도일 것이 요구되고 있는데, MS의 위상 양자 컴퓨터는 이 조건을 훨씬 넘어서는 것이라 할 수 있어 만일 상용화가 이루어진다면 MS는 경쟁자들에 비해 크게 앞서는 양자 컴퓨터 기술력을 단숨에 확보하게 될 것으로 예상됨



Ø , 위상 양자 컴퓨터는 아직 기초 연구 단계여서 장기간에 걸친 연구 개발이 필요한데, 이런 점은 풍부한 자금력을 가진 MS로서는 문제가 되지 않으며 오히려 MS에 적합한 연구개발 아이템이라 할 수 있음


Ø MS는 양자 컴퓨터의 핵심 기술인 소프트웨어 개발에 주력하고 있는데, 시뮬레이터를 사용하여 양자 알고리즘을 개발하고 있으며, 상용 양자 컴퓨터들이 등장하면 여러 분야에서 바로 활용할 수 있게 해주는 준비를 해나가고 있음


Ø 양자 컴퓨터 개발에서는 하드웨어뿐만 아니라 알고리즘의 개발도 쉽지 않고 시간과 비용이 소요되는데, MS는 알고리즘의 개발을 선행하여 유용한 애플리케이션의 개발을 목표로 함으로써 경쟁기업과 차별화를 꾀하고 있음


Ø 또한 양자 알고리즘의 개발은 인공지능(AI)의 발전과도 밀접한 관련이 있기 때문에, MS는 독자적인 위상 양자 컴퓨터 개발을 통해 AI까지 선도할 수 있는 포지셔닝 확보를 위해 양자 알고리즘 개발에 적극적인 투자를 지속할 것으로 예상됨

※ 아래 글은 정보통신기술진흥센터(IITP)가 발간하는 주간기술동향 1795호(2017. 5. 10 발행)에 기고한 원고입니다.


▶ IITP에서 PDF 포맷으로 퍼블리싱한 파일을 첨부합니다. 가독성이 좋으니 참고하시기 바랍니다.

구글_하이브리드 방식_5년 이내 상용 양자 컴퓨터.pdf



[ 요 약 ]


IBM에 이어 구글도 5년 이내에 양자 컴퓨터 기술을 상용화하겠다는 계획을 밝힘에 따라 양자 컴퓨터 주도권을 차지하기 위한 기술 공룡들 간 경쟁이 본격화될 조짐을 보이고 있음구글이 개발하고 있는 기술은 아날로그 방식의 양자 컴퓨터에 독자적으로 개발한 디지털 기술을 통합한 하이브리드 방식이란 점이 특징구글도 궁극적으로는 디지털 방식의 양자 컴퓨터를 지향하지만, IBM에 비해 후발주자인 현재의 열세를 좁히기 위한 전략으로 하이브리드 방식을 취한 것으로 보임



[ 본 문 ]


ž 구글은 2017 3, 양자 컴퓨터 기술을 5년 이내 상용화하겠다는 계획을 학술지 네이처(Nature)에 기고하며 디지털이 아닌 하이브리드 방식을 채택했다고 발표하였음


<자료> Nature


[그림 1] 구글의 양자 컴퓨터


Ø 구글에 따르면 궁극의 양자 컴퓨터는 디지털 퀀텀 컴퓨터(Digital Quantum Computer)로 현재의 컴퓨터와 마찬가지로 디지털로 작동하겠지만 현 단계에서는 다른 입장을 취할 필요가 있음


Ø 정보 처리는 디지털 방식이 당연하다고 생각되지만, 양자역학의 기본 개념이 0 1의 이진법을 넘어서는 것이기 때문에 양자 컴퓨터의 세계에서는 사정이 달라질 수밖에 없고, 따라서 양자컴퓨터가 디지털로 작동하기 위해서는 큰 장벽을 넘어서야 함


Ø 양자 컴퓨터의 개발은 오류와의 싸움이기도 한데, 양자 컴퓨터의 기본 단위인 큐빗(Qubit)은 벡터 값인 l0>l1>을 동시에 나타낼 수 있는 중첩(Superposition) 상태를 가지기 때문에 매우 불안정하며, 미세한 노이즈 만으로도 상태가 변화하는 오류가 발생하기 때문


Ø 이처럼 노이즈로 인한 상태 변화 현상을 비응집(Decoherence)이라고 부르는데, 디지털 방식으로 양자 컴퓨터를 구현하려면 시스템을 노이즈로부터 보호하고 큐비트를 안정적으로 유지할 수 있는 고도의 기술이 필요하게 됨


Ø 이와 반대로 아날로그 방식의 양자 컴퓨터는 제한된 작업만 실행할 수 있는 한계가 있지만 오류에 대한 내성은 높은 편으로 알려져 있음


Ø 구글이 네이처에 기고한 논문에 따르면 구글은 하이브리드 방식을 채택하여 아날로그 방식인 단열 양자 컴퓨터(Adiabatic Quantum Computer) 기술을 디지털 기술로 보완한다는 방침


Ø 전문가들은 디지털 방식의 양자 컴퓨터 실현까지 10년 정도 걸릴 것으로 내다보고 있는데, 구글은 하이브리드 방식을 통해 개발 기간을 대폭 단축하여 5년 이내 상용화 제품을 내놓는다는 계획을 구상 중인 것으로 보임


ž 구글은 하이브리드 방식이라는 독특한 양자 컴퓨터를 통해 발견적 양자 알고리즘(Heuristic Quantum Algorithms)을 구현하는 것이 목적이라 밝히고 있음


Ø 구글이 한정된 기능을 갖는 하이브리드 양자 컴퓨터로 얻고자 하는 것은 곧바로 사업에 활용할 수 있는 응용 기술이 아니라, 휴리스틱(Heuristic, 스스로 발견하도록 돕는 학습법)이라 부르는 새로운 기반 기술로 근사치의 해법을 개발하는 알고리즘임


Ø 구글은 본격적인 양자 컴퓨터가 등장하면 자신들의 휴리스틱 양자 알고리즘이 위력을 발휘할 것으로 기대하고 있는데, 구글이 특히 주목하고 있는 응용 분야는 시뮬레이션(Simulation), 최적화(Optimization), 샘플링(Sampling) 등임


<자료> IQOQI/Harald Ritsch


[그림 2] 양자 컴퓨터로 소립자 생성 시뮬레이션


Ø 시뮬레이션은 양자 컴퓨터에서 화학 반응과 물질 소재를 모델링하고 시뮬레이션 하는 것을 말하는데, 양자 수준의 모델링은 현재의 컴퓨터로는 불가능하기 때문에 양자 컴퓨터가 크게 활약할 수 있는 분야로 손꼽히고 있음


Ø 양자 컴퓨터로 모델링 하게 되면 다양한 소재를 머신에서 정밀하게 가상 실험 할 수 있는데, 비행기용 화학 섬유를 강화하거나 자동차용 배기 가스 제거 장치(촉매 컨버터)의 효율을 올리거나, 태양광 전지의 변환 효율을 높이는 등의 연구에 이용될 것으로 기대됨


Ø 최적화는 최적화 문제를 양자 컴퓨터로 해결하는 것을 말하는데, 적용 분야는 무척 광범위해서 소비자에 대한 제품 추천이나 온라인 광고의 입찰 모델, 유통산업에서 물류 운송 루트의 최적화 등에 사용될 수 있음


Ø 아날로그 방식의 양자 컴퓨터를 최적화 머신(Optimization Machine)이라 부르기도 하는 만큼, 최적화는 구글 하이브리드 양자 컴퓨터의 효과를 극대화할 수 있는 분야가 될 것으로 보임


Ø 샘플링은 통계 및 기계학습에 사용되는 방법으로 확률 분산에서 데이터를 추출하는 기법인데, 구글은 실제로 49 큐비트로 구성된 양자 컴퓨터를 사용하여 샘플링 연구를 진행하고 있음


Ø 구글은 논문에서 양자 컴퓨터가 현재의 수퍼 컴퓨터에서 실행할 수 없는 문제를 해결할 수 있다고 설명하고 있는데, 이를 양자 패권(Quantum Supremacy)이라 부르며, 양자 컴퓨터는 본질적으로 현재의 수퍼 컴퓨터 기능을 크게 상회한다는 것을 의미함


ž 구글은 여러 업종에 걸쳐 많은 기업이 양자 컴퓨터를 사용할 수 있도록 IBM과 마찬가지로 양자 컴퓨터를 클라우드 서비스로 제공한다는 계획을 밝혔음


Ø 클라우드로 제공하는 또 다른 목적은 양자 컴퓨터를 위한 알고리즘 및 응용프로그램 개발을 촉진하는 것인데, 구글은 하이브리드 방식의 양자 컴퓨터에 관심을 갖는 연구자를 늘리고 개발자 커뮤니티의 형성을 목표로 하고 있음


Ø 구글의 양자 컴퓨터는 구글 클라우드 플랫폼을 통해 제공될 예정인데, 이는 양자 컴퓨터를 인공지능 다음의 기축 기술로 자리매김하고 클라우드로 제공하겠다는 IBM의 전략과 동일한 맥락


Ø 구글은 벤처 캐피탈 커뮤니티를 향해서도 노력을 기울이고 있는데, 현재 디지털 방식의 양자 컴퓨터 기술을 중심으로 투자를 진행하고 있는 벤처 캐피탈에 대해 구글은 하이브리드 방식에 대한 투자의 중요성을 역설하고 있음


Ø 궁극의 양자 컴퓨터는 디지털 방식이라는데 이견이 없지만, 구글은 자신들의 하이브리드 기술이 그때까지의 공백을 채울 수 있어 투자 대상으로도 매력이 있다고 호소하고 있음


Ø 구글의 전략 목표는 테슬라처럼 처음부터 전기차(EV)를 투입하는 것이 아니라 도요타처럼 하이브리드 방식으로 새로운 시장을 형성하는 것이라 할 수 있음


ž 구글은 2009년부터 양자 인공지능(Quantum AI) 부문을 통해 양자 컴퓨터 연구를 진행했는데, 초기에는 미 항공우주국(NASA)과 공동으로 아날로그 방식의 연구를 진행하였음


Ø 구글은 2009년부터 캐나다의 벤처기업 D-웨이브(D-Wave)가 개발한 양자 컴퓨터를 이용하여 연구를 진행해 왔으며, 2013년에는 미 항공우주국(NASA)과 공동으로 양자 인공지능 연구소(Quantum Artificial Intelligence Lab, QuAIL)를 설립하였음


<자료> Quantum Artificial Intelligence Lab


[그림 3] NASA의 양자 인공지능 연구소(QuAIL)


Ø QuAIL은 양자 컴퓨터에서 기계학습 및 최적화 기술을 개발하는 것을 목적으로 하며, 실리콘밸리에 있는 NASA 에임즈 연구센터(NASA Ames Research Center) 내에 설립되었음


Ø QuAIL 2013 5D-웨이브의 양자 컴퓨터 D-Wave Two를 도입했는데, 이 머신은 퀀텀 어닐링(Quantum Annealing)이라는 아날로그 방식의 양자 컴퓨터로 구글은 최적화 연구를 중심으로 프로젝트를 진행하였음


Ø NASA는 양자 알고리즘을 이용해 우주 개발 분야에서 최적화를 현행 수퍼 컴퓨터보다 빠르게 실행하는 것을 목적으로 하고 있으며, QuAIL은 올해 3D-웨이브의 최신 모델인 D-Wave 2000Q를 도입한다고 발표한 바 있음


ž 이후 구글은 D-웨이브를 이용하여 양자 컴퓨터 연구를 진행하는 한편, 2014 9월부터 독자적인 양자 컴퓨터 기술의 개발에 나섰음


Ø 구글은 2014 9월에 UC Santa Barbara(캘리포니아 대학 산타바바라)의 존 마티니 교수를 초빙해 양자 컴퓨터 하드웨어 연구 부문을 설립하였음


Ø 당시에는 D-웨이브가 개발한 양자 컴퓨터에 대해 이 머신이 정말 양자 컴퓨터인가 하는 본질적인 의문의 목소리가 학계를 중심으로 높아지고 있었음


Ø D-Wave Two 모델을 벤치마킹 해보면 확실히 양자 효과를 생성하고 있지만, 이것이 현재 컴퓨터의 성능 향상에 기여하고 있는지에 대해서는 많은 학자들이 의문을 제기하였음


Ø 마티니 교수도 의문을 품고 있던 연구자의 한 사람으로서 D-Wave Two의 평가를 실시한 후 보고서를 공개한 바 있는데, 보고서는 D-Wave Two가 노트북의 성능을 능가하는 것은 아니라고 냉혹한 평가를 결론으로 담고 있음


Ø 반면 구글은 D-Wave Two를 면밀히 검증함으로써 문제점이나 특성을 파악하여 이를 독자적인 양자 컴퓨터 개발에 활용하고 있으며, D-웨이브를 재평가하게 만드는 높은 수치의 벤치마크 결과 등을 공표하였음


Ø 구글은 D-웨이브에 비판적이었던 마티니 교수를 합류시켜 양자 컴퓨터 기술개발 연구를 진행할 것을 제안하였는데, 마티니 교수는 대학 재직 당시 물리학부에서 개발한 양자 칩을 D-웨이브의 머신에 구현하여 하이브리드 방식으로 성능을 개선할 것을 목표로 구글에 합류하였음


ž 2014 6월 구글은 아날로그 방식을 사용하되 디지털로 제어 가능한 양자 칩을 개발하였고, 양자 컴퓨터의 하이브리드 방식을 제창하였음



Ø 마티니 교수는 양자 컴퓨터가 안정적으로 작동 할 수 있는 기술을 주제로 연구를 진행하고 있는데, 구글에 합류하기 전인 2014 4월 마티니 교수팀은 5 큐비트로 구성된 프로세서를 개발해 네이처에 논문을 발표한 바 있음



<자료> Martinis Group


[그림 4] 마티니 교수팀의 5큐비트 프로세서


Ø 마티니 교수팀의 양자 컴퓨터 칩은 조지프슨 양자 프로세서(Josephson Quantum Processor)라 불리는데, 사파이어 기판에 알루미늄 회로를 증착한 모양을 띠고 있음(조지프슨 효과는 두 개의 초전도체가 절연막으로 격리되어 있을 때 양자 사이에 전위차가 없어도 전류가 흐르는 현상)



Ø 2015 5월 구글은 9개의 큐비트로 구성된 양자 칩을 발표했는데, 이 칩은 초전도 양자 회로로 구성되어 오류를 보정하는 기능을 갖고 있음



<자료> Martinis Group


[그림 5] 구글의 9큐비트 양자 칩


Ø 큐비트는 불안정하여 환경 변화나 노이즈에 의해 상태가 변화되어 오류가 발생하기 쉽기 때문에 큐비트 개발 시에 오류 감지 및 보정은 매우 어려운 것으로 알려져 있음


Ø 이 문제를 해결하기 위해 구글은 양자 오류 보정(Quantum Error Correction, QEC)이라는 기능을 프로세서에 구현하여, 오류를 감지하고 오류 발생을 억제 할 수 있게 되었음


Ø 2016 6, 구글의 하드웨어 연구 부문은 초전도 회로를 가진 디지털화된 단열 양자 컴퓨팅(Digitized adiabatic quantum computing with a superconducting circuit)이라는 논문을 발표하고, 아날로그 양자 컴퓨터에 디지털 기술을 통합해 아날로그 방식의 약점을 보완하는 방식을 공개


<자료> Google


[그림 6] 하이브리드 단열 양자 컴퓨팅


     Ø 아날로그 방식은 단열 양자 컴퓨팅(Adiabatic Quantum Computing)을 말하며, 디지털화 되었다는 것은 개별 큐비트를 조작하는 기술을 말하는데, 구글의 하이브리드 방식은 양자 컴퓨터를 구성하는 개별 큐비트를 조작하는 것이 핵심임


Ø 이처럼 구글은D-웨이브를 사용하여 양자 컴퓨터 연구를 시작하며 기초 기술을 습득했지만, 이후 마티니 교수팀을 중심으로 독자적인 양자 칩을 개발하여 이를 D-웨이브의 시스템에 탑재해 가동시킴으로써 차별화된 하이브리드 기술 방식을 만들어 나가고 있음


ž 양자 컴퓨터 분야에서 구글은 후발 주자로 핸디캡을 안고 있지만, 인공지능이나 자율운전차에서와 마찬가지로 파격적 투자를 통해 단숨에 양자 컴퓨터 정상 등극을 노리고 있음


Ø 하이브리드 방식의 양자 컴퓨터는 처음 시도되는 것이어서 상용화가 가능한 시스템인가에 대한 의문이 제기되고 있는데, 구글은 자신들만이 이 방식을 추진하려 하기 보다는 벤처기업들의 적극적인 동참과 활약을 기대하고 있음


Ø 구글은 많은 스타트업들이 하이브리드 방식에 관심을 보이게 되면 여기에서 혁신이 태어날 것으로 기대하고 있는데, 연구자들 대부분이 아날로그 방식 양자 컴퓨터에 대해 회의적이었지만 구글이 이를 개선하여 새로운 길을 제시하면서 연구자들의 관심이 새롭게 모이고 있음


Ø 구글이 하이브리드 방식의 양자 컴퓨터 기술 상용화를 발표한 직후, IBM은 디지털 방식의 양자 컴퓨터 IBM Q를 몇 년 이내에 상용화하겠다는 계획을 발표하였음


Ø IBM Q범용 양자 컴퓨터(Universal Quantum Computer)로 자리매김 하고, 머신을 디지털로 제어하여 범용적인 작업을 수행하게 한다는 계획인데, 원래 이 모델의 출시는 10년 후로 예상되었지만 이번 발표로 IBM은 상용화 일정을 대폭 앞당겼음


Ø 양자 컴퓨터 기술 분야에서는 IBM이 크게 앞서 있고 구글이 도전하는 구도인데, 구글은 양자자 컴퓨터 개발을 제로에서부터 시작했기 때문에 격차가 매우 큰 상태


Ø 그러나 AI와 자율운전 자동차 개발에서도 백지 상태에서 출발했지만 지금은 기업 인수와 파격적인 기술력으로 전세계 선두를 달리고 있는 것처럼, 구글은 양자 컴퓨터 기술 개발에서도 유사한 방법을 사용해 단기간 내에 정상의 자리를 노릴 것으로 예상됨


Ø IBM에 이어 구글이 가세함으로써 양자 컴퓨터 개발 경쟁이 점차 최고조를 향해 전개될 것으로 예상되는 가운데, 관련 기술의 진화가 폭발적으로 진행될 흐름이 도래하고 있음


Ø 양자 컴퓨터는 인공지능 기술과도 밀접한 관련이 있는 만큼, 수년 내 본격적인 양자 컴퓨터의 상용화는 기술의 발전이 기하급수적 속도로 이루어지는 특이점(Singularity) 도달 속도를 크게 앞당길 것으로 예상됨

※ 아래 글은 정보통신기술진흥센터(IITP)가 발간하는 주간기술동향 1794호(2017. 5. 3 발행)에 기고한 원고입니다.


▶ IITP에서 PDF 포맷으로 퍼블리싱한 파일을 첨부합니다. 가독성이 좋으니 참고하시기 바랍니다.

IBM_세계 최초 범용 양자컴퓨터 발표_클라우드로 제공.pdf



[ 요 약 ]


인공지능(AI) 왓슨으로 새로운 비즈니스 모델을 개척해 가고 있는 IBM이 이번에는 양자 컴퓨터 분야를 선도하겠다는 출사표를 던졌음왓슨을 개발한 IBM 왓슨 연구소는 세계 최초의 범용 양자 컴퓨터를 표방한 IBM Q를 발표하고 이를 클라우드 서비스 형태로 제공하겠다는 계획을 발표하였음. IBM 10년 이상 걸릴 것으로 예상했던 50 큐빅스급 양자 컴퓨터를 수년 내에 개발한다는 로드맵을 공개하며미래 기술로만 여겨지던 양자 컴퓨터를 현재의 기술로 제시하고 있음


[ 본 문 ]


ž IBM은 지난 3 6, 세계 최초로 범용 양자 컴퓨터(Universal Quantum Computer)를 클라우드 서비스 형태로 상용화 하겠다는 계획을 밝혔음


<자료> IBM

[그림 1] IBM이 범용 양자 컴퓨터 IBM Q


Ø IBM의 양자 컴퓨터 제품명은 'Q'이며, 비즈니스 및 과학연구 용도의 상용 기기로 출시될 예정인데, [그림 1]에서 보는 것처럼 외형은 양자 컴퓨터를 원통형 케이스에 격납하여 냉각시킨 형태를 띠고 있음


Ø IBM범용이라는 수식어를 붙인 것은 Q가 제약, 물류, 금융, 보안, 인공지능(IA) 등 다양한 산업에 적용될 것을 목표로 하기 때문인데, 현재 유일한 상용 양자 컴퓨터인 캐나다 D-웨이브(D-Wave)의 제품은 특정 수학 계산만을 수행하는 전용 기기에 가까움


Ø IBM은 인공지능과 블록체인에 이어 양자 컴퓨터를 클라우드 서비스로 제공한다는 계획인데, 양자 컴퓨터 클라우드를 위한 SDK(소프트웨어 개발환경) 제공을 통해 개발자들이 양자 컴퓨터용 애플리케이션을 용이하게 개발할 수 있도록 지원할 예정


Ø 양자 컴퓨터의 클라우드 제공은 보다 많은 사람들이 이용할 수 있도록 하겠다는 IBM이 뜻을 담고 있는데, D-웨이브의 양자 컴퓨터는 대당 가격이 1,500만 달러로 추정되며 미 항공우주국, 록히드 마틴, 구글 등 소수의 기업에만 판매되고 있음


Ø 범용을 목표로 하기 때문에, IBM은 양자 컴퓨터 클라우드와 기존 시스템을 연계할 수 있는 API(응용프로그램 인터페이스)를 제공하겠다는 계획도 분명히 하였음


ž IBM Q의 로드맵도 공개했는데, 현재 5 큐비트(Qubit) 수준의 시스템을 향후 수년 내에 열 배인 50 큐비트로 확장한다는 계획임


Ø 현재의 컴퓨터는 0 1의 이진법 신호를 이용해 연산을 하거나 정보를 저장하고 읽는 방식이어서 0 또는 1의 상태를 나타내는 비트(bit)가 정보의 기본 단위가 됨


Ø 비트의 양이 늘어날수록 성능도 비례해서 발전하게 되며, 반도체 기업들의 개발 목표는 더 작은 반도체 칩에 더 많은 비트를 저장하는 것이 됨


Ø 반면 양자 컴퓨터가 기반을 두고 있는 양자역학은 확률로 물질의 상태를 표시하기 때문에 0 1이 아닌 중간 단계(중첩된 상태)가 동시에 존재할 수 있음



<자료> IBM


[그림 2] 큐비트(Qubit) 정보 단위


  Ø  이런 원리 때문에 양자 컴퓨터는 0 1을 이용해 표현할 경우 한가지가 아니라 00, 01, 10, 11과 같이 4가지 표현이 동시에 가능한데, 이때 사용되는 표현의 단위를 큐비트(Qubit, 퀀텀 비트)라고 함(큐비트의 0 1은 숫자가 아닌 벡터로, 정확히는 켓(Ket) 0, 1로 읽음)


Ø 3큐비트는 000, 001, 010, 011, 100, 101, 110, 111 8가지 상태를 동시에 표현할 수 있고 4큐비트가 되면 16가지, 10큐비트가 되면 1024가지 상태를 표현할 수 있기 때문에 비트를 늘리는 것보다 큐비트를 늘리는 것은 비교할 수 없을 정도의 성능의 개선을 가져 올 수 있음


Ø 500 큐비트의 양자 컴퓨터가 등장한다면 2 500승 규모의 정보를 처리할 수 있게 되는데, 이는 우주 전체의 물질의 수에 해당하는 것으로, 그야말로 대규모 처리가 가능해지는 것임


Ø 기존 컴퓨터가 18개월 동안 집적도가 두 배가 된다는 '무어의 법칙'에 따라 발전해 왔다면, 양자 컴퓨터는 큐비트가 늘어날수록 성능이 기하급수적으로 개선된다고 볼 수 있음


Ø 구글은 작년 6월 전자 9개를 제어할 수 있는 9큐비트의 양자 컴퓨터를 시연한 바 있고, IBM도 작년 5월에 5큐비트 양자 컴퓨터를 만들어 공개했는데, 현재 가장 빠른 양자 컴퓨터는 20개의 큐비트를 탑재하고 있는 것으로 알려짐


Ø 작년 5월 당시 IBM50~100 큐비트로 구성된 양자 컴퓨터의 완성에 10년이 걸린다고 말한 바 있으나, 이번 로드맵 발표에서는 그 기간을 대폭 단축하여 미래 기술로 여겨지는 양자 컴퓨터를 단숨에 현재의 제품으로 포지셔닝시켰음


Ø IBM의 최종 목표는 수천 큐비트를 가진 범용 양자 컴퓨터를 개발하는 것인데, 물리적으로는 10 만 큐비트 규모의 양자 컴퓨터 개발이 가능한 것으로 알려져 있음


ž Q IBM Thomas J. Watson Research Center(IBM 토마스 왓슨 연구소)의 양자 컴퓨터 연구 부문인 IBM Q Lab()에서 개발되고 있음


<자료> IBM

[그림 3] IBM Q의 외형


Ø 뉴욕 교외의 요크타운에 위치한 토마스 왓슨 연구소는 역사에 이름을 남긴 수퍼 컴퓨터가 개발된 곳인데, 수치 계산 수퍼 컴퓨터 블루 진(Blue Gene)은 표준 벤치마크에서 세계 최고 속도를 기록했고, AI 수퍼 컴퓨터 왓슨(Watson)은 퀴즈쇼에서 인간 챔피언 두 명을 이긴 바 있음


Ø IBM Q의 외양은 현재 컴퓨터와 크게 달라 [그림 3] 보듯 천장에 매달려 있는 형상인데, [그림 1]과 같이 케이스 안에 담은 후 헬륨을 사용하여 절대영도(Absolute Zero, 섭씨 영하 273.15 = 0 Kelvin) 근처까지 냉각시켜 온도를 일정하게 유지하게 됨


Ø 구조물의 끝 부분을 크라이어펌 쉴드(Cryoperm Shield)라 하는데, 여기에 큐빗 프로세서가 탑재되며, 구조물의 온도는 아래로 갈수록 낮아져 프로세서 부분은 15 밀리켈빈(Millikelvins)의 극냉 상태에서 유지된다고 함


Ø [그림 4]는 크라이어펌 쉴드의 구조를 보여주는데, 하단 왼쪽의 원통형 장치는 믹싱 체임버(Mixing Chamber)라 불리며, 냉각 장치(Dilution Refrigerator)의 가장 아랫부분으로서 프로세서를 냉각하는 역할을 함


Ø 믹싱 체임버의 윗부분은 입력 마이크로파 라인(Input Microwave Lines)이라 부르며, 프로세서에 제어 신호 및 판독 신호를 보내는데, 이 때 신호는 큐비트 보호를 위해 현저하게 감쇠됨


<자료> IBM

[그림 4IBM Q의 크라이어펌 쉴드 구조


Ø 프로세서로 입력된 신호는 양자 증폭기(Quantum Amplifier)로 들어가 증폭되며, 증폭된 신호는 [그림 4]의 하단 오른쪽 상자 모양인 극저온 절연체(Cryogenic Isolator)로 들어가고 노이즈로부터 보호된 상태로 파이프 속을 지나가게 됨


Ø 또한 신호는 초전도 상태의 케이블을 타고 가면서 큐비트 신호 증폭기(Qubit Signal Amplifier)라는 장치에서 다시 한번 증폭되는데, 큐비트 신호는 매우 약하기 때문에 이를 노이즈로부터 보호하고 각 단에서 증폭하는 구조를 갖고 있음


Ø 프로세서는 [그림 5]의 중앙 부분에서 보는 것처럼 5개 큐비트로 구성되는데, 큐비트는 실리콘 기판에 초전도 금속(Superconducting Metal)을 탑재한 구조로 되어 있음



<자료> IBM

[그림 5] 5큐비트 프로세서


ž IBM이 작년에 공개한 5 큐비트 양자 컴퓨터는 현재 누구나 이용해 볼 수 있도록 퀀텀 익스피리언스(Quantum Experience)라는 클라우드 서비스 형태로 제공되고 있음


Ø 개발자들은 누구나 양자 컴퓨터 알고리즘을 개발한 다음 클라우드를 통해 IBM 연구소에 설치되어 있는 Q에서 실행해 볼 수 있는데, 이미 4만 명 이상이 이용한 것으로 알려져 있음


Ø 퀀텀 익스피리언스는 IBM Q를 이용하기 위한 인터페이스로 퀀텀 컴포저(Quantum Composer)를 제공하고 있는데, [그림 6]처럼 음악의 오선지와 같은 모양을 띠고 있음



<자료> IBM

[그림 6] 퀀텀 컴포저 인터페이스


Ø 퀀텀 컴포저 인터페이스의 오선지와 같은 다섯 개의 바는 5 큐비트 프로세서와 대응하며, 바의 우측에 블록 형태로 표시되는 게이트(Gate)라는 연산자를 선택해 붙여 나가는데, 연산 처리는 왼쪽에서 오른쪽 순서로 진행됨


Ø 바의 맨 오른쪽 마지막에 있는 분홍색 연산자는 오퍼레이션(Operation)이라 부르며 큐비트의 상태를 표시하는데, 이는 프린터처럼 연산 처리의 결과를 출력하는 역할을 함


Ø 퀀텀 컴포저 인터페이스의 아래 쪽은 큐비트의 물리적 상태를 표시하는데, 프로세서의 온도는 0.019651 Kelvin으로 초극저온 상태에서 프로세서가 가동되고 있음을 볼 수 있음


Ø IBM Q의 클라우드 서비스는 양자 컴퓨터의 보급에 상당한 기여를 하고 있다는 평가인데, IBM은 양자 컴퓨터 개방을 통해 혁신적인 애플리케이션들이 등장할 것으로 기대하고 있음


ž IBM은 수년 후 개발될 50 큐비트 양자 컴퓨터의 활용 방법에 대해, 범용이기는 하지만 특히 화학 분야와 보안 분야에서 활약이 기대된다고 밝히고 있음


Ø IBM Q는 현재의 컴퓨터에서 처리 할 수 없는 복잡한 모델을 실행하는데, 그 중 가장 중요한 응용프로그램은 화학 분야에서 분자 시뮬레이션이 될 것으로 보임


Ø Q는 분자의 모델링을 Quantum State(양자역학으로 표현할 수 있는 상태)까지 구축할 수 있기 때문에 분자의 특성을 정밀하게 이해할 수 있게 해주며, 이를 통해 신약 개발과 신소재의 개발이 크게 진전될 수 있을 것으로 기대됨


Ø 이미 IBM 연구소에서 여러 분자 모델을 IBM Q로 생성하는 데 성공하고 실증 실험이 진행되고 있는데, 현재의 컴퓨터로는 카페인과 같은 간단한 구조의 분자도 퀀텀 스테이트까지 시뮬레이션 할 수 없지만 이를 IBM Q에서 실행함으로써 새로운 지식을 얻을 수 있음


Ø 화학 분자 시뮬레이션 외에도 IBM은 공급망 최적화, 금융 위험 인자 분석, 새로운 암호화 기술의 개발 등에 50 큐비트 양자 컴퓨터가 이용될 것으로 기대하고 있음


Ø 보안 분야에서는 양자 컴퓨터의 등장으로 기존 암호 체계가 붕괴될 수 있기 때문에 양자 컴퓨터 시대의 본격적인 개막 이전에 새로운 보안 체계 구축이 시급하다는 의견도 대두되고 있음


Ø 가령 온라인 뱅킹의 경우 현재 통신 프로토콜로 https가 사용되고 있지만, 양자 컴퓨터의 정수 인수분해 알고리즘을 이용할 경우 암호화된 데이터의 해독이 가능해 ID와 암호를 읽을 수 있기 때문에, 양자 컴퓨터 시대에는 전혀 새로운 보안체계가 필요하다는 것임(주간기술동향 1788호 최신 ICT 이슈  NSA, 양자 컴퓨팅 실용화에 따른 현 암호화 기술 붕괴 경고 참고)  양자컴퓨팅_현재 암호화 시스템 붕괴.pdf


ž 이미 상용 양자 컴퓨터가 있지만, IBM이 추구하는 기술방식은 더 까다롭되 성능 개선이 확연하기 때문에, 50 큐비트 Q의 등장은 진정한 양자 컴퓨터 시대의 개막을 알리게 될 전망


Ø 양자 컴퓨터의 아키텍처 구성에는 여러 모델이 존재하는데 이미 제품을 판매하고 있는 캐나다 D-웨이브는 퀀텀 어닐러(Quantum Annealer)라는 기술방식으로 양자 컴퓨터를 개발하고 있음


Ø 이 방식은 에너지 레벨을 변화시키는 양자 변동(Quantum Fluctuation)이라는 과정을 통해 전역 최소값(Global Minimum)을 찾는 구조인데, 사용할 수 있는 응용프로그램이 제한되어 있어 최적화(Optimization) 전용 머신으로 분류됨



<자료> D-Wave

[그림 7] D-웨이브의 D-Wave 2000Q


Ø 따라서 D-웨이브의 퀀텀 어닐러 모델은 양자 컴퓨터의 기술 발전에 크게 기여했고 그 공적이 높이 평가되고 있기는 하지만, 성능 면에서는 기존 컴퓨터보다 확연히 클 수 없다는 것이 전문가들의 공통된 견해임


Ø D-웨이브가 2011년에 최초로 발표한 D-Wave One은 록히드 마틴 등에서 사용되고 있고, 후속 기종인 D-Wave 2X는 구글과 나사 등에서 사용 중이며, 최신 모델인 D-Wave 2000Q는 구글과 나사가 운영하는 양자 인공지능 랩(Quantum Artificial Intelligence Lab)에 설치되어 있음


Ø 반면 IBM게이트 모델(Gate Model) 기술방식으로 범용 양자 컴퓨터를 개발하고 있는데, 적용할 수 있는 응용프로그램의 범위가 넓고 물리적으로 10만 큐비트까지 탑재할 수 있어 속도 차이가 현격한 시스템이 될 것으로 보임


Ø , 개발이 매우 어려워 컴퓨터 개발 분야의 위대한 도전(Grand Challenge)이라고 불리기도 하는데, IBM의 계획대로 기술 도전에 성공해 몇 년 후에 50 큐비트 급의 Q가 등장해 여러 분야에서 활용이 된다면 비로소 진정한 양자 컴퓨터의 시대가 시작될 것으로 예상


Ø D-웨이브와 IBM는 양자 컴퓨터에 대한 접근 방법을 놓고 약간의 논쟁을 벌이기도 했지만, 지금은 서로의 방식을 존중하며 상용화 시기를 앞당긴다는 공동의 목표를 향해 나아가고 있는 중


Ø MIT가 발행하는 테크놀로지 리뷰는 지난 3월 올해의 10대 혁신기술을 발표하며 미래 컴퓨터의 시대가 곧 도래할 것이라 전망했는데, 실제로 몇 년 뒤면 현재의 수퍼 컴퓨터보다 수백만 배의 속도를 가진 컴퓨터가 사회 전 분야에서 활용되며 상상할 수 없는 세상을 열 것으로 보임

※ 아래 글은 정보통신기술진흥센터(IITP)가 발간하는 주간기술동향 1788호(2017. 3. 22 발행)에 기고한 원고입니다. 


▶ IITP에서 PDF 포맷으로 퍼블리싱한 파일을 첨부합니다. 가독성이 좋으니 참고하시기 바랍니다.

양자컴퓨팅_현재 암호화 시스템 붕괴.pdf



[요 약]


세계 최대 보안 컨퍼런스인 RSA 2017에서 미 국가안전보장국(NSA)은 양자 컴퓨터가 현재의 암호화 기술 기반을 해체할 가능성이 있다며양자 컴퓨터 도래 이후의 새로운 보안 기술즉 포스트 퀀텀 암호화 기술의 준비 필요성을 제기하였음양자 컴퓨터의 시대가 도래하려면 아직 시간이 더 걸릴 것으로 예상되지만새로운 알고리즘의 도입에는 20년 정도의 시간이 소요되므로 지금부터 양자 컴퓨터와 보안기술에 대한 논의와 준비를 시작해도 늦을 위험이 있다는 것이 NSA의 경고임


[본 문]


ž 지난 달 개최된 세계 최대 보안 컨퍼런스 RSA 2017에서는 양자 컴퓨터가 암호화 기술에 미치는 위협 및 대응 방안에 대한 논의가 주요하게 다루어졌음


Ø 특히 미국 NSA(국가안전보장국)Commercial National Security Suite and Quantum Computing FAQ(상용 국가 보안 솔루션과 양자 컴퓨팅 FAQ)라는 제목의 보고서를 공개하고 양자 컴퓨터가 암호화 기술에 미치는 위협에 대해 이례적인 경고의 메시지를 표출하였음       CNSA-Suite-and-Quantum-Computing-FAQ.pdf



<자료> Threatpost


[그림 1] RSA 2017컨퍼런스의 암호전문가 패널


Ø 미국 정부는 오래 전부터 암호화 기술을 표준화하고 기밀 데이터를 안전하게 취급하기 위해 표준 알고리즘을 사용할 것을 권장해왔으며, 이것이 받아들여져 현재 미국의 정부와 민간 기업의 시스템은 기밀정보를 송수신하는 데 표준화 된 암호화 기술을 폭넓게 사용해 오고 있음


Ø 그러나 양자 컴퓨팅이 자칫 악용되면 현재의 암호화 기술을 이용한 정보 송수신의 안전성을 보장할 수 없다는 것이 NSA의 우려


Ø 암호화 기술은 비단 미국뿐 아니라 현재 전 세계적으로 사용되고 있기 때문에, NSA의 우려가 들어맞는다면 양자 컴퓨터의 등장은 정부가 권장하는 암호화 알고리즘이 파괴되어 안전한 데이터 관리가 불가능해짐을 의미하며, 현 사이버 보안 체제의 붕괴를 의미할 수도 있음


ž NSA의 보고서는 양자 컴퓨팅이 보안에 미치는 문제점을 지적하고 있지만, 현 보안 시스템을 대체할 솔루션은 제시하지 않고 있으며, 향후의 과제로 적시하고 있음


Ø 미국에서 암호화 알고리즘은 NIST(국립표준기술연구소)가 관할하는데, NIST는 미국의 표준 기술과 규격의 제정을 통해 산업 경쟁력을 육성하는 임무를 맡고 있는 기관임


Ø NSA의 보고서는 양자컴퓨팅의 위험을 지적하지만 이를 대체할 솔루션은 내놓고 있지 못하며, 양자 컴퓨터에 대응할 수 있는 양자 이후 암호화 기술(Post-Quantum Cryptograph)에 대해서도 답을 하지 않고 있고, 단지 NIST가 주도적으로 개발할 것이라는 언급 정도에 머물고 있음


ž NSA가 양자 컴퓨팅으로 인해 위험에 처할 가능성이 있다고 본 현재의 암호화 알고리즘은 공개키 암호화(Public-Key Cryptography)라는 기술 방식임


Ø 공개키 암호화 기술은 공개키(Public Key)와 비밀키(Private Key)의 쌍을 이용하여 데이터를 안전하게 송수신하는 구조를 말하며, 송신자가 공개키로 데이터를 암호화하여 전송하면 수신자는 비밀키를 통해 이 데이터를 복호화 하게 됨



<자료> CS 110e


[그림 2] 공개키 암호화 기술의 기본 구조


Ø 공개키 암호화의 구현 방식으로는 RSA(Rivest Shamir Adleman), ECC(Elliptic Curve Cryptography, 타원곡선암호화), Diffie-Hellma(디피 헬만) 등이 있는데, NSA에 따르면 이 세 가지 알고리즘을 탑재한 시스템은 양자 컴퓨터의 등장으로 인해 더 이상 안전성이 보장되지 않게 됨


Ø 공개키 암호화 방식은 인터넷에서 널리 사용되고 있으며, 일상생활에 미치는 영향의 범위도 넓은데, 온라인 뱅킹 단말기와 은행이 통신 할 때 사용되는 보안 프로토콜인 HTTPS가 대표적


Ø 인터넷 뱅킹 시에 로그인 ID와 비밀번호는 암호화 프로토콜인 TLS(Transport Layer Security)로 암호화되어 전송되는데, 만일 전송 도중 통신이 제3자에게 도청되어도 ID 나 암호를 해독할 수 없는 구조로 되어 있어 사람들이 인터넷 뱅킹을 믿고 사용할 수 있는 것임


Ø NSA의 보고서는 양자 컴퓨터의 등장으로 전세계의 웹 통신과 인터넷 뱅킹이 위기에 노출된다고 말하는 것이며, 일상에 일대 혼란이 벌어질 위험에 대해 경고하고 있는 것임


ž 양자 컴퓨터가 보안에 미칠 수 있는 위험은 오래 전부터 지적되었으나, 연구개발 속도가 더뎌 사실상 무시되어 오다가 최근 양자 컴퓨터 기술이 급진전하며 현안으로 급부상


Ø 양자 컴퓨터가 암호화 알고리즘을 깰 수 있는 메커니즘은, 양자 컴퓨팅이 초고속 처리가 가능하다는 사실과 양자 컴퓨팅이 기반하고 있는 수학적 모델과 깊은 관계가 있음


Ø 양자 컴퓨터는 모든 응용프로그램에서 처리할 수 있는 것이 아니고 특정 알고리즘만을 초고속으로 실행하는데, 1994년 벨 연구소(Bell Laboratories)의 연구원인 피터 쇼어(Peter Shor)는 양자 컴퓨터에서 정수 인수 분해(integer factorization)의 문제를 풀 수 있는 알고리즘을 개발하였음


Ø 쇼어의 알고리즘(Shor's Algorithm)이라 불리는 이 새로운 알고리즘이 암호화 기술의 근간을 이루는 수학 문제를 풀 수 있다는 우려가 개발 당시부터 제기된 바 있음



<자료>Sendash Pangambam


[그림 3] 양자컴퓨터의 언어, 쇼어의 알고리즘


Ø 그러나 당시에도 양자 컴퓨터 연구 개발이 진행되고 있었지만 실제 작동하는 모델의 가능성에 대해서는 의문이 제기되었으며, 상용 모델이 등장하더라도 긴 세월이 필요할 것으로 보여 쇼어의 알고리즘이 가져올 수 있는 위험은 이론적 세계에 머물러 있었음


Ø 최근 들어 양자 컴퓨터의 개발이 급속도로 이루어지며 상상 속의 위험이 갑자기 소환되고 있는 것이데, 캐나다 업체 D-웨이브(D-Wave)는 양자 컴퓨터 제품을 출시하였고, IBM은 클라우드를 통해 양자 컴퓨터를 제공하고 있으며, 구글과 MS도 양자 컴퓨터 연구를 진행하고 있음


Ø 쇼어의 알고리즘을 풀 능력을 가진 양자 컴퓨터는 다행히 아직 발표되지 않았지만, 공개키 암호화 기술의 안전성을 보장할 수 없다는 위험은 이제 현실적인 문제로 대두되고 있음


ž 양자 컴퓨터로 인한 보안 붕괴의 위험에 대응하기 위해 양자 이후 암호화(Post Quantum Cryptography) 기술의 개발이 여러 기업에 의해 시작되고 있는데 구글이 대표적


Ø 구글이 양자 컴퓨터의 등장에 대비해 발표한 암호화 알고리즘은 새로운 희망(New Hope)이라 불리는데, 브라우저와 서버 간의 통신을 안전하게 실행할 수 있는 구조를 제공함


Ø 이는 HTTPS를 대체하는 것으로 양자 컴퓨터로도 해독 할 수 없는 방식으로 데이터를 암호화하는데, 여기에 사용되는 암호화 방식은 CECPQ1이라 불리며 TLS 프로토콜에 포스트 퀀텀 암호화를 구현하는 구조로 되어 있음


<자료> Google

[그림 4] 구글 크롬 카나리아 브라우저


Ø 구글은 이 새로운 암호화 방식을 크롬 브라우저의 차기 버전인 크롬 카나리아(Chrome Canary) 브라우저에 구현하여 현재 테스트 버전을 공개하고 있는데, 크롬 카나리아는 빠른 속도와 업데이트가 주요 특징으로 알려져 있으나 가장 주목할 부분은 사실 이 새로운 보안기능임


ž 이번 RSA 2017 컨퍼런스에서 소개된 캐나다의 벤처기업 이사라(ISARA) 역시 양자 컴퓨터 등장에 대비한 새로운 보안 솔루션을 개발하고 있음.


Ø 이사라는 주로 캐나다 정부와 금융기관에 제품을 제공하고 있는 기업인데, 이사라에 따르면 포스트 퀀텀 암호화 기술은 알고리즘 개발뿐 아니라 시스템 통합의 문제이기도 함


Ø 암호화 알고리즘은 IT 시스템의 핵심 기술로서 이 모듈은 다양한 부분에 산재해 있기 때문에 어디에 어떻게 사용되고 있는지를 정확히 확인한 후 오래된 보안 모듈을 바꾸거나 새 모듈을 함께 설치하는 등의 작업이 필요하다는 것


Ø 2000년을 앞두고 밀레니엄 버그(Y2K 문제)를 방지하기 위한 조치가 필요했듯이, 포스트 퀀텀 암호화 기술을 통해 혹시 모를 보안 붕괴 가능성에 대비하려면 대대적인 시스템 개편 작업이 필요하다는 주장임


ž NSA는 현 시점에서 새로운 암호화 기술의 필요성을 제기한 것에 대해 지금부터 준비를 해도 늦을 위험이 있기 때문이라며, 문제의 심각성을 인식하고 치밀히 대응할 것을 요구


Ø 주요 IT 기업에서 양자 컴퓨터 개발을 진행하고 있고 관련 제품도 출시되고 있지만, 실제로 활용이 가능한 모델은 아직 등장하지 않았다는 것이 전문가들의 대체적인 평가


Ø NSA는 보고서를 통해 왜 하필 지금 시점에서 문제점을 제기한 이유에 대해 설명하고 있는데, 비록 현재 공개키 방식의 알고리즘을 깰 능력이 있는 양자 컴퓨터가 등장하지 않았다고 해도 시스템 구축은 수십 년 단위로 설계될 필요가 있다는 점을 지적하고 있음


Ø 과거 사례를 보면 새로운 알고리즘의 도입에는 약 20년 정도의 시간이 걸리므로, 포스트 퀀텀 암호화 기술을 제대로 지원하는 일은 지금부터 준비를 시작해도 늦을 수 있다고 경고하고 있음


Ø 양자 컴퓨터가 보급되는 것은 좀 더 미래의 일이겠지만, 양자 컴퓨터가 가져 올 보안 위험의 문제를 이해하고 그 대응을 검토할 시기가 이미 도래했다는 것임


Ø IBM이 이달 초, 자사의 클라우드를 통해 개발자들이 양자 컴퓨팅 시스템인 IBM Q에 접속하여 응용 프로그램을 개발할 수 있도록 API와 소프트웨어 개발자 도구를 공개하는 등 양자 컴퓨터 상용화 시도가 IT 업계의 새로운 이슈로 부상할 조짐이 하나 둘씩 나타나고 있음




<자료> UK Intellectual Property Office, European Commission


[그림 5] 국가별 양자 컴퓨터 관련 특허 신청 현황


Ø 이런 상황에서 NSA의 경고는 비단 새로운 솔루션을 개발해야 할 과제를 안고 있는 보안업계에만 해당되는 것은 아닐 것이며, IT 시스템을 구축해 운영하고 있는 모든 공공기관과 기업들이 더욱 귀담아 듣고 대응해 나가야 할 사안이라 할 수 있음


Ø 인공지능이나 로보틱스와 마찬가지로 양자 컴퓨팅은 미래 IT 경쟁력을 가늠할 강력한 핵심 기술로 자리잡을 가능성이 있어 앞으로 선진국간, IT 대기업간 경쟁이 치열하게 전개될 전망


Ø 누가 발 빠르고 치밀하게 양자 컴퓨팅의 등장에 따른 패러다임의 격변을 전망하고 준비하느냐에 따라 새로운 사업기회 선점 및 독점 여부가 판가름 날 것으로 보임