※ 아래 글은 정보통신기술진흥센터(IITP)가 발간하는 주간기술동향 1880호(2019. 1. 22. 발행)에 기고한 원고입니다.


▶ IITP에서 PDF 포맷으로 퍼블리싱한 파일을 첨부합니다. 가독성이 좋으니 참고하시기 바랍니다.

무어의 법칙 종언 시대, CPU-GPU-DSA의 서버 프로세서 3파전.pdf



인텔의 CPU ‘Xeon(제온)’의 라이벌은 AMD나 암(Arm)의 서버 프로세서만이 아닌데, 급성장 중인 AI(인공지능) 분야에서는 GPU에 밀린 지 오래이며, 새로운 경쟁자도 계속 나타나고 있음


AMD의 리사 수 CEO에 따르면 2021년에는 데이터센터용 프로세서 시장에서 GPU의 점유율이 CPU에 육박하는 수준으로 성장할 전망하였음


리사 수는 데이터센터용 프로세서 시장 규모는 2018200억 달러에서 2021290억 달러로 성장할 것으로 내다보는데, 특히 GPU는 연간 수십 %의 속도로 성장하며 전체 시장의 약 40%를 차지하게 될 것으로 예상하고 있음


향후 성장이 기대되는 대규모 시뮬레이션이나 딥러닝 분야 등은 GPU가 적합한 작업이기 때문이라는 것이 그 이유


<자료> AMD

[그림 1] 2021년 데이터센터용 프로세서 시장 전망


이런 판단 하에 AMD201811월 제품 발표회에서 서버 프로세서 ‘EPYC(에픽)’의 차기 버전인 ‘ROME(, 개발코드명)’ 뿐만 아니라, 새로운 데이터센터용 GPU 제품으로 ‘Radeon Instinct MI60’‘MI50’을 발표하였음


리사 수 CEO는 새로운 GPU 제품들이 7nm(나노미터) 공정에서 처음 생산되는 데이터센터 용 GPU라 설명하며, AMD의 데이터센터 시장 공략은 CPUGPU라는 쌍두마차를 통해 전개될 것임을 강조하였음


AMD의 행보에는 약간의 조바심이 느껴지는데, 그도 그럴 것이 AMD보다 먼저 데이터센터 시장에 진입한 엔비디아(NVIDIA)는 이미 이 분야에서 GPU로 눈부신 성공을 거두었기 때문


엔비디아의 20188~10월 기간 결산을 보면 데이터센터 사업부문의 매출은 79,200만 달러로 2년 전인 20168~10월 매출에 비해 3.3배 증가했는데, 이러한 실적은 데이터센터용 GPU 시장이 얼마나 빠르게 성장하고 있는지 잘 보여주고 있음


사업의 규모가 달라 성장률을 단순 비교하기는 어렵지만, 비슷한 시기에 인텔의 데이터센터 사업부문 매출은 454,200만 달러에서 613,900만 달러로 1.4배 증가하였음


향후 성장이 기대되는 AI 부문의 수요를 노리고 있는 것은 GPU만이 아닌데, 최근 주목받고 있는 기술은 구글의 클라우드TPU'


작년 11월 스탠퍼드 대학에서 개최된 로봇 심포지엄 Bay Area Robotics Symposium(BARS) 2018에 등단한 유명 로봇 스타트업 안키(Anki)의 공동 창업자 마크 팔라투치는 구글)AI 클라우드인 ‘Cloud TPU(클라우드 TPU)’를 사용 중이라 밝혔음


안키가 2018년에 출시한 벡터(Vector)’는 사용자의 친구가 되어 대화 및 게임 등 커뮤니케이션을 통해 즐거움을 주는 장난감 로봇으로, 카메라로 촬영한 이미지에서 사용자의 얼굴을 인식하는 기능과 사용자의 음성을 인식하는 기능 등 고급 AI 기능을 갖추고 있음


안키에 따르면 기계학습 추론 처리 시, 이미지 인식과 같은 가벼운 작업은 벡터 로봇에 내장된 퀄컴의 스마트폰용 프로세서인 Snapdragon(스냅드래곤)으로도 처리 할 수 있음


그러나 음성 인식과 같이 중요한 추론은 스마트폰용 프로세서로 처리하기는 어렵기 때문에 클라우드 측에 맡기는데, 그 클라우드 백엔드에 구글의 클라우드TPU를 사용 중이라고 함


클라우드TPU는 구글이 자체 개발한 딥러닝 전용 프로세서인 ‘TPU(Tensor Processing Unit)’를 종량제 방식으로 이용할 수 있는 구독형 서비스임


TPU2세대인 ‘Cloud TPU v2’ALU(Arithmetic and Logic Unit: 산술논리연산장치)32,768개 탑재하여 딥러닝에 필요한 연산을 초당 180 테라 회(180T FLOPS) 실행할 수 있으며, 3세대 ‘Cloud TPU v3’에서는 초당 420 테라 회 연산이 가능함


<자료> Artificial Intelligence Videos

[그림 2] 수냉식을 채택한 Cloud TPU 3세대


엔비디아의 데이터센터용 GPU의 최신 버전인 ‘Tesla V100’이 딥러닝의 연산을 초당 125 테라 회 실행 가능한 것과 비교해 본다면, 최소한 딥러닝의 성능에 관해서라면 여기에 특화된 구글의 클라우드 TPU가 범용 목적의 GPU를 크게 앞선다고 볼 수 있음


안키와 같은 고도의 기술력을 가진 스타트업이 클라우드TPU를 채택하고 있다는 점은 클라우드 TPU의 압도적 성능을 방증하는 것임


구글이 클라우드 TPU를 선보이자, 뒤이어 화웨이 테크놀로지와 아마존웹서비스(AWS) 역시 딥러닝 전용 프로세서를 개발 중에 있음


화웨이가 201810월 발표한 ‘Ascend 910’은 딥러닝에 필요한 연산을 초당 최대 256 테라 회 실행할 수 있다고 하는데, Ascend 910은 올해 2분기에 정식 출시될 예정임


AWS201811월 딥러닝 전용 프로세서로 ‘AWS Inferentia’를 발표했는데, 올해 하반기부터 클라우드에서 이용할 수 있게 될 이 프로세서는 딥러닝의 연산을 초당 수백 테라 회 실행할 수 있다고 알려져 있음


구글에 이어 주요 클라우드 사업자들이 동참함에 따라, 향후 AI의 워크로드 처리를 놓고 GPU와 딥러닝 전용 프로세서 사이에 경쟁적 본격화될 것으로 예상됨


TPU와 같이 특정 용도에 특화된 프로세서를 도메인 특화 아키텍처(Domain Specific Architecture, DSA)’라 부르는데, 하드웨어 성능 개선의 방법으로 주목받고 있음


DSA의 대표적인 옹호론자는 RISC(축약명령어세트컴퓨터) 프로세서를 고안한 2명의 컴퓨터 과학자로, 스탠퍼드 대학 학장을 역임한 존 헤네시와 버클리 캘리포니아 대학의 교수를 역임한 데이빗 패터슨은 DSA만이 하드웨어의 성능을 향상시키는 길이라 적극 주장하고 있음


<자료> James Hamilton's Blog

[그림 3] 2017 튜링 어워드 수상자


‘Computer Architecture: A Quantitative Approach(컴퓨터 아키텍처: 정량적 접근)’‘Computer organization and design(컴퓨터 구성과 설계)’의 저자로 알려진 두 사람은 2017년 튜링 어워드를 공동 수상한 컴퓨터 과학의 권위자들임

ASIC(주문형반도체)애플리케이션 특화(Application Specific)’, 즉 하나의 응용분야에 최적화된 칩인 반면, DSA는 응용프로그램 보다 범위가 넓은 도메인(산업 및 기술영역)에 특화된 칩이라 할 수 있음

현재 구글 모기업인 알파벳(Alphabet)의 회장을 맡고 있기도 한 존 헤네시는 20185월에 열린 ‘Google I/O’ 컨퍼런스의 강연에서 DSA에 대한 관심이 증가하는 이유로 무어의 법칙의 종언이 다가오고 있기 때문이라 설명


CPU는 지금까지 집적회로의 트랜지스터 수가 1.5~2년마다 2배로 늘어난다는 무어의 법칙에 따라 성능을 향상시켜 왔으나, 현재는 반도체 제조 공정의 미세화가 한계에 다다르고 있음


인텔도 제조 공정의 미세화에 고전하고 있고, AMDIBM의 반도체 제조부문을 인수한 글로벌파운드리즈도 작년에 반도체 제조 공정 신규 개발에서 철수한 바 있음


무어의 법칙이 붕괴되면 단순히 트랜지스터의 수를 늘림으로써 성능을 향상시킬 수는 없게 되므로, 그렇다면 향후 어떻게 성능을 향상시킬 지가 반도체 산업의 화두가 되고 있음


존 헤네시는 시간이 지나면 오래된 아이디어가 다시 새로운 것이 되는 법(Everything old is new again)’이라며, 과거에는 작동하지 않던 DSA가 이제는 성능을 발휘하게 되었다고 주장


과거 범용 CPU 시대에 시도되었으나 당시에는 잘 작동하지 않았던 기술들이 있는데, DSA도 그 중 하나로 용도를 제한함으로써 이제는 오히려 성능을 발휘할 수 있게 되었음


일례로 ‘VLIW (Very Long Instruction Word)’ 아키텍처를 들 수 있는데, 이는 과거 인텔이 64 비트 프로세서인 Itanium(이타늄)에 채택했으나 성공하지 못했던 기술로, 하나의 명령어를 통해 여러 개의 명령어를 처리하도록 하는 방식임


이 방식은 범용 CPUVLIW를 채용할 경우 프로그램에 포함된 복수의 명령어를 병렬로 실행시키기 위한 컴파일러를 개발하는 것이 어려워 잘 작동하지 않았음


그런데 용도를 한정한다면 여러 명령어의 병렬 실행이 용이하게 될 수 있으며, 존 헤네시에 따르면 DSA에서는 VLIW에 의한 성능 향상이 실현될 수 있다고 함


그 밖에도 DSA에서는 높은 범용성을 목표로 하는 CPU에서는 채택하지 못했던 기술, 가령 부동소수점 연산의 정확도를 낮추는 대신 연산 횟수를 늘리는 등의 기술 적용이 가능한데, 실제 이 기술은 구글의 TPU와 화웨이의 Ascend 910 등 딥러닝용 DSA가 채택하고 있음


지금까지는 범용성이 높은 CPU의 성능 개선이 순조롭게 진행되어 왔기 때문에, 틈새시장 전용의 프로세서가 활약할 기회가 주어지지 않았지만, CPU의 성능 향상 방법이 막히면서 다양한 도메인에 다양한 DSA가 등장하게 될 것으로 존 헤네시는 전망하고 있음


실제로 딥러닝 이외 영역에서도 DSA가 등장하고 있는데, 베어풋 네트웍스(Barefoot Networks)SDN(소프트웨어 정의 네트워크) 전용 DSA‘Tofino(토피노)’를 개발하였음


네트워크 기기에서는 패킷 처리의 구조를 하드웨어 단으로 떨어뜨린 ASIC를 사용하는 것이 일반적이었으나, 2010년대에 들어서면서 패킷 처리를 소프트웨어를 통해 정의하는 ‘OpenFlow(오픈플로우)’와 같은 SDN 기술이 주목받게 되었음


SDN 기술에서 소프트웨어 처리는 지금까지 CPU가 담당해 왔으나, 베어풋 네트웍스는 토피노로 CPU를 대체하려 하고 있음


베어풋 네트웍스는 토피노가 초당 테라비트급 패킷 처리가 가능하고, CPU로 처리하는 데 비해 레이턴시(지연)500 분의 1 이하로 할 수 있다며, 토피노의 성능은 ASIC와 맞먹지만 ASIC과 달리 토피노는 프로그래밍을 통한 처리가 가능한 장점이 있다고 주장


서버 프로세서의 분야에서 시작된 혼전은 이제 CPU 사이의 싸움만이 아니며, CPUGPU, GPUDSA, DSACPU 등 서로 다른 아키텍처 간 경쟁으로 발전해 나갈 조짐을 보이고 있어, 앞으로 시장 전개 상황을 주시할 필요가 있음


※ 아래 글은 정보통신기술진흥센터(IITP)가 발간하는 주간기술동향 1845호(2018. 5. 9. 발행)에 기고한 원고입니다.


▶ IITP에서 PDF 포맷으로 퍼블리싱한 파일을 첨부합니다. 가독성이 좋으니 참고하시기 바랍니다.

무어의 법칙 종언 이후, &lsquo;양자 컴퓨팅&rsquo;에 주목하는 반도체 업계.pdf



[ 요 약 ]


“DATE​​: Design, Automation & Test in Europe”IC 설계 기술 등에 초점을 맞춘 유럽에서 개최되는 국제 학회임. 독일 드레스덴에서 개최된 DATE 18 행사는 최근 반도체 업계의 이슈에 큰 변화가 있음을 실감케 하는 자리였음. 지금까지 IC 설계 기술을 다루는 학회의 주제는 기본적으로 반도체의 미세화에 관한 것이었지만, ‘무어의 법칙종언이 눈앞에 다가오면서 미세화에 의존하지 않고 IC를 진화시키는 양자 컴퓨팅에 대한 관심이 급상승함에 따라 양자 컴퓨팅을 위한 IC 설계 기술의 R&D가 정식 의제로 등장하였음



[ 본 문 ]


지금까지 약 반세기 동안 IC(집적회로)의 진화는 기본적으로 미세화가 견인해왔으며, 이 미세화에 의한 혜택을 누리기 위해 IC 설계 기술이 진전해 왔다고도 할 수 있음


IC 설계의 진전 방향은 크게 두 가지인데, 하나는 회로의 대규모화에 대한 대응이고 또 하나는 표면화되는 물리적 현상에 대한 대응임


전자는 높은 추상화 수준의 설계, 예를 들어 C 언어나 C++에서 IC를 설계하는 기술이며, 후자는 가령 미세화하지 않은 경우에는 보이지 않는 기생 용량(반도체 소자에서 부수적으로 생기는 정전 용량)과 기생 저항을 고려하기 위한 설계 기술임


진전을 계속해 온 설계 기술이 대상으로 하는 IC는 기본적으로 동일한 모습이었는데, 예를 들어 마이크로프로세서 및 마이크로 컨트롤러(MCU) 등 논리 IC는 논리 게이트로 구성되어 있음


논리 게이트는 하나 또는 그 이상의 입력을 받아 언제나 단 하나의 예측 가능한 출력을 산출하는 논리 회로로서 기존 컴퓨팅에서 '0''1'의 값을 갖는 논리 비트를 연산하는 회로인데, 대표적으로 AND 게이트, NAND 게이트, OR 게이트 등이 있음


그러나 미세화가 종언을 고하면서, 기존 컴퓨팅에서 연산에 사용하는 논리 비트 수의 증가와 고속화도 거의 한계점에 다다르고 있음


인텔 공동 창업자 고든 무어는 1965년에 자신의 이름을 따서 반도체 집적에 관한 방정식을 제창했는데, 이후 50년 가까이 반도체 업계를 설명해 온 법칙이 되었음


무어의 법칙은 생산되는 트랜지스터의 총량은 2년마다 2배로 증가한다는 것인데, 프로세서의 성능 향상과 생산비용의 개념을 연계한 것으로, 2배 많아진 트랜지스터를 생산하는데 소요되는 비용은 2년 전과 똑같이 유지됨을 의미함



<자료> Intel

[그림 1] 무어의 법칙


무어의 법칙이 종말을 향해 가고 있다는 주장은 2011년 이론 물리학자 미치오 가쿠의 저서 미래의 물리학에서 제기되었음


가쿠 교수는 대안적인 반도체 집적 기술이 발견되지 않는다면 무어의 법칙은 2020년 이내에 자취를 감출 것이라는 예상을 내놓았는데, 실제 2013년에 AMD가 미세화에 실패하면서 큰 주목을 받기 시작하였음


이후 마이크로소프트 연구소가 무어의 법칙에 관한 법칙이 존재한다며, 무어의 법칙 종말을 예견하는 사람들의 숫자가 2년마다 2배로 증가한다고 있다고 말할 정도로 가쿠의 예언은 업계에서 사실로 받아들여지고 있음


무어의 법칙 종말은 아이러니하게도 반도체 집적이 놀라울 정도로 빠른 혁신을 지속적으로 이뤄냈기 때문으로, 일부 디바이스의 기능은 가장 기본적인 크기가 원자 단위로 너무 작고, 이는 많은 사람들이 무어의 법칙 종말에 동의하는 근거가 되고 있음


무어의 법칙 종언은 자연스레 차세대 컴퓨팅 기술은 무엇이 될 것인가라는 화두와 연결되는데, 양자 컴퓨팅은 유력한 대안 중 하나로 수년 전부터 큰 주목을 끌고 있음


가쿠 교수는 저서에서 무어의 법칙이 종말을 고한 후 차세대 컴퓨터 기술은 분자 트랜지스터와 양자 컴퓨터 등이 될 것이라는 전망을 내놓은 바 있음


양자 컴퓨팅은 양자 게이트라 불리는 회로가 양자 비트를 연산하는데, 양자 비트는 중첩(관측될 때까지 01도 아닌 중첩 상태에 있는 것)’양자 얽힘(얽혀 있는 한 양자 비트의 상태가 다른 양자 비트의 상태에 영향을 주는 것)’의 성질이 있음


<자료> Towards Data Science

[그림 2] 양자 비트의 중첩(Superposition)


이러한 양자적 특성으로 인해 적은 양자 비트 수에서도 병렬도가 매우 높은 연산이 가능해지는 것으로 알려져 있으며, 이는 논리 비트 수의 증가나 고속화가 포화상태에 이른 가운데 양자 컴퓨팅이 주목받는 이유가 되고 있음


양자 컴퓨터의 정의에는 여러 가지 설이 있지만, 양자 게이트를 조합한 방식의 범용적인 양자 컴퓨터(양자 게이트식)와 조합 문제 해결 전용의 양자 컴퓨터(양자 어닐링식), 이렇게 두 종류로 구분하는 경우가 많음


D-Wave를 비롯해 상용화에 앞서 가고 있는 방식은 양자 어닐링식 양자 컴퓨터인데, 이는 풀고 싶은 문제를 이징 모델(Ising Model)에 떨어뜨리면 나머지는 컴퓨터가 최적의 솔루션(또는 가까운 솔루션)을 자동으로 도출하는 방식임


이징 모델은 통계역학에서 물질의 위상 전이(phase transition)와 임계 현상(critical phenomenon)을 기술하는 가장 간단한 모형을 말함


반면, 양자 게이트식 양자 컴퓨터는 현재 기존 컴퓨팅 설계 기술을 개발해온 연구자들이 더 많이 연구 대상으로 삼고 있는 방식임


지난 3월 독일 드레스덴에서 개최된 ‘DATE 18’ 컨퍼런스에서는 기존 컴퓨팅을 전제로 한 설계 기술 개발보다 양자 컴퓨팅을 위한 설계 기술 개발의 성과들이 소개되었음


큐비트를 물리적으로 구현하는 기술은 여러 방식이 알려져 있지만 모두 실현할 수 있는 양자 비트 수가 아직 적어 이론이 아닌 현실에서 양자 컴퓨팅이 기존 컴퓨팅을 능가하려면 상당한 시간이 소요될 것으로 전망되고 있음


그렇지만 무어의 법칙의 종말이 바로 코앞에 다가오고 있는 가운데, 기존 컴퓨팅을 상정 한 설계 기술을 연구개발하기 보다, 많은 수의 양자 비트가 실현된 미래를 전제로 양자 컴퓨팅을 위한 설계 기술 개발이 중요하다고 생각하는 연구자는 최근 급증하고 있음


DATE(Design, Automation & Test in Europe, 유럽 설계자동화 및 테스트 학회)IC 설계 기술 관련 국제 컨퍼런스인데, 올해 열린 DATE 18 학회에서는 양자 컴퓨팅용 설계 기술을 개발해 온 연구자들의 활동성과가 발표되고 토론되었음


이는 현재의 한계에도 불구하고 양자 컴퓨팅에 대한 연구가 앞으로 더욱 활발히 전개될 것임을 시사하는 것이어서, 올해 학회는 지금까지의 속도보다 그리고 예상 속도보다 훨씬 빠르게 양자 컴퓨팅의 발전이 전개될 수 있다는 기대감을 낳았음


학회 첫날 경영자 세션에서는 향후 세계에 공헌할 기술의 하나로 양자 컴퓨팅이 소개되었는데 마이크로소프트 양자 연구소가 양자 컴퓨팅의 잠재력을 강조하였음


경영자 세션의 제목은 ‘How Electronics May Change Our Lives, and the World(전자공학이 인류의 삶과 세상을 변화시킬 것인가이었으며, 4가지 기술이 소개되었는데, 양장 컴퓨팅에 관한 토론은 마이크로소프트가 담당하였음


MS 양자 연구소의 양자 아키텍처와 연산 그룹(QuArC) 수석 연구원 마틴 로틀러는 양자 컴퓨팅의 잠재력을 호소했는데, 가령 2048 비트 RSA 암호를 해독하는데 기존 컴퓨팅은 10억 년이 걸리지만 양자 컴퓨팅으로는 1초에 가능함


<자료> xTech

[그림 3] 양자 컴퓨팅의 RSA 암호 해독 성능


이어 그는 양자 컴퓨팅을 시험해 볼 수 있는 하는 소프트웨어로 MS가 제공하는 ‘Microsoft Quantum Development Kit(양자 개발키트)’를 소개했는데, 양자 컴퓨팅용 알고리즘을 개발하는 GUI 환경과 개발된 알고리즘을 실행하는 양자 컴퓨팅 시뮬레이터 등으로 구성되며, 알고리즘의 기술은 MS가 개발한 양자 컴퓨팅용 언어인 ‘Q #’을 사용한다고 함


MS는 또 다른 경영자 세션에도 등단하여 양자 컴퓨팅의 개요를 설명하며, 기존 가상통화의 근간 기술인 암호화가 깨질 수 있으며 양자 암호화로 방어할 수 있음을 설명하였음


마틴 로틀러는 양자 컴퓨팅을 위한 설계 자동화세션에도 등단해 ‘Quantum algorithms: The Quest for scalable programming, synthesis, and test(양자 알고리즘: 확장 가능한 프로그래밍, 합성, 테스트를 위한 탐색)’을 주제로 강연하였음


그는 양자 컴퓨팅의 개요를 밝히며 논리 게이트와 양자 게이트의 차이 등을 설명했으며, 큐비트를 실현하는 하드웨어 기술에는 여러 가지가있고, 적절한 규모의 양자 컴퓨팅 실현을 통해 현재의 암호화 기술이 깨질 우려가 있음을 설명하였음


지금까지 다양한 양자 게이트가 제안되고 있지만, 로틀러에 따르면 ‘Clifford+T(클리포드+T)’라는 양자 게이트 세트가 만능 게이트 세트로 인식되고 있음


‘Clifford+T’에서 앞의 CliffordHadamard(아다마르, 프랑스 수학자) 게이트와 위상 시프트 게이트, CNOT (Controlled NOT) 게이트의 집합을 의미하며, 뒤의 TT 게이트(π/8 게이트라고도 하며, 회전각이 π/4인 위상 시프트 게이트)를 나타낸다고 함


‘Clifford+T’ 게이트 세트를 만능이라고 하는 것은 임의의 양자 함수가 일정 이하의 에러율로 구현이 되도록 장애 허용 범위(fault tolerance)를 양자 계산에 결합할 수 있기 때문임


그러나 다른 3 개의 양자 게이트(클리포드 게이트 세트)에 비해 T 게이트는 비용이 많이 들기 때문에 이를 줄이는 것이 필요하다고 함


이어 그는 양자 컴퓨터로 연산하는 연산 내용(양자 알고리즘)을 양자 게이트에 매핑하는 컴파일링(양자 컴파일러 처리)와 양자 컴퓨팅에서 발생하는 도는 양자 오류(중첩 상태가 없어지는 것)의 수정 처리가 필요하다는 것 등을 설명하였음


이후 양자 연산 회로의 예를 소개하고, 양자 컴파일러에서 얻은 회로라 하더라도 기존 컴퓨팅과 마찬가지로 설계 검증이 필요하다는 것 등을 언급하였음


MS의 뒤를 이어서는 스위스 ETHZ(에단 취리히)에서 개발한 오픈소스 양자 컴퓨팅을 위한 프레임워크 ‘ProjectQ’를 설명하였고, 스위스 EPFL(로잔 공대)는 독일 브레멘 대학이 개발한 양자 연산회로 설계를 위한 오픈소스 툴킷인 ‘RevKit’을 설명하였음


<자료> xTech

[그림 4] 양자컴퓨팅용 소프트웨어 프레임워크


특별 세션의 주제는 양자 컴퓨터의 검증이었는데, 최근 학계와 산업계에 양자 컴퓨팅의 진출이 시작되고 있으나, 설계와 검증 및 자동화에는 진전이 없었음이 지적되었음


특별 세션의 제목은 ‘Theoretical and Practical Aspects of Verification of Quantum Computers(양자 컴퓨터 검증의 이론과 실제)’였는데, 세션 의장은 IBM과 이스라엘 Haifa(하이파) 연구소가 맡았음


강연자들은 최근 양자 컴퓨팅의 긍정적 면은 학계와 산업계에 양자 컴퓨팅의 진출이 시작되고 있다는 것으로, 양자 소자 등 하드웨어의 연구 개발 및 응용 분야의 개척에 의미 있는 진전이 있었다고 평가하였음



반면 양자 컴퓨터의 설계와 검증, 그 자동화에 대해서는 별로 진전이 없었다고 평가하며, 설계·검증·자동화 기술 없이는 실제로 사용가능한 양자 컴퓨터 시스템의 구축은 어렵다고 지적하였음


특히 검증에 초점을 맞춰 논의가 전개되었는데, 가령 기존 컴퓨팅과 양자 컴퓨팅의 원리가 다르기 때문에 검증 방식에서도 차이가 있음을 지적하였음


학회 중간에 열린 특별 기조 강연에서는 새로운 에너지 효율적인 컴퓨팅 회로 구현 기술을 양자 컴퓨팅에도 적용 가능하다는 의견이 소개되어 큰 관심을 끌었음


기조 강연에 나선 스탠퍼드 대학의 옐레나 부코비치 교수는 에너지 효율이 높은 시스템온칩(SoC) 광컴퓨팅 회로의 구현 기술을 개발하였는데, 부코비치에 따르면 이 기술은 양자 컴퓨팅에도 적용이 가능함


<자료> Jelena Vuckovic

[그림 5] 에너지 효율적인 광 컴퓨팅 회로 기술


DATE 18에서는 여느 학회와 마찬가지로 구두 발표로 이루어지는 일반 강연 이외에 포스터 발표도 많았는데, 많은 포스터 발표가 양자 컴퓨팅을 다루었음


포스터 발표는 논문의 주요 내용을 포스터로 만들어 학회 장 곳곳에 붙이는 것인데, 관심을 모은 것 중 하나는 ‘Improved Synthesis of Clifford+T Quantum Functionality(클리포드+T 양자 기능성 합성의 개선)’이라는 포스터였음


AI 관련 소프트웨어 연구소로는 세계 최대 규모를 자랑하는 독일 German Research Center for Artificial Intelligence(DFKI)를 비롯한 여러 대학이 공동 연구한 것으로, 발표자 명의는 DFKI의 필립 니만이었음


니만 교수의 연구 주제는 더 나은 클리포드+T 세트의 양자 회로 실현인데, 일반적으로 어떤 양자 연산을 실현하는 클리포드+T 세트의 양자 게이트 조합 방법은 다양하나, 앞서 언급한대로 T 게이트는 구현 비용이 다른 양자 게이트에 비해 높음


T 게이트의 구현 비용 지표로는 T-countT-depth가 주로 사용되는데, 전자는 양자 회로 전체에 포함되는 T 게이트의 개수, 후자는 T 게이트가 하나 이상인 회로 단락의 수를 의미함


니만 교수는 T 게이트의 구현 비용을 낮출 수 있도록 클리포드+T 세트 양자 게이트의 조합이 되도록 하는 컴파일 방법을 개발했는데, 그에 의하면, 종래에 비해 넓은 범위를 보고 대체하는 양자 게이트를 선택하면 비용을 줄일 수 있다고 함


포스터에는 기존 방법과 제안된 방법으로 컴파일 한 결과의 T-depth를 비교한 그래프가 게재되었는데, 제안된 방법의 T-depth가 작아지는 것을 알 수 있었음


DATE 18 학회는 IC 설계의 패러다임이 양자 컴퓨팅으로 전환할 수 있다는 것과, 따라서 국내 기업들도 패러다임 전환에 대한 능동적 대처가 필요함을 시사하고 있음


반도체 산업은 기술 혁신의 측면에서 두 가지 특징이 있는데, 하나는 산업 내에서 혁신이 지속되어 왔다는 것이고, 또 하나는 그 혁신의 패러다임이 동일했다는 점


그러나 이제 이러한 상황에 큰 변화가 일어나고 있으며, 무어의 법칙 종말은 이 변화가 돌이킬 수 없는 것임을 상징하고 있음


DATE 18을 통해 이제 반도체 업계는 IC 설계의 기본 패러다임이 미세화가 아니라 양자 컴퓨팅이라는 관점에서 R&D를 전개해 나갈 것임을 시사하였음


<자료> ISSCC

[그림 6] 양자 컴퓨터를 위한 반도체 설계


이러한 변화는 현재 글로벌 반도체 산업의 주요 축을 구성하고 있는 우리나라 반도체 산업에도 향후 중대한 변화 동인이 발생할 수 있음을 의미하는 것임


국내 반도체 산업이 경쟁 우위를 지속적으로 확보하기 위해서는 양자 컴퓨팅, AI 등 새로운 기술에 대한 이해와 적극적인 연구개발 투자 및 협업 노력이 필요할 것임