◾ 인텔의 CPU ‘Xeon(제온)’의 라이벌은 AMD나 암(Arm)의 서버 프로세서만이 아닌데, 급성장 중인 AI(인공지능) 분야에서는 GPU에 밀린 지 오래이며, 새로운 경쟁자도 계속 나타나고 있음
▸ AMD의 리사 수 CEO에 따르면 2021년에는 데이터센터용 프로세서 시장에서 GPU의 점유율이 CPU에 육박하는 수준으로 성장할 전망하였음
▸ 리사 수는 데이터센터용 프로세서 시장 규모는 2018년 200억 달러에서 2021년 290억 달러로 성장할 것으로 내다보는데, 특히 GPU는 연간 수십 %의 속도로 성장하며 전체 시장의 약 40%를 차지하게 될 것으로 예상하고 있음
▸ 향후 성장이 기대되는 대규모 시뮬레이션이나 딥러닝 분야 등은 GPU가 적합한 작업이기 때문이라는 것이 그 이유
<자료> AMD
[그림 1] 2021년 데이터센터용 프로세서 시장 전망
▸ 이런 판단 하에 AMD는 2018년 11월 제품 발표회에서 서버 프로세서 ‘EPYC(에픽)’의 차기 버전인 ‘ROME(롬, 개발코드명)’ 뿐만 아니라, 새로운 데이터센터용 GPU 제품으로 ‘Radeon Instinct MI60’과 ‘MI50’을 발표하였음
▸ 리사 수 CEO는 새로운 GPU 제품들이 7nm(나노미터) 공정에서 처음 생산되는 데이터센터 용 GPU라 설명하며, AMD의 데이터센터 시장 공략은 CPU와 GPU라는 쌍두마차를 통해 전개될 것임을 강조하였음
▸ AMD의 행보에는 약간의 조바심이 느껴지는데, 그도 그럴 것이 AMD보다 먼저 데이터센터 시장에 진입한 엔비디아(NVIDIA)는 이미 이 분야에서 GPU로 눈부신 성공을 거두었기 때문
▸ 엔비디아의 2018년 8~10월 기간 결산을 보면 데이터센터 사업부문의 매출은 7억 9,200만 달러로 2년 전인 2016년 8~10월 매출에 비해 3.3배 증가했는데, 이러한 실적은 데이터센터용 GPU 시장이 얼마나 빠르게 성장하고 있는지 잘 보여주고 있음
▸ 사업의 규모가 달라 성장률을 단순 비교하기는 어렵지만, 비슷한 시기에 인텔의 데이터센터 사업부문 매출은 45억 4,200만 달러에서 61억 3,900만 달러로 1.4배 증가하였음
◾ 향후 성장이 기대되는 AI 부문의 수요를 노리고 있는 것은 GPU만이 아닌데, 최근 주목받고 있는 기술은 구글의 ‘클라우드TPU'임
▸ 작년 11월 스탠퍼드 대학에서 개최된 로봇 심포지엄 Bay Area Robotics Symposium(BARS) 2018에 등단한 유명 로봇 스타트업 안키(Anki)의 공동 창업자 마크 팔라투치는 구글)의 AI 클라우드인 ‘Cloud TPU(클라우드 TPU)’를 사용 중이라 밝혔음
▸ 안키가 2018년에 출시한 ‘벡터(Vector)’는 사용자의 친구가 되어 대화 및 게임 등 커뮤니케이션을 통해 즐거움을 주는 장난감 로봇으로, 카메라로 촬영한 이미지에서 사용자의 얼굴을 인식하는 기능과 사용자의 음성을 인식하는 기능 등 고급 AI 기능을 갖추고 있음
▸ 안키에 따르면 기계학습 추론 처리 시, 이미지 인식과 같은 가벼운 작업은 벡터 로봇에 내장된 퀄컴의 스마트폰용 프로세서인 Snapdragon(스냅드래곤)으로도 처리 할 수 있음
▸ 그러나 음성 인식과 같이 중요한 추론은 스마트폰용 프로세서로 처리하기는 어렵기 때문에 클라우드 측에 맡기는데, 그 클라우드 백엔드에 구글의 클라우드TPU를 사용 중이라고 함
◾ 클라우드TPU는 구글이 자체 개발한 딥러닝 전용 프로세서인 ‘TPU(Tensor Processing Unit)’를 종량제 방식으로 이용할 수 있는 구독형 서비스임
▸ TPU의 2세대인 ‘Cloud TPU v2’는 ALU(Arithmetic and Logic Unit: 산술논리연산장치)를 32,768개 탑재하여 딥러닝에 필요한 연산을 초당 180 테라 회(180T FLOPS) 실행할 수 있으며, 3세대 ‘Cloud TPU v3’에서는 초당 420 테라 회 연산이 가능함
<자료> Artificial Intelligence Videos
[그림 2] 수냉식을 채택한 Cloud TPU 3세대
▸ 엔비디아의 데이터센터용 GPU의 최신 버전인 ‘Tesla V100’이 딥러닝의 연산을 초당 125 테라 회 실행 가능한 것과 비교해 본다면, 최소한 딥러닝의 성능에 관해서라면 여기에 특화된 구글의 클라우드 TPU가 범용 목적의 GPU를 크게 앞선다고 볼 수 있음
▸ 안키와 같은 고도의 기술력을 가진 스타트업이 클라우드TPU를 채택하고 있다는 점은 클라우드 TPU의 압도적 성능을 방증하는 것임
▸ 구글이 클라우드 TPU를 선보이자, 뒤이어 화웨이 테크놀로지와 아마존웹서비스(AWS) 역시 딥러닝 전용 프로세서를 개발 중에 있음
▸ 화웨이가 2018년 10월 발표한 ‘Ascend 910’은 딥러닝에 필요한 연산을 초당 최대 256 테라 회 실행할 수 있다고 하는데, Ascend 910은 올해 2분기에 정식 출시될 예정임
▸ AWS도 2018년 11월 딥러닝 전용 프로세서로 ‘AWS Inferentia’를 발표했는데, 올해 하반기부터 클라우드에서 이용할 수 있게 될 이 프로세서는 딥러닝의 연산을 초당 수백 테라 회 실행할 수 있다고 알려져 있음
▸ 구글에 이어 주요 클라우드 사업자들이 동참함에 따라, 향후 AI의 워크로드 처리를 놓고 GPU와 딥러닝 전용 프로세서 사이에 경쟁적 본격화될 것으로 예상됨
◾ TPU와 같이 특정 용도에 특화된 프로세서를 ‘도메인 특화 아키텍처(Domain Specific Architecture, DSA)’라 부르는데, 하드웨어 성능 개선의 방법으로 주목받고 있음
▸ DSA의 대표적인 옹호론자는 RISC(축약명령어세트컴퓨터) 프로세서를 고안한 2명의 컴퓨터 과학자로, 스탠퍼드 대학 학장을 역임한 존 헤네시와 버클리 캘리포니아 대학의 교수를 역임한 데이빗 패터슨은 DSA만이 하드웨어의 성능을 향상시키는 길이라 적극 주장하고 있음
<자료> James Hamilton's Blog
[그림3] 2017 튜링 어워드 수상자
▸ ‘Computer Architecture: A Quantitative Approach(컴퓨터 아키텍처: 정량적 접근)’과 ‘Computer organization and design(컴퓨터 구성과 설계)’의 저자로 알려진 두 사람은 2017년 튜링 어워드를 공동 수상한 컴퓨터 과학의 권위자들임
▸ ASIC(주문형반도체)가 ‘애플리케이션 특화(Application Specific)’, 즉 하나의 응용분야에 최적화된 칩인 반면, DSA는 응용프로그램 보다 범위가 넓은 도메인(산업 및 기술영역)에 특화된 칩이라 할 수 있음
▸ 현재 구글 모기업인 알파벳(Alphabet)의 회장을 맡고 있기도 한 존 헤네시는 2018년 5월에 열린 ‘Google I/O’ 컨퍼런스의 강연에서 DSA에 대한 관심이 증가하는 이유로 ‘무어의 법칙의 종언’이 다가오고 있기 때문이라 설명
▸ CPU는 지금까지 집적회로의 트랜지스터 수가 1.5~2년마다 2배로 늘어난다는 무어의 법칙에 따라 성능을 향상시켜 왔으나, 현재는 반도체 제조 공정의 미세화가 한계에 다다르고 있음
▸ 인텔도 제조 공정의 미세화에 고전하고 있고, AMD나 IBM의 반도체 제조부문을 인수한 글로벌파운드리즈도 작년에 반도체 제조 공정 신규 개발에서 철수한 바 있음
▸ 무어의 법칙이 붕괴되면 단순히 트랜지스터의 수를 늘림으로써 성능을 향상시킬 수는 없게 되므로, 그렇다면 향후 어떻게 성능을 향상시킬 지가 반도체 산업의 화두가 되고 있음
◾ 존 헤네시는 시간이 지나면 ‘오래된 아이디어가 다시 새로운 것이 되는 법(Everything old is new again)’이라며, 과거에는 작동하지 않던 DSA가 이제는 성능을 발휘하게 되었다고 주장
▸ 과거 범용 CPU 시대에 시도되었으나 당시에는 잘 작동하지 않았던 기술들이 있는데, DSA도 그 중 하나로 용도를 제한함으로써 이제는 오히려 성능을 발휘할 수 있게 되었음
▸ 일례로 ‘VLIW (Very Long Instruction Word)’ 아키텍처를 들 수 있는데, 이는 과거 인텔이 64 비트 프로세서인 Itanium(이타늄)에 채택했으나 성공하지 못했던 기술로, 하나의 명령어를 통해 여러 개의 명령어를 처리하도록 하는 방식임
▸ 이 방식은 범용 CPU에 VLIW를 채용할 경우 프로그램에 포함된 복수의 명령어를 병렬로 실행시키기 위한 컴파일러를 개발하는 것이 어려워 잘 작동하지 않았음
▸ 그런데 용도를 한정한다면 여러 명령어의 병렬 실행이 용이하게 될 수 있으며, 존 헤네시에 따르면 DSA에서는 VLIW에 의한 성능 향상이 실현될 수 있다고 함
▸ 그 밖에도 DSA에서는 높은 범용성을 목표로 하는 CPU에서는 채택하지 못했던 기술, 가령 부동소수점 연산의 정확도를 낮추는 대신 연산 횟수를 늘리는 등의 기술 적용이 가능한데, 실제 이 기술은 구글의 TPU와 화웨이의 Ascend 910 등 딥러닝용 DSA가 채택하고 있음
▸ 지금까지는 범용성이 높은 CPU의 성능 개선이 순조롭게 진행되어 왔기 때문에, 틈새시장 전용의 프로세서가 활약할 기회가 주어지지 않았지만, CPU의 성능 향상 방법이 막히면서 다양한 도메인에 다양한 DSA가 등장하게 될 것으로 존 헤네시는 전망하고 있음
◾ 실제로 딥러닝 이외 영역에서도 DSA가 등장하고 있는데, 베어풋 네트웍스(Barefoot Networks)는 SDN(소프트웨어 정의 네트워크) 전용 DSA인 ‘Tofino(토피노)’를 개발하였음
▸ 네트워크 기기에서는 패킷 처리의 구조를 하드웨어 단으로 떨어뜨린 ASIC를 사용하는 것이 일반적이었으나, 2010년대에 들어서면서 패킷 처리를 소프트웨어를 통해 정의하는 ‘OpenFlow(오픈플로우)’와 같은 SDN 기술이 주목받게 되었음
▸ SDN 기술에서 소프트웨어 처리는 지금까지 CPU가 담당해 왔으나, 베어풋 네트웍스는 토피노로 CPU를 대체하려 하고 있음
▸ 베어풋 네트웍스는 토피노가 초당 테라비트급 패킷 처리가 가능하고, CPU로 처리하는 데 비해 레이턴시(지연)를 500 분의 1 이하로 할 수 있다며, 토피노의 성능은 ASIC와 맞먹지만 ASIC과 달리 토피노는 프로그래밍을 통한 처리가 가능한 장점이 있다고 주장
▸ 서버 프로세서의 분야에서 시작된 혼전은 이제 CPU 사이의 싸움만이 아니며, CPU대GPU, GPU대DSA, DSA대CPU 등 서로 다른 아키텍처 간 경쟁으로 발전해 나갈 조짐을 보이고 있어, 앞으로 시장 전개 상황을 주시할 필요가 있음
자율주행 자동차의 시가지 주행 테스트 과정에서 처음으로 인명 사고가 발생하면서 자율운전 기술의 안전성에 대한 의문이 제기되고 있음. 사고의 원인이 센서 결함인지, 자율운전 알고리즘의 문제인지 아직 조사가 진행 중이지만, 원인 규명 때까지 주행 테스트는 당분간 중단될 것으로 보임. 자율주행 상용화를 위해 시가지 주행은 반드시 필요한 만큼 테스트가 완전 중단되지는 않겠지만, 개발업체들의 기술 수준에 따라 허용 기준이 설정되는 등의 변화가 예상됨
[ 본 문 ]
우버(Uber)의 자율운전 차량이 일으킨 사고의 원인은 아직 조사 중이지만, 자율운전차에
의한 첫 보행자 사망 사고라는 점에서 상당한 파장을 일으키고 있음
Ø사망 사고는 2018년 3월18 일, 애리조나주 피닉스 교외인 템피(Tempe)에서 일어났는데 우버의 자율운전 시험 차량(Volvo XC90
SUV 베이스)이 시속 40 마일로 주행하던
중 길을 건너고 있던 여성을 치면서 발생하였음
Ø이 여성은 자전거를 끌고 도로의 왼쪽에서 오른쪽으로 건너 가고 있었는데, 맨
끝차선을 달리고 있던 자동차는 감속하지 않고 직진을 계속해 여성을 사망시켰음
<자료> New York Times
[그림
1] 우버 자율주행차 인명 사고 상황
Ø자동차에는 운전자가 탑승하고 있었지만, 차량 내부 촬영 영상을 보면
사고 당시 전방을 주시하고 있지 않았기 때문에 위험 회피 조치를 할 수 없었음
Ø자율운전 차량과 관련된 사고는 몇 차례 있었지만 인명 사고가 난 것은 이번이 두 번째이며, 보행자가 사망한 것은 처음임
Ø지난 2016년 테슬라 차량이 트럭과 충돌하며 운전자가 사망할 당시
테슬라의 오토파일럿(Auto Pilot) 기능이 핸들과 페달 제어를 지원하는 레벨 2 정도였다면, 이번 사고 차량은 목적지를 설정하면 스스로 주행하는
레벨 4 단계였기 때문에 사고의 여파가 더 크게 나타나고 있음
Ø사고 직후 애리조나를 비롯 다른 주에서도 사고의 원인이 정확히 밝혀지기 전까지 자율운전 도로 주행 테스트를 잠정
중단시켰으며, 현재 국가교통안전위원회(National
Transportation Safety Board, NTSB)가 사고 원인 조사를 진행하고 있음
사고 발생 시각은 밤 10시 경이기 때문에 사고 원인 분석은 우선
보행자 인식 실패가 센서의 결함인지 시스템의 결함인지를 규명하는 데 초점을 맞추고 있을 것으로 추정됨
Ø우버의 자율운전 자동차는 여러 센서를 탑재하여 자동차 주위의 객체를 인식하는데,
지붕 위에는 하나의 라이더(Lidar, 레이저 센서)와 7 대의 카메라를 탑재하고 있으며, 또한 레이더도 설치하여 차량 주위 360도를 모니터 하고 있음
Ø사고가 야간 주행 중에 일어나긴 했지만, 기술적으로는 주변이 어두워도
라이더를 통해 객체를 인식할 수 있고, 보행자 정도의 객체 크기라면 확실하게 감지 할 수 있다는 것이, 우버 차량에 탑재된 라이더를 제작한 벨로다인(Velodyne)의
입장임
<자료> Velodyne
[그림 2] 벨로다인 라이더의 주변 객체 인식
Ø벨로다인의 입장 발표에 따르면 차량에 사용된 라이더 HDL-64E 모델은
사고 당시와 같은 상황 조건에서 보행자와 자전거를 확실히 구분할 수 있다고 주장하였음
Ø아울러 라이더의 역할은 객체의 감지이며 회피 조치를 취할 판단은 시스템이 하는 것이라고 덧붙이며, 우버의 자율운전 소프트웨어에 문제가 있을 것이라는 견해를 밝혔음
Ø벨로다인의 주장에 대해서는, 자율운전 차량이 사고 당시 속도를 줄이거나
회피하려는 동작을 전혀 취하지 않은 것을 보면 인식이 안된 것으로 보아야 한다는 반론이 있음
로이터 통신은 전문가 취재를 통해, 라이더의 기술적 결함은 아니지만
우버가 라이더의 개수를 줄임에 따라 사각지대가 발생했을 가능성에 무게를 두고 보도하였음
Ø우버의 자율주행 테스트 차량은 원래 포드의 퓨전 세단으로 라이더 7개, 레이더 7개, 카메라 20대가 장착돼 있었음
Ø우버는 지난 2016년에 베이스 차량을 볼보 XC90 SUV로 변경하면서, 레이더는 10개로 늘렸지만 라이더는 1개, 카메라는 7대로 줄인 바 있음
<자료> Reuter
[그림
3] 우버 자율주행차의 센서 구성 변경
Ø차량 주변을 탐지하는 라이더는 센싱 능력이 우수하나 부품 가격이 매우 높고, 벨로다인이
거의 독점 공급하고 있어 자율운전 차량의 가격이 낮아질 수 없는 원인으로 꼽히고 있기 때문에 우버의 변경 조치는 비용절감이 목적이었을 것임
Ø그러나 로이터 통신에 따르면 벨로다인의 라이더는 360도를 모니터
할 수 있지만 수직 감지 범위가 좁아 낮은 곳에 위치한 물체를 감지하기 어려운 단점이 있고, 따라서
지붕에 1대만 설치할 경우 차량 주위 약 3미터의 사각지대가
발생할 수 있다고 함
Ø사각지대 가능성에 대해서는 벨로다인 관계자도 인정했고 그렇기 때문에 다수의 라이더가 필요하다는 설명도 덧붙였다고
하는데, 웨이모가 차량에 6대의 라이더를 장착한 것에 비하면
우버가 라이더를 1개로 줄인 것은 센싱 관점에서 중대한 결함이라고 로이터는 지적
그러나 자율주행차의 센서가 라이더만 있는 것은 아니기 때문에, 어떻게든
보행자는 인식했을 것이라 보는 것이 대체적인 견해임
Ø우버는 지붕에 7대의 카메라를 탑재하고 있는데, 전방을 담당하는 카메라는 근거리와 원거리를 모두 커버하며, 앞쪽에
있는 다른 자동차가 감속하는 것을 파악하는 동시에 보행자를 인식하고 또한 신호등과 도로 표지판을 읽는 데도 사용됨
Ø사고 직후 뉴스 보도에 따르면 사고 장소는 야간이지만 가로등이 설치되어 있어 일정한 밝기임을 알 수 있고, 카메라의 성능은 정확히 공개되어 있지 않지만 다이내믹 레인지가 넓어 사고 여성을 파악했을 가능성이 높음
Ø자율운전 제어 카메라와는 별도로 대시보드에 모니터용
카메라도 구비되어 있어 전방과 차량 내부를 촬영하게 되는데, 템피시 경찰이 공개한 대시보드 카메라 영상을
보면 보행자가 도로 왼쪽에서 오른쪽으로 건너고 있는 것이 정확히 포착되어 있음
Ø영상을 보면 카메라가 보행자를 인식했음에도 또한 자동차는 감속하지 않고 그대로 직진 한 것도 확인할 수 있으며, 또한 위험 시 개입해야 할 운전자가 전방을 주시하지 않고 있다가 사고 소리에 상황을 알아 차리고 놀라는 장면도
확인할 수 있음
<자료> ABC News
[그림 4] 테스터 운전자의 전방 주시 태만
Ø한편 우버 차량에는 라이더와 카메라 외에 주위 360도를 모니터 하는
레이더도 탑재되어 있는데, 레이더는 주행 중인 자동차나 정차하고 있는 자동차 등을 인식하며 도플러 효과를
이용하여 객체의 이동 속도를 파악하는 역할을 함
Ø일반적으로 레이더의 해상도가 낮고 핀 포인트에서 객체의 위치를 특정 할 수 없기 때문에 레이더 단독으로만 센싱하지는 않으며, 또한 레이더가 보행자를 인식해도 알고리즘은 이 정보만으로 브레이크를 걸도록 프로그램 되어 있지는 않음
Ø따라서 사고 당시 차량이 속도를 줄이거나 정지하지 않았다고 해서 레이더가 보행자를 인식하지 데 실패했다고 볼
수는 없다는 것이 전문가들의 견해임
종합적으로 볼 때, 우버의 센서가 보행자를 인식했을 가능성은 높은데
그럼에도 불구하고 차량이 회피 조치를 취하지 않았는지가 원인 규명의 핵심이 될 것으로 보임
Ø현재 사고 원인 조사를 하고 있는 국가교통안전위원회(NTSB)는 주로
항공기 사고를 담당하나 교통 사고 중 사안이 중대할 경우 맡기도 하는데, 자율운전 자동차 사고처럼 자동차의
소프트웨어 분석이 요구되는 고도의 사안인 경우도 NTSB가 원인을 규명함
Ø NTSB에 의한 조사의 최종 결론이 나오려면 시간이 좀 더 걸리겠지만, 우버의
자율운전 시스템에 심각한 문제가 있다는 말들이 언론을 통해 흘러 나오고 있음
Ø뉴욕타임스에 따르면 우버 차량의 ‘Disengagement(디스인게이지먼트, 자율운전 기능 해제 조치)’의 빈도는 13 마일당 1번이라고 하는데, ‘디스인게이지먼트’는
차량에 문제가 발생하여 테스터 드라이버가 자율운전 모드를 해제시키는 조치를 의미함
Ø즉, 디스인게이지먼트가 실행되었다는 것은 자율운전 자동차가 비정상
상태에 있음을 의미하며 결함 발생 건수로도 해석할 수 있는데, 우버 차량의 경우 이것이 13 마일마다 발생했다는 것이므로 시스템이 아직 불완전한 상태에 있다고 추정할 수 있음
Ø자율운전 차량의 도로 주행 테스트가 주로 이루어지는 캘리포니아주의 교통당국은 매년 각 기업의 테스트 결과를 취합해
‘자율운전 차량 디스인게이지먼트 보고서’를 공표하는데, 우버의 경우 2017년 보고서에 등재되어 있지 않아 정확한 기술 수준 추정이 어려웠음
Ø이번 뉴욕타임스의 보도로 우버의 디스인게이지먼트 빈도가 알려진 것인데, 13 마일당 1회 발생했다는 결과는, 약
5,600 마일당 1회가 발생한 웨이모(Waymo)나 1,250마일당 1회가 발생한 GM과
비교해 볼 때 기술 완성도 면에서 큰 격차가 있는 것임
[표 1] 2016.12~2017.11 캘리포니아 주 내 자율운전 테스트
기업의 디스인게이지먼트 비교
기업명
디스인게이지먼트(회) [A]
주행거리(마일) [B]
[B] / [A]
Waymo
63
352,544.6
5,596
GM Cruise
105
131,675.9
1,254
Drive.ai
93
6,127.6
255
Baidu
42
1,949.14
217
Nissan
24
5,007
207
Zoox
14
2,244
160
Telenav
50
1,581
32
Delphi Automotive
81
1,810.6
22
우버
N/A
N/A
13
NVIDIA
109
505
5
BMW
598
1,595
3
Valeo North America
215
574.1
3
Mercedes Benz
773
1,087.7
1
<자료> Department of Motor Vehicles,
State of California, 우버의 기록은 New York Times 보도
우버 자율운전 시스템의 기술 결함으로 초점이 맞춰지는 가운데, 이것이
우버 만의 문제인지, 자율운전 알고리즘에 내재한 본질적인 문제인지에 대한 논의도 이루어지고 있음
Ø사고 시간이 야간이었고, 사고 지역이 ‘횡단보도가 아닌 구역’이었기 때문에, 자율주행 차량이 보행자 주의가
필요하지 않다고 인식했을 가능성이 있다는 분석도 있음
Ø워싱턴 포스트는 로보틱스 전문가인 듀크 대학의 미시 커밍스 교수의 말을 빌려,
자율주행차량의 컴퓨터 시스템이 보행자, 특히 횡단보도 바깥의 보행자까지 인식하는 것은 아니라는
점을 지적하였음
Ø자율운전 차량은 ‘인식-판단-제어’의 순서로 작동하는데, 센서가 비록 무언가 객체를 인식했다 하더라도, ‘한밤 중에 횡단보도가 아닌 곳에서 자전거를 끌고 가는 사람’이었던 만큼 보행자로 구별하지 못했을 가능성이 있다는 것임
Ø커밍스 교수는 자율주행 시스템은 귀납적 추론을 할 수 없으므로, 특정
장소, 특정 시간대의 어떤 모습을 추측할 수 없다고 설명하며, 자율주행
차량이 도로의 복잡한 변수를 파악하지 못하기 때문에 사고가 날 위험이 높다는 점을 지적하고 있음
Ø CNN 역시 자율주행차가 보행자와 자전거를 끌고 있는 사람을 구분하는 것은 어려운 작업이라며, 자율주행차의 성능이 고속도로처럼 신호가 없고 상황이 단순한 곳에서는 완전해 보이지만, 시내주행 테스트는 조심스럽게 접근할 수밖에 없다고 보도하였음
Ø그러나 이런 지적에 대해서는, 자율운전 시스템은 보행자나 다른 차량들이
교통법규를 정확히 준수했을 때만 작동할 수 있다고 말하는 잘못된 주장이라는 반론도 있음
Ø웨이모와 GM뿐 아니라 사고를 낸 우버를 포함해 자율운전차 개발업체들은
사고 위험을 줄이기 위해 가상주행, 시험주행 등으로 주행 데이터를 수집하고 보행자의 무단 횡단 등 최대한
많은 교통 변수를 파악하기 위해 노력하고 있다는 것임
Ø또한 사고 영상을 보면 속도를 줄이거나 차선을 바꾸려는 시도가 전혀 없었는데,
시스템이 비록 보행자인지 아닌지 구분할 수 없었을 수는 있으나, 앞쪽에 무언가 있는데 정확히
무엇인지 모를 경우 계속 직진하라고 알고리즘을 설계하지는 않았을 것이란 반박임
Ø즉, 이번 사고의 원인은 센서에서 제대로 인식을 하지 못했거나, 만일 인식을 제대로 했다면 알고리즘 설계의 잘못이라기 보다는 단순히 소프트웨어가 순간적으로 작동을 하지 않았을
것으로 보는 것이 합리적이라는 것임
이런 면에서 볼 때, 이번 우버 차량의 인명 사고는 각 개발업체의
자율주행 시스템 알고리즘이 어떤 기준으로 설계되어 있는지 공개하도록 요구하는 계기가 될 수도 있음
Ø만일 우버 차량의 사고가 센서 미인식이나 소프트웨어의 작동 오류가 아니라 알고리즘에 의한 것이라면, 가령 가능성은 낮지만, ‘횡단보도가 아닌 구역에서는 보행자 주의가 필요하지 않다’는 식으로 프로그래밍이 되어 있는 것이라면 이는 심각한 문제가 될 수 있음
Ø우버의 경우 작년 3월에 자율주행 차량이 전복되는 사고가 있었는데, 당시 신호가 노란색으로 변하는 순간 교차로에 들어선 차량이 가속했다는 증언이 나오면서, 노란색 신호에서는 속도를 올려 통과하라고 프로그래밍 돼 있을 가능성이 있다는 보도가 나온 바 있음
Ø교통 법규에서 교차로 진입 시 노란색으로 불이 바뀌면 빠르게 통과하라고 되어 있기 때문에 우버의 알고리즘이 그렇게
프로그래밍 되어 있다고 해서 비판할 수는 없을 것임
Ø그러나 교차로는 매우 복잡한 상황이 벌어지는 곳이기 때문에, 현재
기술 수준에서 노란색 신호로 바뀌는 순간 무조건 가속해서 통과하라고 프로그래밍 하는 것이 적절한 지에 대해서는 사회적 논의가 필요하며 각 기업의
판단에만 맡길 수 없다는 지적도 있음
Ø이는 비단 우버 만의 문제는 아니며 자율운전차를 개발하는 모든 기업에 해당하는 것으로 각 기업이 어떤 기준으로
알고리즘을 프로그래밍 하는지 밝혀야 한다는 목소리가 높지만, 교통사고시 책임 소재 등의 이슈와 맞물려
있어 완전히 공개되지 않고 있는 상황임
Ø자율운전차에 대한 논의에서 빠지지 않는 ‘트롤리
딜레마’, 즉 타인의 생명과 자신의 생명
중 하나를 선택해야 할 때 자율운전차가 어떤 선택을 하도록 프로그래밍 할 것인지, 혹은 알고리즘을 교육할
것인지는 쉽사리 합의에 이르기 어려운 난제임
<자료> Sean Lee
[그림 5] 트롤리 딜레마
Ø트롤리 딜레마의 경우 현재는 차량 제조사마다 다른 윤리적 지침을 제시하고 있는데, 웨이모의 경우 어떤 선택이 더 나은 것인지 판단할 수 없지만 약자로 판단되는 보행자에 초점을 맞추고 있다는
입장임
Ø반면 메르세데스 벤츠는 차 안의 사람을 보호할 것이라는 입장을 밝히고 있으며,
독일연방교통부의 경우는 사고를 피할 수 없는 상황에서 자율주행차가 어떤 선택을 해야 하는 것인지 결정할 수 없다고 입장임
Ø자율주행차의 테스트 장소가 교통 흐름이 단순한 고속도로에서 이제 보다 복잡한 시내 주행으로 옮겨오고 있는 중이기
때문에, 어쩌면 자율주행차에 의한 사고는 계속 발생할 수 있을 텐데,
그 과정에서 알고리즘에 대한 공개 요구 역시 보다 거세질 수 있을 것임
자율주행차의 상용화에 대한 기대가 높아지고 있는 상황에서 발생한 이번 인명 사고는 자율주행 기술의 신뢰도에 대해
다시 한번 되짚어 보는 계기가 되고 있음
Ø자율주행차의 시가지 주행 테스트에 관대한 애리조나주에서도, 이번 사고
직후 우버의 시험 주행 중지 명령을 내렸음
Ø애리조나 주지사는 사고의 원인이 확실히 우버 측에 있다고 말함으로써 엄격한 입장을 취해 나갈 것임을 시사하였으며, 우버가 앞으로 애리조나에서는 자율주행 테스트를 재개할 수 없다는 말도 나돌고 있음
Ø이는 비단 우버에 한정한 이야기는 아니며, 애리조나뿐만 아니라 다른
주에서도 향후 자율운전에 대한 규제, 특히 시가지 주행에 대한 규제는 엄격해질 것으로 전망되고 있음
Ø사고 직후 자율주행 기술 개발업체 스스로 테스트에 신중한 입장을 보이기도 하는데, 엔비디아의 경우 안전이 보장될 때까지 자율주행 시험을 중단한다고 발표하였음
Ø엔비디아는 사고 직후 우버 차량이 엔비디아의 자율주행 기술을 적용하고 있었다는 보도가 나오며 곤경에 처하기도
했으나, 엔비디아의 젠슨 황CEO는 우버와 협력하고 있는
것은 사실이나 우버가 독자적인 인식 및 제어기술을 개발 중이었다고 해명한 바 있음
Ø공교롭게 엔비디아는 사고 후 열흘 만에 개최된 자사 개발자 컨퍼런스 ‘GPU Technology
Conference(GTC) 2018’를 맞이하게 됐는데, 적극적으로 자신들의 자율운전 기술 홍보에 나설 수 없는 상황이 되었음
Ø GTC 2018에서 스웨덴의 스타트업 ‘아인라이드
트럭(Einride Truck)’은
올해 가을 무인 트럭 ‘T-pod(T-팟)’을 상용화한다고 발표했는데, T-팟은 미국 자동차기술협회가 정한 레벨5의 최고 수준 자율운전을
지향함
Ø T-팟은 고속도로에서는 레벨5로 주행하지만 비상시에는 담당자가 원격으로
조작하며, 일반 도로에 들어서면 항상 무선 통신을 통해 원격으로 조작하게 되는데, 레벨4~5의 차량 개발을 위한 엔비디아의 ‘드라이브 PX(Drive PX)’인공지능 시스템을 채택하고 있음
Ø T-팟을 비롯해 엔비디아는 GTC 2018 행사에서 자율운전 기술에
대해 자신감을 내비치기도 했지만, 이번 우버 사고와 연루설도 있고 자율운전에 대한 부정적 여론이 커진
상태이므로 당분간 도로 주행 테스트를 자제하며 기술을 점검하겠다는 입장을 표명한 것
전문가들은 이번 사고로 자율주행차 개발이 중단되지는 않겠지만, 현재의
개발 관행에 큰 변화를 가져올 것이며, 기술력의 차이에 따라 지원이 차등화될 가능성을 점치고 있음
Ø이번 사망 사고로 인해 자율주행차량은 아직 복잡한 변수에 취약하다는 점이 드러난 셈이라는 지적이 있긴 하지만, 미국 현지에서는 그럼에도 자율주행 시험 주행을 계속 이어가야 한다는 주장이 훨씬 많은 편임
Ø자율주행차가 이상 상황에 대비한 메커니즘이 있긴 하지만 더 많은 변수를 감안해 판단하기 위해서는 결국 더 많은
테스트를 할 수 밖에 없으며, 시뮬레이션 주행을 통한 알고리즘 교육도 강화해야 하지만 도로 위 시험
주행의 지속이 중요하다는 것임
Ø단, 현실적으로 자율주행 개발업체들 사이에 기술 격차가 있다는 것이
수치로 확인되고 있느니만큼, 도로 주행 허가를 위한 기준을 설정할 필요가 있다는 주장이 힘을 얻고 있으며, 이와 맞물려 개발업체들의 도덕성에 대한 문제 제기도 이루어지고 있음
Ø인터넷 상에는 우버의 자율운전 자동차가 시가지를 경쾌하게 주행하고 있는 비디오가 많이 있으며 이는 기술이 완성된
것처럼 보이게 하는데, 이번 사고를 통해 실제 우버의 시스템은 미완성이고 시가지를 달리기에는 위험성이
높다는 평가와 증언들이 나오고 있음
Ø우버는 자율주행차량의 시험 주행을 위해 약 5만평에 이르는 가상도시
‘알모노(Almono)’를 만들었다고 알려지는 등 외부적으로 기술 개발 수준이 높다는 인상을 주고
있으나, 디스인게이지먼트가 13마일당 1회라는 사실은 매우 어려움을 겪고 있음을 방증함
Ø우버의 테스터들도 이전에 유사한 상황이 많았음을 증언함에 따라 우버가 이런 기술 수준으로 시내 주행 테스트를
실행에 옮긴 데 대한 비난의 목소리도 커지고 있음
Ø또한 자율운전 기술의 완성도를 너무 신뢰한 나머지 전방 주시 의무를 게을리 할 만한 상황이 전혀 아니었음에도
한눈을 판 테스터와, 테스터들에 대한 교육을 철저히 하지 않은 우버에 책임을 묻는 사람들도 많음
Ø우버는 향후 자율운전 기술 개발과 테스트를 어떤 식으로 전개할 것인지에 대한 질문을 받고 있는데, 이는 우버뿐 아니라 다른 기술 개발업체에도 해당되는 것이며, 개발업체들의
답변과 상관없이 교통당국이 나름의 허가 기준을 정할 가능성이 매우 높아지고 있음
캘리포니아 교통당국의 발표 결과, 자율운전 자동차의 기술력은 구글의
자회사 ‘웨이모(Waymo)’가 글로벌 자동차 대기업과 스타트업을 아직 크게 앞서고 있는 것으로 나타남
Ø캘리포니아 주는 자율운전 도로주행 테스트를 허용하고 있는 몇 안 되는 곳으로 교통당국은 주 내 도로에서 자율운전
차량을 테스트하는 기업에 대해 그 해의 시험 결과를 보고하도록 의무화하고 있음
Ø각 사가 보고한 테스트 결과를 취합해 캘리포니아주 교통당국이 공개한 보고서(Autonomous
Vehicle Disengagement Reports 2017)에 따르면, 자율운전 도로주행
거리와 AI의 운전 제어 중지 빈도 측면에서 웨이모가 모두 타사에 비해 크게 앞선 것으로 나타남
Ø우선 도로주행 테스트 거리를 보면, 웨이모는 2017년에 총 75대의 자율운전 차량을 테스트했으며, 주행거리는 총 35만 2,545 마일(약 56만 킬로미터)이었음
Ø웨이모의 테스트 주행거리는 2016년 63만 5,868 마일에 비해 절반 가량 줄어든 수치임에도 불구하고, 2017년 시험 주행거리 2위를 차지한 GM에 비해 2.7배 가량 높은 것임
Ø자율운전 기술력과 관련해 주행거리 보다 주목해야 할 것은 AI(인공지능)이 제어 능력을 잃어 사람에게 운전 권한을 넘기는 ‘분리(Disengagement)’의 발생 횟수인데, 웨이모 자율운전
차량은 2017년에 35만
2,545 마일을 달리는 사이에 63회의 ‘분리’가 발생하였음
Ø즉 웨이모의 자율운전 AI는 현재 5,596
마일(약 9,000 킬로미터) 주행 당 한 번 꼴로 판단 불능 상태에 봉착하고 있는 셈
Ø웨이모의 과거 분리 횟수 당 주행거리를 보면, 2015년에 1,200 마일(약 2,000 킬로미터) 당 1회, 2016년에는 5,000 마일(약 8,000 킬로미터) 당 1회였으므로, 웨이모의
자율운전 AI 성능은 꾸준히 향상되고 있음을 알 수 있음
[표 1] 2016.12~2017.11 캘리포니아 주 내 자율운전 테스트
기업의 AI 분리 횟수 당 주행거리
기업명
분리 횟수
주행거리(마일)
분리 1회당 주행거리(마일)
Waymo
63
352,544.6
5,596
GM Cruise
105
131,675.9
1,254
Drive.ai
93
6,127.6
255
Baidu
42
1,949.14
217
Nissan
24
5,007
207
Zoox
14
2,244
160
Telenav
50
1,581
32
Delphi Automotive
81
1,810.6
22
NVIDIA
109
505
5
BMW
598
1,595
3
Valeo North America
215
574.1
3
Mercedes Benz
773
1,087.7
1
<자료> Department of Motor Vehicles,
State of California
웨이모를 뒤쫓고 있는 곳은 제너럴 모터스(GM)의 자회사인 ‘GM 크루즈(GM Cruise)’로
2017년에 도로 주행 테스트 거리를 전년도에 비해 10배 이상 늘렸음
Ø GM 크루즈의 AI가 사람에게 권한을 넘기는 빈도는 1,254 마일 당 1회였는데, 이는
웨이모의 2015년 수준인 1,200 마일 당 1회를 따라잡은 것임
Ø또한 GM 크루즈의 2016년
분리 1회 당 주행거리가 54 마일이었음을 감안하면, GM이 1년 사이에 자율운전 AI의
성능을 비약적으로 높였음을 유추할 수 있음
Ø GM 크루즈의 테스트에서 흥미로운 점은 자율운전 차량의 도로 주행을 샌프란시스코에서만 실시하고 있다는 것인데, 이는 웨이모가 샌프란시스코의 교외 지역인 마운틴 뷰에서 도로 테스트를 실시하고 있는 것과 대비되는 부분
Ø샌프란시스코는 교통량이 많고 도로가 복잡하기 때문에 사람도 운전하기가 쉽지 않은 지역인데, GM 크루즈는 운행 조건이 더 나쁜 환경에서 테스트를 함으로써 웨이모의 기술력을 단기간에 따라 잡으려 하는
것으로 보임
Ø이와 유사한 전략을 펴고 있는 곳이 샌프란시스코에 본사를 둔 스타트업 즈욱스(Zoox)인데, GM 크루즈와 마찬가지로 샌프란시스코에서만 주행 테스트를 실시하고 있다고 함
캘리포니아 교통당국의 보고서를 보면 자율운전 차량들 사이에 성능의 차이가 크다는 사실을 알 수 있는데, 가장 차이가 두드러지는 것이 사람에게 권한을 넘기는 횟수임
Ø웨이모의 자율운전 자동차가 5,596 마일 당 1회만 AI가 사람에게 권한을 인계하는 반면 메르세데스 벤츠와 BMW의 자율운전 자동차는 1~3 마일 당 1회 꼴로 AI로부터 사람으로 인계가 발생하고 있음
Ø AI용 반도체와 자율운전 소프트웨어를 조합한 ‘자율운전
플랫폼’제공을 목표로 하고 있는 엔비디아의
시험 성적도 아직은 불안한 수준인데, 505 마일을 주행하는 동안
109회 분리가 발생하여 5 마일 당 1회 꼴로
분리가 발생하고 있음
Ø엔비디아는 자율운전 플랫폼을 사용해 누구나 자율운전 자동차를 구현할 수 있게 함으로써 ‘자율운전 기술의 일상용품화(Commodity)’를 실현하겠다는 포부를 밝히고 있으나, 이
목표가 실현되기까지는 아직 시간이 더 필요할 것으로 보임
캘리포니아 교통당국의 보고서는 자율운전 자동차의 기술 수준을 가늠하는데 매우 유용한 자료이지만, 이런 정보를 취합할 수 있는 것은 2017년이 마지막이 될 것으로
보임
Ø가장 중요한 기술 개발 업체인 웨이모는 무인택시 시범 서비스의 허가 문제로 캘리포니아 당국과 합의에 이르지 못해
작년 말부터 애리조나로 완전 무인 자율운전 자동차의 도로 주행 테스트를 실시하고 있으며, 올해 캘리포니아에서
도로 주행 여부는 불투명함
Ø웨이모의 캘리포니아 내 도로 주행 거리가 2016년에 비해 절반 가량으로
줄어든 데에는 이런 배경이 작용한 것인데, 웨이모는 2017년부터
애리조나 외에 워싱턴과 텍사스 주에서도 자율운전 도로 주행 테스트를 실시하고 있음
Ø웨이모는 2017년 12월
현재 자율운전 도로 주행 테스트가 총400만 마일(약 645만 킬로미터)이 넘었다고 발표한 바 있는데, 이는 캘리포니아 지역 이외의 도로 테스트도 상당한 거리에 달했음을 시사하는 것임
Ø포드 자동차 역시 2017년에 자율운전 차량 테스트 지역을 캘리포니아에서
미시간 주로 옮겼는데, 2016년에 캘리포니아에서 590 마일의
도로 테스트를 실시했던 포드였지만 2017년에는 전혀 실시하지 않았음
Ø따라서 각 사의 자율운전 기술의 성능 차이가 어느 정도인지를 간접적으로나마 비교하려면 2018년에는 기존과 다른 데이터를 사용할 필요가 있을 것임
한편 시장조사기관 내비건트 리서치(Navigant Research)는
자체 분석 툴을 이용해 평가한 결과 GM을 자율주행 종합 기술력 1위, 웨이모를 2위로 발표하였음
Ø내비건트 리서치는 자율운전 시스템을 개발하고 있는 19개 기업을 ‘비전, 시장출시 전략, 파트너, 생산 전략, 기술, 판매 및 유통, 제품 성능, 제품
품질과 신뢰성, 제품 포트폴리오, 유지력’등 10개 기준으로 평가하였음
<자료> Navigant Research
[그림
1] 자율운전 기술 기업들의 순위표
Ø그 다음 자체 순위표(leaderboard) 방법론을 이용하여 19개 기업을 ‘선도자(leader)-경쟁자(contender)-도전자(challenger)-추종자(follower)’의 4개 그룹으로 분류하였음
Ø선도자 그룹에는 GM, 웨이모, 다임러-보쉬, 포드, 폴크스바겐, BMW-인텔-FCA(피아트 크라이슬러 연합), 앱티브(Aptive, 델파이의 자회사) 등 7개 기업 및 연합이 포함되었음
Ø내비건트 리서치 보고서에서 웨이모가 2위로 평가된 것은 자동차 기업이
아니기 때문에 생산 능력에서 GM에 밀렸기 때문이며, 자율주행
기술력 부문만 본다면 캘리포니아 교통당국의 보고서와 마찬가지로 단연 최고 수준으로 평가 받았음
Ø내비건트 리서치는 2020년경에 제한적 범위지만 주행과 가속 및 제동에는
사람이 신경 쓸 필요가 없을 정도의 자율주행차가 등장할 것으로 전망하는데, 글로벌 완성차 제조업체들이
대부분 이때를 기점으로 자율주행차 양산을 목표로 하고 있기 때문임
GM은 자율주행 개발 경쟁에 비교적 뒤늦게 뛰어들었지만 과감한 투자와 빠른 양산화 전략을 추진하면서 작년 평가에서
4위를 기록했으나 이번에 1위로 평가되었음
Ø GM은 2016년 차량 공유 서비스 업체 ‘리프트(Lyft)’에 5억 달러를 투자한 바 있고, 자율주행 솔루션 개발 스타트업인 ‘크루즈 오토메이션(Cruise Automation)’을 10억
달러에 인수하는 등 과감한 투자 행보를 보인 바 있음
Ø 2017년에도 레이저 레이더(LiDAR) 기술을 보유한 스타트업 ‘스트로브(Strobe)’를 인수했으며, 2018년 들어서자마자
크루즈 오토메이션과 함께 4세대 자율주행차 ‘크루즈 AV(Autonomous Vehicle)’를 공개하였음
<자료> TechCrunch
[그림 2] 운전대 없는 GM의 ‘크루즈 AV’
Ø크루즈 AV는 운전대가 없기 때문에 운전석과 조수석의 구분이 없고
브레이크나 액셀러레이터 페달이 아예 없는데, 댄 암만 GM 사장은 2019년에 크루즈 AV가 도로 주행을 할 수 있도록 미 교통 당국에
허가를 신청한 상태라고 밝혔음
테슬라는 몇 년 전까지만 해도 내비건트 리서치의 평가에서 상위권에 올랐지만, 이후
가시적인 기술 발전 전략을 보여주지 못해 이번 조사에서는 최하위로 평가되었음
Ø내비건트 리서치는 테슬라가 궂은 날씨나 대기가 흐린 환경에서도 카메라와 센서가 이상 없이 작동할 수 있게 해주는
기술이 없기 때문에 사람이 개입하지 않는 완전한 자율주행차를 만들기는 당분간 어렵다고 평가하고 있음
Ø 2016년 테슬라는 자율주행 소프트웨어인 오토파일럿(Auto Pilot) 탑재
차량의 운전자가 사고로 사망하자 자율주행 핵심 기술 제공업체인 모빌아이(Mobileye)와 결별했는데, 이후 기술 개발이 정체되고 있다는 평가가 나오고 있음
Ø내비건트 리서치는 테슬라가 자율주행차 분야에 높은 비전을 가지고 있지만 그 비전을 지속적으로 실행할 수 있는
능력을 지속적으로 입증하지 못하고 있다며 새로운 전기가 필요할 것으로 분석하고 있음
Ø한편, 테슬라와 결별한 모빌아이는
2017년 3월 인텔이 153억 달러에 인수한
바 있으며, 인텔은 모빌아이 인수를 통해 자율주행 기술 분야에서 새로운 다크호스로 급부상하였음
웨이모(Waymo)가 테스트 중인 완전 무인 택시는 자율주행 기술 6단계 중 5단계 진입을 뜻하는데, 이는 차량 안전성에 대한 책임이 사람에서 자동차 제조업체로 옮겨진다는 점에서 큰 의의가 있음. 안전성 책임을 떠안겠다고 선언한 셈이므로 웨이모는 안전성 확보를 위해 소프트웨어 개발, 하드웨어 사전 정비, 서비스 UI 개발 등 여러 측면에서 노력하고 있는데, 특히 자율주행 차량의 최적 경로 결정을 인공지능이 아닌 사람에 맡김으로써 책임 소재 규명이 가능한 구조를 선택하고 있음
[ 본 문 ]
알파벳 산하 ‘웨이모(Waymo)’의 무인 택시 시범 서비스는 자동차 사고의 책임이 사람에서 자동차 제조업체로 넘어오는 단계에 진입하고 있음을 보여 줌
Ø웨이모는 지난 11월부터는 보조 운전자가 탑승하지 않는 무인 택시
운행서비스를 전개하고 있는데, 현재 수십 개 기업이 자율주행 차량 기술을 테스트하고 있지만 위급 상황에
관여할 운전자가 탑승하지 않는 완전 자율주행 차량의 도로 주행 테스트는 웨이모가 처음임
Ø미국자동차기술학회(SAE)는 자율주행 기술의 발전 단계를 6단계로 구분(레벨0~레벨5)하고 있는데, 전문가들은 웨이모가
5단계인 레벨4에 해당하는 것으로 보고 있음
Ø자율운전 기술 진화의 최종 단계인 레벨5는 운전자가 어떤 주행 상황에도
전혀 개입하지 않는다고 규정하고 있으므로 사고시 책임 소재가 명확히 ‘자동차 제조업체’에 있음
Ø그러나 다섯 번째 단계인 레벨4는 운전자가 ‘요건이 갖춰진 경우’에 한해 운전에 전혀 개입하지 않는다고 규정하고 있어 사고 발생시 법적 책임 소재에
약간의 모호성이 발생할 수 있음
Ø레벨4의 규정은 요건이 갖춰진 경우 주행과 관련된 모든 결정은 시스템이
하며 따라서 결과의 책임이 ‘자동차’에 있음을 의미하지만, 아직 자율주행차
관련 법규가 구체적으로 제정되지 않아 ‘정해진 조건’이 무엇이 되느냐에 따라 소비자와 제조업체간 분쟁이 발생할 소지가 있음
Ø전문가들은 뭬이모가 무인 택시로 운행되는 데서 보듯, 레벨4부터 탑승자는 승객에 불과하기 때문에 원칙적으로 제조업체의 안전운행 책임을 명문화할 필요가 있다고 보고 있음
[표 1] 미국 자동차기술학회(SAE)의
자율주행 기술발전 단계 구분
Level 0
(비자동화)
- 운전자가 차의 속도와 방향을 계속 통제한다
- 시스템은 주행에 전혀 영향을 주지 않는다
Level 1
(운전자 보조)
- 운전자는 차의 속도 또는 방향을 계속 통제한다
- 시스템은 주행과 관련한 다른 기능에 개입한다
Level 2
(부분 자동화)
- 운전자는 반드시 능동적으로 주행에 개입하고 주변 상황을 항상 주시한다
- 시스템은 정해진 조건에서 차의 속도와 방향을 조절한다
Level 3
(조건부 자동화)
- 운전자는 능동적으로 주행에 개입하거나 주변 상황을 항상 주시하지 않아도 되지만, 항상 직접 주행을 통제할 준비가 되어 있어야 한다
-시스템은 정해진 조건에 차의 속도와 방향을 조절하고, 기능
구현이 한계에 이르기 전에 운전자가 능동적 운전을 이어나가도록 알림으로써, 운전자가 대응할 수 있는
시간적 여유를 주어야 한다
Level 4
(고도 자동화)
- 운전자는 정해진 조건에서 운전에 전혀 개입하지 않는다
- 시스템은 정해진 조건의 모든 상황에서 차의 속도와 방향을 통제하고 능동적으로 주행을 한다
Level 5
(완전 자동화)
- 운전자는 모든 상황에 개입하지 않는다
- 시스템은 주행 중 모든 경우에 차의 속도와 방향을 통제하고 능동적 주행을 한다
<자료> Society of Automotive Engineers
자율운전 차량 사고의 책임이 제조업체 쪽으로 옮겨간다면 소비자 입장에서 가장 궁금한 것은 웨이모의 안정성인데, 안정성은 결정하는 것은 우선 소프트웨어의 완성도임
Ø웨이모의 소프트웨어는 가상 및 실제 환경으로 나누어 테스트되는데, 개발된
자율운전 소프트웨어는 우선 시뮬레이터를 통해 알고리즘을 교육하고 학습한 기능을 검증하게 됨
<자료> Waymo
[그림 1] 시뮬레이터에서
자동차 구동 모습
Ø웨이모는 고급 시뮬레이션 환경에서 알고리즘 교육을 실시하는데, 시뮬레이터를
통해 25,000 대의 웨이모를 구동시킴으로써 매일 800만
마일의 주행 테스트를 하는 효과를 얻고 있음
Ø시뮬레이터를 사용하면 시험 주행 거리를 늘릴 수 있을 뿐만 아니라, 실제
현실에서는 별로 발생하지 않는 이벤트도 생성해 교육시킬 수 있는데, 예를 들어 교차로에서 좌회전 신호가
깜빡이는 등 자주 발생하지 않지만 사고 연관성은 높은 신호 상황을 만들어 낼 수 있음
Ø시뮬레이터는 실제 거리를 소프트웨어로 재현하고 있는데, 가상으로 구현된
거리는 실제 시가지를 스캔한 데이터를 바탕으로 구축된 것으로, 전용 차량에 탑재된 라이다(Lidar, 레이저 센서)를 통해 거리를 스캔한 후 정밀 3D 지도를 제작한 것임
Ø지도에는 차선, 인도, 신호등
등이 표시되는데 여기에는 차선의 폭과 인도의 높이 등 주행 정보 가 포함되어 있으며, 그 위에 좌회전
신호가 깜박이는 교차로 등 특수 이벤트 발생 상황을 구현할 수 있음
시뮬레이터에서는 조건을 다양하게 바꾸거나 환경에 변화를 추가한 후 테스트를 실행하는 ‘퍼징(Fuzzing)’과정을 통해 소프트웨어의 완성도를
높여 가게 됨
Ø시뮬레이터에서 조건이 구성되고 나면 가상의 거리를 자동차로 주행하는데, 이를
통해 좌회전 신호가 깜박이는 교차로에서 회전하는 연습을 하게 됨
<자료> Waymo
[그림 2] 시뮬레이터에서
교차로 좌회전 상황 학습
Ø이 경우 자동차는 교차로에 천천히 진입하며 마주 오는 차량이 없는 것을 확인한 후 좌회전하게 되는데, 알고리즘이 개선되어 갈 때마다 동일한 조건에서 주행 시험을 반복함으로써 습득한 운전 기술의 완성도를 높여 나감
Ø시뮬레이터의 환경에는 변화를 추가할 수 있는데, 이를 퍼징(Fuzzing)이라 하며, 가령 좌회전 신호 시에 마주 오는 차량의
속도를 바꾸거나 신호등 타이밍을 바꿀 수 있고, 새로운 조건에서도 자동차가 안전하게 좌회전 할 수 있는지
확인해 볼 수 있음
Ø또한 실제로는 거의 있을 수 없는 상황 조건을 구현할 수도 있는데, 오토바이가
백색 차선 위를 따라 달리거나 사람이 차선 사이를 지그재그로 달리는 상황 등을 생성한 후 비정상적인 행동이 발생할 때 자동차가 어떻게 반응하는지
확인해 볼 수 있음
Ø이처럼 웨이모 자율운전 자동차는 주요 기술을 시뮬레이터에서 배우고 연습을 거듭해 완성도를 높이고 있으며, 2016년 한 해에만 시뮬레이터에서 25억 마일을 주행했다고 하는데, 이는 지구를 10만 바퀴 돈 거리에 해당함
시뮬레이션을 통과한 소프트웨어는 자동차에 탑재되어 도로 주행 테스트를 하게 되는데, 전용 서킷에서 테스트를 거친 후 실제 도로에서 시험 주행을 하게 됨
Ø소프트웨어를 탑재한 시험 차량은 전용 서킷인 ‘캐슬(Castle)’에서 주행 테스트를 하는데, 캐슬은 구글이 공군 기지 철거 부지를 사들인 후 실제 거리 풍경을 그대로 재현한 곳임
<자료> Google Earth
[그림 3] 자율주행차
테스트용 전용 서킷 ‘캐슬’
Ø캐슬에서 새로 개발된 소프트웨어와 수정된 소프트웨어가 검증되며 또한 드물게 발생하는 이벤트들도 시험하는데, ‘구조화된 테스트(Structured Tests)’라 불리는 이 과정에서 약 2만 가지의 시나리오를 검증하며, 검증이 끝난 소프트웨어는 도로에서
실제 테스트를 진행함
Ø웨이모는 지난 8년 동안 미국 전역의 20개 도시에서 350만 마일의 도로를 실제 주행했는데, 애리조나에서는 사막 환경, 워싱턴에서는 비 내리는 환경, 미시간에서는 눈 내리는 환경에서 테스트 하는 등 서로 다른 기상 조건에서 안전하게 주행 할 수 있는지 확인하고
있음
Ø도로 주행 테스트는 또한 홍보 활동을 겸하고 있는데, 지역 주민들이
자율운전 차량을 실제 접하게 함으로써 막연한 불안감을 없애고 이해하게 만드는 것을 목표로 하고 있음
Ø시뮬레이션 통과 후 실제 차량에 탑재 되어 전용 서킷과 실제 시가지 주행을 통해 기능과 안정성이 검증되면, 비로소 자율운전 소프트웨어는 최종 제품으로 출하가 됨
이처럼 웨이모가 여러 단계에 걸쳐 다양한 소프트웨어 테스트 및 실제 주행 테스트를 거쳐야 하는 것은 자율주행차의
최적 경로를 인공지능(AI)이 아닌 사람이 결정하기 때문임
[그림 4]웨이모의
최적 경로 결정 과정
Ø웨이모의 소프트웨어는 주변 객체의 움직임을 예상하고 그 바탕 위에 최적의 경로를 산출하는데 이를 ‘플래닝(Planning)’프로세스라 부르며, 플래닝을 통해 진행 방향, 속도,
주행할 차선, 핸들 조작 등을 결정하게 됨
Ø여기서 핵심 포인트는 플래닝 프로세스에 AI를 적용하지 않는다는 것인데, 플래닝의 로직은 코딩되어 있으며 자동차의 움직임은 사람이 프로그램으로 지정하고 있음
Ø즉 웨이모는 인간이 자율운전의 알고리즘을 파악할 수 있는 구조로 되어 있는 것인데, 이는 사고가 났을 경우 알고리즘 파악을 통해 책임 소재를 규명할 수 있는 장점이 있으나, 방대한 규칙이 정의되어야 하며 그 개념들을 검증하기 위한 대규모의 주행 테스트가 필요하게 됨
Ø웨이모의 이런 접근 방식은 플래닝 프로세스를 AI가 담당하게 하는
엔비디아와 대비되는 것인데, 엔비디아는 AI가 인간의 운전을
보고 운전 기술을 배우는 ‘AI
Car’개발을
목표로 하고 있음
Ø AI Car는 추상적인 도로 개념을 이해해 차선이 없어도 인간처럼 운전하는 것을 목표로 하는데, 방대한 규칙의 정의가 필요하지 않고 알고리즘은 웨이모에 비해 간단해 질 수 있지만, AI의 의사결정 메커니즘은 인간이 전혀 이해할 수 없어 신뢰성의 문제가 발생하게 됨
Ø알파고의 경우 인간이 알파고의 메커니즘을 전혀 이해할 수 없더라도 결과적으로 사람을 이기기 때문에 그 수를 보고
연구하려는 마음이 생길 수 있지만, AI Car의 경우 사고가 났을 때 AI의 판단이 사람보다 나을 테니 무조건 사람이 운전한 쪽이 잘못이라 판정할 수는 없기 때문
한편 자율주행차는 무인으로 주행하기 때문에 소프트웨어 성능뿐 아니라 차량의 유지보수도 매우 중요하므로, 웨이모는 자동차 정비 전문 네트워크와 제휴를 맺고 있음
<자료> Waymo
[그림 5] 차고에서
정비 중인 웨이모 무인 택시
Ø웨이모는 지난 11월 무인 택시 서비스 시작에 즈음해 차량 유지보수
네트워크인 ‘오토네이션(AutoNation)’과 제휴를 발표하였으며, 애리조나와 캘리포니아에서는 이미 오토네이션을 통해 웨이모의 유지 보수 서비스를 실시하고 있음
Ø오토네이션은 미국 최대 자동차 판매기업으로 16개 주에 361개 매장을 보유하고 있으며 35개 제조업체의 자동차를 판매하고 있는데, 판매뿐 아니라 자동차
정비 사업도 전개하고 있음
Ø웨이모는 무인 자율운전 차량이기
때문에 문제가 발생할 경우 비상등을 켜고 수리할 수 없으므로, 오류가 발생하기 전에 부품 교환을 실시하는
등 예방 정비활동 중심으로 차량 유지보수를 해야 함
Ø비단 하드웨어에 대한 정비뿐 아니라
자율운전 차량은 고급 센서와 소프트웨어를 탑재하고 있기 때문에 이에 상응하는 소프트웨어 관리 기술도 요구됨
Ø자율운전 차량의 기기는 고가이기
때문에 제조원가를 조기에 상각하려면 24시간 연속으로 운행하게 될 가능성이 높은데, 이런 사업모델을 지원하기 위해서라도 자율운전 자동차의 유지 보수 기술은 매우 중요함
현재 자율운전 자동차의 안전에 관한 지표는 확립되어 있지 않기 때문에, 웨이모는
안전성 확보를 위해 여러 가지 관점에서 다양하게 접근하고 있음
Ø자율운전 차량의 도로주행 테스트를 어느 조건에서 얼마만큼 해야 하는 지에 대해서는 논란이 계속되고 있으며, 아직 업계 공동의 혹은 공공기관이 정한 안정성 기준은 마련되어 있지 않음
Ø그러나 캘리포니아 주의 경우 자율운전 차량의 도로 테스트 내용을 공표하도록 의무화 하고 있기 때문에, 그 중 ‘자율운전 기능 해제(Disengagement)’섹션을
통해 간접적으로나마 안전성을 추정해 볼 수는 있음
<자료> Department of Motor
Vehicles
[그림 6] 웨이모의
자율운전 기능 해제 횟수
Ø자율운전 기능 해제 조치(Disengagement)가 실행되었다는
것은 자동차가 위험한 상태에 놓이게 되었다는 뜻이므로, 이를 사고 상황 혹은 자율주행차가 설계대로 작동하지
않은 결함 발생 상황으로 해석해 볼 수 있기 때문
Ø웨이모의 자율운전 기능 해제 횟수는 2015년에 1천 마일 당 0.8회였으나
2016년에는 0.2회로 감소했으며, 2017년도
보고서는 아직 공개되지 않았지만 이런 추세가 이어졌다면 거의 발생하지 않았을 것으로 보임
Ø웨이모는 안전과 관련하여 여러 관점에서 장치를 마련하고 있는데, 철저한
주행 시험을 반복하여 자율운전 모드에서 350만 마일을 주행시켰으며,
차량의 주요 시스템인 스티어링이나 브레이크 등을 이중화 하여 하드웨어의 고장에 대비하고 있음
Ø운용 측면에서는 주행할 수 있는 영역을 ‘운행
설계 영역(ODD, Operational Design Domain)’로 정의해 자동차가 달릴 조건을 명확하게 파악하고 있으며, 탑승객과 인터페이스에도 신경을 써 무인 택시 승객이 사고 발생시에도 불안해 하지 않도록 기능 설계를 하였음
Ø개발 과정과 시험 결과만 놓고 보면, 그리고 안전하게 주행 할 수
있는 환경에서만 서비스를 제공하며, 무인으로 주행하더라도 운행 제어센터에서 원격으로 모니터하고 비상
사태에 대응하고 있다는 점을 고려하면 웨이모 무인 택시는 안전하다고 평가할 수 있음
안정성 확보를 위한 웨이모의 다양한 시도들은 기술을 현실에 맞추려는 기술업체들의 노력을 통해 자율주행차가 상용
서비스 단계에 본격 진입하고 있음을 보여주고 있음
Ø그 동안 자율주행차의 상용화 시기 전망이 어려웠던 이유는 ‘안전성’에 대한 확신을 과연 어떻게 할 수
있을지에 대한 사회적 합의가 이루어지지 않았기 때문임
Ø‘안전성’이슈는 단순히 사고 빈도를 얼마나
낮출 수 있느냐에 대한 것이 아니라, 긴급 상황 발생 시 대처 방안과 사고 발생 시 책임 소재 규명
및 그에 따른 보험 처리 방안까지 포함하는 사회관습적인 문제이자 법적인 문제임
Ø웨이모는 혁신적인 자율운전 기술에 맞춘 새로운 자동차 법규나 사회적 합의를 마련해 달라고 요구하는 데 머무르지
않고, 안전성에 관한 현재의 사회적 기준에 최대한 부합하기 위한 기술 개발 방식 및 서비스 운용 방식을
채택하여 그 완성도를 높여 나가고 있음
Ø특히 최적 경로 선택을 AI에 맡기지 않고 사람이 결정하는 방식을
택함으로써 오히려 더 지난한 테스트 기간을 자처하고, 완전 무인 자율주행 방식을 선택해 안정성과 직결된
책임의 문제를 업체가 부담하겠다고 나선 점은 결과를 떠나 높이 평가 받을 만한 지점임
Ø자동차 해킹 등 보안 이슈도 남아 있고 안전성에 대한 문제 제기는 끝이 없을 테지만, 웨이모가 보여준 전향적인 시도들로 인해 자율주행차 상용화 시점은 한층 더 앞당겨질 전망
구글의 인공지능(AI) 연구 부문인 구글 브레인의 이언 굿펠로우가 2014년 발표한 GAN(Generative Adversarial Networks)은 최근 10년간 AI 연구에서 가장 뛰어난 성과로 평가받고 있으며, 현재 약 200여 개의 변형된 기술들이 연구되고 있음. GAN은 딥러닝과 달리 인간의 개입 없이도 그리고 학습할 데이터가 없어도 신경망 스스로 학습해 나갈 수 있음을 보여주고 있다는 점에서 큰 기대를 받고 있으며, 그 잠재력만큼 동시에 큰 위험도 내포하고 있어 우려의 목소리도 높아지고 있음
[ 본 문 ]
알파고 이후
인공지능(AI)이 대체할 수 없는 창의성을 키워야 한다는 주장이 더욱 커졌지만, 기실 알파고 쇼크의 본질은 창작도 AI가 인간보다 잘 할 수 있음을
보여준 데 있음
Ø지나 10월 알파고를 개발한 ‘딥마인드(DeepMind)’는 ‘인간의
지식 없이 바둑 게임 정복하기’라는 논문을 발표하며, 새롭게 ‘알파고 제로(Zero)’를 소개하였음
Ø‘제로’라는 코드네임이 붙은 이유는, 이전 버전의
알파고 개발에서는 최초 학습 데이터로 사람의 기보 약 16만 건을 사용한 반면, 알파고 제로는 사람의 기보나 바둑에 대한 기본 규칙을 전혀 입력하지 않고
AI 스스로 바둑을 두면서 실력을 배양하도록 했기 때문
Ø논문에 따르면 알파고 제로는 72시간 만에 이세돌을 꺾은 ‘알파고 리’버전을 넘어섰고, 4개월 후에는 커제를 꺾은 ‘알파고 마스터’버전을 넘어섰다고 함.
Ø기존 AI가 방대한 데이터 분석과 강화학습 등을 통해 인간의 지혜를
배우는 데 초점을 두고 인간이 이미 잘 할 수 있는 것들을 자동화는 수준이었다면, 알파고 제로는 인간
전문가의 개입이나 인간의 관점 입력 없이 이루어졌다는 데 중대한 함의가 있음
Ø알파고 제로의 바둑을 보면서 바둑계에서 나온 반응은 그래도 사람이 수천 년 동안 발전시켜 온 소위 바둑의 정석이란
것이 틀리지 않았음이 확인되어 ‘다행이다’라는 것이었는데, 최소한 바둑계에서는
이제 아무도 AI를 그저 엄청난 속도로 연산을 하는 기계로만 바라보지 않음
실제 디자인, 회화, 음악, 문학, 영화 등 예술과 창작 영역에 AI의 침투 소식은 이제 더 이상 낯설지 않은데, 이들 소식에서 언급되는 AI는 수십 가지로 변형되고 있는 ‘GAN’기술임
Ø지난 5월 ‘엔비디아 GTC 2017’컨퍼런스에서 구글 리서치의 이언
굿펠로우는 청중들에게 각양각색의 고양이 사진을 보여주며, 이중 실제 고양이 사진이 아닌 AI가 임의로 합성해 낸 이미지를 찾아보라고 질문을 던졌음
Ø청중들은 좀처럼 찾아낼 수 없었는데, 사실 그 사진들 중 실제 고양이
사진은 단 한 장도 없었고 모두 AI가 무작위로 합성해 낸 것이었으며,
사람들은 진짜 사진과 가짜 사진의 구분이 무너지고 있다며 감탄과 탄식을 동시에 쏟아 냈음
<자료> NVIDA
[그림 1] GAN을
개발한 이언 굿펠로우
Ø고양이 사진 합성에 사용된 인공지능 기술은 ‘생성적
대립쌍 신경망(GAN, Generative Adversarial Network)’이라 불리는 것인데, 이언 굿펠로우가
지난 2014년에 논문을 통해 발표했을 때 컴퓨터 사이언스 학계에서 찬사가 쏟아졌음
Ø딥러닝의 창시자로 불리는 제프리 힌튼 교수는 ‘갠(GAN)’에 대해 ‘최근 10년 간 가장 매력적인 이론’이라 평가했는데, 인간의 가이드라인에
따라 수동적으로 학습하는 기존 AI와 달리 ‘능동적으로 학습하고 행동하는’ AI 개발을 위한 토대가 될 것이라 보았기
때문임
Ø갠 신경망은 ‘대립쌍을 이루는(Adversarial)’두
개의 네트워크, 즉 이미지를 만드는 ‘생성자(Generator)’와 이미지가 진짜인지 가짜인지 감별하는
‘감식자(Discriminator)’를 서로 경쟁시켜 생성자가 감별자가 구분하기 어려운 진짜 같은 가짜를 만들게
하는 것임
Ø 2014년 이후 매주 새로운 갠(GAN) 논문들이 쏟아지고 있으며
최근에는 190편 이상이 보고되고 있는데, 전문가들도 모두
추적하기 힘들 정도로 다양한 응용기법들이 등장하고 있음
Ø그 이름도 다양해 DCGAN, SRGAN, StackGAN, 3D-GAN, CycleGAN
등 200여 개의 서로 다른 기법이 GAN으로부터
개발되고 있어 GAN 기술은 앞으로 더욱 발전속도가 가속화될 전망
가장 대표적인 GAN 기법은 DCGAN(Deep
Convolutional Generative Adversarial Networks)으로로 엔비디아는 이를 이용해 유명 연예인의 이미지를
생성하는 기술을 공개하였음
Ø엔비디아의 DCGAN은 유명 연예인뿐만 아니라 침실, 화분, 말, 소파, 버스 등 어떤 객체라도 AI가 개념만 듣고 현실과 똑같이 그려낼
수 있음을 보여주었음
Ø DCGAN에서 생성자(Generator)는 매개변수에서 원래 이미지를
찾아 처리하는 ‘디컨볼루션 네트워크(De-Convolution Network)’로
구성되며, 입력된 노이즈(랜덤 신호)로부터 이미지를 생성함
<자료> Amazon.
[그림 2] DCGAN을 이루는 생성자와 감식자
Ø감식자(Discriminator)는 매개별수를 응축 처리하는 ‘컨볼루션 네트워크(Convolution
Network)’로 구성되며, 여기에 위조 이미지(Fake) 또는 실제 이미지(Real)을 입력함
Ø감식자는 입력된 이미지를 처리하고 그것이 위조(Fake)인지 또는
실제(Real)인지 여부를 로지스틱 회귀분석법으로 판정하며, 이
과정에서 감식자가 역전파 알고리즘(Backpropagation)으로 진짜와 가짜의 차이값(Gradient)을 얻게 됨
Ø이 차이값을 다시 생성자에 입력하여 진짜와 똑 같은 가짜를 생성하는 기술을 향상시키는데, 양측이 모두 향상되는 구조로 이 프로세스를 몇 번이고 되풀이 하여 감식자가 구분할 수 없는 진짜 같은 가짜
이미지를 생성하게 됨
Ø DCGAN의 생성자는 가짜 이미지를 생성할 뿐만 아니라 생성된 이미지를 연산 조작하는 기능을 가지고 있는데, 예를 들어 ‘안경을 쓴 남자 - 안경을 쓰지 않은 남자 + 안경을 쓰지 않은 여자 = 안경을 쓴 여자’와 같은 연산을 처리함
<자료> Radford et al.
[그림 3] DCGAN 생성자의 이미지 연산 조작
Ø연산의 결과 안경 쓴 여성의 이미지를 9개 생성하는데, 맨 중앙 이미지가 구하려는 답으로 주위의 8개 이미지를 외삽법(extrapolation)으로 추론하여 중앙의 이미지를 생성한 것이며, 이런
연산 조작 기법을 이용하면 금발을 흑발로 바꿀 수도 있음
Ø외삽법이란 어떤 주어진 구간의 밖에 존재하는 값을 추정하는 것으로 보외법(補外法 )이라고도 하며, 반대로 주어진 구간 내에 존재할 수 있는 값을 추정하는
것은 보간법(補間法)이라고 함
회화 그림 관련 응용프로그램에 적용되고 있는 SRGAN(Super-Resolution
Generative Adversarial Networks)은 저해상도 이미지를 고해상도 이미지로 변환하는 기법임
<자료> Ledig et al.
[그림 4] SRGAN으로
해상도 높이기
Ø [그림 4]의 맨 오른쪽이 원본 이미지인데, 예를 들어 이 이미지의 해상도를 4배로 늘리는 작업을 한다고 할
때 다양한 방법으로 시도가 가능함
Ø맨 왼쪽 이미지는 기존에 주로 많이 사용하던 ‘바이큐빅(bicubic)’이라는 2차원 외삽법에 의해 해상도를 높인 것임
Ø왼쪽에서 두번째는 이미지 수준을 예측하는 심층 레지듀얼 네트워크(Deep Residual
Network)로서 딥러닝의 손실함수인 평균제곱오차(Mean Squared Error)에
최적화 되어 있는 SRResNet 기법을 이용해 해상도를 높인 것임
Ø왼쪽에서 세 번째가 SRGAN으로 생성한 이미지인데, 물리적으로는 손실 압축에서 화질 손실 정보를 수치로 표현한 ‘최대 신호 대비 잡음비(peak
signal-to-noise ratio)’가 높아 노이즈가 있지만, 외견상 구조적 유사성(Structural Similarity)는
원본 이미지에 가장 가까움
Ø SRGAN 기법은 이미지 초해상도(Image Super-Resolution)라고도
불리며 저해상도 이미지를 8K 모니터 등 고해상도 디스플레이에 표시하는 기술로서 주목받고 있음
스택GAN(StackGAN, Stacked
Generative Adversarial Networks)는 입력된 문장과 단어를 해석해 이미지를 생성하는 인공지능 기법임
Ø예를 들어, ‘이 새는 파란색에 흰색이 섞인 짧은
부리를 가지고 있다’라는 텍스트를 입력하면 StackGAN이 이를 이해하여 그에 맞는 이미지를 생성함
<자료> Zhang et al.
[그림 5] StackGAN
Ø GAN이 생성자와 감식자의 대립
네트워크를 생성하듯, StackGAN은 저해상도 이미지를 생성하는 Stage-I과
고해상도 이미지를 생성하는 Stage-II의 2단계 네트워크
구성을 갖추고 있음
Ø DCGAN과 마찬가지로 StackGAN에서 생성된 이미지는 실제 조류가 아닌 StackGAN이
상상으로 생성한 것이며, 사진처럼 보이지만 그러한 새는 세상에 존재하지 않음
3D-GAN은 MIT의 AI 연구팀이
공개한 입체 모델 생성 네트워크로 가령 가구 사진을 통해 교육시키면 3D-GAN은 가구를 3차원으로 그릴 수 있게 됨
Ø연구팀의 논문을 보면 이케아의 가구 사진을 3D-GAN에 입력하면
그 가구를 3D로 묘사하는데, 입력된 사진은 가구 전체를
담고 있지 않지만 3D-GAN은 이것을 상상에서 보충하여 3D 이미지를
생성해 내고 있음
Ø 3D-GAN 역시 3D 모델 이미지를 연산 조작할 수 있는데, 가령 ‘선반 있는 낮은 테이블 - 선반 없는 높은 테이블 + 높은 테이블 = 선반이 있는 높은 테이블'과 같은 연산을 수행해 이미지를 생성함
<자료> Wu et al.
[그림 6] 3D-GAN을 이용한 3D 이미지 생성
Ø [그림 6]은 3D-GAN이
학습한 성과를 가시적으로 보여주기 위한 것이며, GAN이 학습한 성과를 매개 변수로 네트워크에 저장하는
것을 실제로 볼 수는 없음
Ø MIT는 현재 숨겨진 영역(Latent Space)의 매개 변수를
출력하는 3D-GAN의 학습 메커니즘을 검증하기 위한 연구를 수행하고 있음.
사이클GAN(CycleGAN)은 인공지능이 자율적으로 학습하여 이미지의
스타일을 다른 스타일로 변환시킬 수 있는 기술임
Ø입력된 이미지의 스타일을 다른 스타일로 변환하는 방법을 일반적으로 ‘스타일 변환(Style Transfer)’이라고 하는데, 이미지 사이의 스타일을
매핑하기 위해 최근 들어 심층신경망을 이용하는 경우가 많음
Ø가령 심층신경망이 화가의 스타일을 습득하여 그 화풍으로 그림을 그리는 기술이 다수 발표되고 있는데, 사진을 입력하면 AI가 이를 모네 스타일 혹은 피카소 스타일의 유화로
변환해 주는 애플리케이션들이 대표적임
Ø그러나 이 방식은 화가의 작품이나 풍경 사진 데이터 중 어느 한쪽 혹은 양쪽의 데이터가 거의 없는 경우, 작품과 사진이 ‘짝을 짓게 하는 교육(Paired Training)’을 어떻게 실행할 수 있을 것인가가
큰 과제가 됨
Ø이에 비해 사이클GAN(Cycle-Consistent Adversarial
Networks) 기술은 쌍을 이루는 교육 데이터가 필요 없는, 즉 작품-사진의 쌍을 지을 필요 없이, 모네의 유화나 풍경 사진을 각각 독자적으로
사용하여 네트워크를 교육시키는 짝 지우지 않는 교육(Unpaired Training) 기법임
Ø교육된 사이클GAN은 예를 들어 모네의 작품을 입력하면 이를 사진으로
변환하거나 반대로 사진을 입력하면 모네의 유화로 변환시킬 수 있음
Ø또한 얼룩말의 사진을 말의 사진으로, 말의 사진을 얼룩말의 사진으로
변환할 수 있는데 이를 객체 변형(object transfiguration)이라 하며, 또한 산의 여름 사진을 입력하면 눈 쌓인 겨울 산의 사진으로 변환할 수도 있는데 이는 계절 변환(season transfer)이라고 함
<자료> Zhang et al.
[그림 7] CycleGAN을 이용한 스타일 변환
Ø사이클GAN은 네트워크가 자율적으로 학습하는 아키텍처로서 ‘교사 없는 학습(Unsupervised
Learning)’으로 이어질 수 있는 기법으로 기대되고
있음
Ø사이클GAN 기법은 버클리 인공지능 연구실이 주축이 되어 개발하고
있는데, 주 책임자인 중국인 주준이엔 외에 한국인 박사과정 학생 박태성이 참여하고 있기도 함
디스코GAN(DiscoGAN)은 인공지능이 자율적으로 서로 다른 객체
그룹 사이의 특성을 파악하여 양자 사이의 관계를 파악할 수 있는 기술임
Ø사람은 하나의 그룹과 다른 그룹의 관계, 예를 들어 가방 그룹과 신발
그룹의 관계를 경험적 혹은 직관적으로 파악할 수 있는데, 신경망이 이 관계를 파악하도록 하기 위해서는
태그가 붙어 있는 이미지를 대량으로 입력해 알고리즘을 교육할 필요가 있음
Ø이에 비해 디스코GAN은 알고리즘이 양자의 관계를 자율적으로 이해하는데, 먼저 디스코GAN에 가방과 신발이라는 두 그룹의 이미지를 각각 입력해
각자의 특성을 가르치고 나면 이미지에 태그(가방이나 신발 등의 이름)가
붙지 않아도 알고리즘이 양자의 관계를 스스로 파악함
Ø교육된 디스코GAN을 예를 들면, 가방
이미지를 입력하면 신발 이미지를 생성하거나, 파란색 가방 이미지에서 파란색 신발 이미지를 생성하고, 남성의 사진을 입력하면 여성의 이미지를 생성 할 수도 있음
<자료> Kim et al.
[그림 8] DiscoGAN을 이용한 스타일 변환
Ø디스코GAN 역시 사이클GAN과
마찬가지로 양자의 관계를 정의한 짝 지운 데이터(Paired Data)가 불필요하고 각자의 특성 이미지만
교육시키면 네트워크가 자율적으로 학습하는 구조이기 때문에, 교사 없는 학습의 길을 여는 기술로 주목받고
있음
GAN은 기초 연구뿐만 아니라 비즈니스에 응용도 시작되고 있는데, 아마존이
GAN을 이용한 패션 사업의 구상을 밝힌 것이 대표적임
Ø아마존은 산하 연구소인 Lab126에서 GAN의 개발을 진행하고 있는데, GAN이 유행 중인 패션을 통해
스스로 스타일을 학습하고 자신만의 패션을 생성하도록 하고 있는데, GAN이 패션 디자이너가 되어 인간을
대신해 새로운 디자인을 창조하게 하는 것임
Ø패션 트렌드는 페이스북이나 인스타그램 등에 올라온 사진으로 학습하는데, 이
사진들을 GAN에 입력하면 GAN이 트렌드를 배워 독자적인
패션을 디자인하게 됨
Ø또한 아마존은 인공지능 스피커 에코의 변형 버전인 ‘에코 룩(Echo Look)’을 통해 이용자를 촬영한 다음 패션에 대한 조언을 하는 서비스를 제공하고 있음
Ø아마존은 에코 룩을 통해 이용자의 패션 취향을 이해한 다음, GAN이
개인에 특화된 디자인을 만들게 하는 계획을 갖고 있는데, GA이 생성한 디자인으로 만든 주문형 옷(On-Demand Clothing)이 이용자에게 배달되게 하는 사업 구조임
<자료> Amazon
[그림 9] GAN을 이용한 아마존의 에코 룩
이처럼 200여 개에 달하는 GAN의
변형 기술 연구가 폭넓게 진행되고 있는 이유는 GAN이 현재 딥러닝이 안고 있는 많은 문제를 해결해
줄 강력한 무기를 제고할 수 있기 때문임
Ø특히 교사 없는 학습(Unsupervised Learning)과 태그
없는 데이터(Unlabeled Data) 교육 분야에서 연구를 크게 진전시킬 단서를 제공할 것으로 전망되고
있는데, 사이클CAN이나 디스코GAN이 그러한 가능성을 잘 보여주고 있음
Ø또한 엔비디아의 연구팀 역시 DCGAN 기술을 이용해 촬영한 것처럼
선명한 가상의 유명 연예인 이미지를 생성하고 있지만, 신경망 교육에는 태그가 붙어 있지 않은 연예인
사진을 사용하는 등 알고리즘이 자율적으로 배우는 기술은 빠르게 진화하고 있음
Ø과학자들은 상상하는 모습을 모두 이미지로 만들어 낼 수 있는 이런 시스템들을 보며 인공지능 신경망이 세상을 해석하는
통찰력을 제공해 줄 것이라 기대하고 있음
Ø비록 인공지능이 어떤 원리로 이미지를 저장하고 해석하는지 명확하지는 않더라도,
바둑 기사들이 알파고가 바둑의 본질을 보다 잘 이해한다고 인정하듯이, 과학자들 역시 컴퓨터가
생성해 내는 이미지가 실제 세상에서도 통할 수 있다고 생각하는 것임
GAN에 대한 기대가 높아지는 만큼 그 위험성에 대한 지적도 나오고 있는데,
AI 뿐만 아니라 모든 기술이 그렇듯 이 기술을 어떻게 사용할 것인지는 결국 인간이 결정에 달려 있음
Ø페이스북의 AI 연구소장인 얀 르쿤은 GAN과 그 파생 기술들은 지난 10년의 기계학습 연구에서 가장 뛰어난
성과라고 높이 평가하고 있음
Ø한편, GAN의 위험성을 지적하는 목소리도 높아지고 있는데, 지금까지도 페이스북 가짜 사진이 문제가 됐지만 GAN의 등장으로
그 위험성이 더욱 높아짐에 따라 이제 뉴스에 게재되는 사진이나 비디오를 신뢰할 수 있는가 하는 질문이 제기되고 있음
Ø소셜 미디어에 게재된 이미지가 증거 사진으로 사용되는 경우가 많지만, 이제
앞으로 무엇이 진실인지 알 수 없는 시대가 되면 그럴 수 있겠느냐는 것이며, 수년 내로 GAN을 통해 진짜 같은 가짜 비디오를 생성할 수 있게 된다면 혼란은 더욱 가중될 것이라는 경고임
Ø이는 엄밀한 근거에 기반을 두어야 하는 과학에서 더욱 불거질 수 있는 문제인데,
그럴듯한 이미지나 동영상과 함께 이런저런 학술이론을 제시하면 한마디 반박조차 못하고 감쪽같이 설득 당할 수밖에 없는 위험이 생긴 것임
Ø삶을 풍요롭게 하는 데 사용될 지 아니면 삶을 위험에 빠뜨리게 될 지, AI가
그러하듯 GAN이라는 혁신 기술 역시 양날의 검을 가지고 있다는 점을 항시 염두에 두고 바라볼 필요가
있음
엔비디아의 연구팀은 신경망이 유명 연예인(celebrity, 셀럽)의 이미지를 생성하는 기술을 공개했는데, 생성된 이미지는 실제 인물에 기반을 둔 것이 아니라 인공지능(AI)이 유명인의 개념을 이해하고 상상으로 그린 것이며, 유명인 이외에도 모든 객체의 개념을 이해한 후 사람의 개입 없이 AI가 실제와 똑같이 그려낼 수 있음을 보여주었음. ‘생성적 대립쌍 신경망(Generative Adversarial Network, GAN)’이라 불리는 이 기술은 2014년 처음 등장한 이래 가장 주목 받는 AI 연구 주제로 부상하였음
[ 본 문 ]
최근 인공지능(AI) 컴퓨팅 분야 연구에 적극 나서고 있는 엔비디아(Nvidia)는
‘GTC 유럽 2017’컨퍼런스에서
딥러닝 기반 응용프로그램 ‘빈센트(Vincent) AI’의 공개 시연을 진행
Ø‘빈센트 AI’는 이용자가 스타일러스 입력 펜을 사용해
간단히 스케치한 그림을 실시간으로 유화나 네온 색상의 팝아트 등 7가지 예술작품 스타일로 변환시켜 주는
응용프로그램으로 ‘캠브리지 컨설턴트(Cambridge Consultants)’라는
기업이 엔비디아 기술을 이용해 제작한 것임
<자료> NVIDA
[그림 1] 빈센트 AI로 변환시킨 스케치
Ø엔비디아의 젠슨 황 CEO는 기조연설 도중 무대에서 내려와 스타일러스를
직접 들고 엔비디아 로고와 사람의 얼굴을 그렸으며, 이것이 실시간으로 피카소 풍의 그림으로 변환되자
컨퍼런스에 참석한 청중들의 박수가 터져 나왔음.
Ø캠브리지 컨설턴트의 AI 연구소인 디지털 그린하우스(Digital Greenhouse)에서 5명으로 구성된 연구팀은 두
달 만에 빈센트 AI의 데모를 구현할 수 있었는데, 이번
데모는 엔비디아의 딥러닝 전용 수퍼컴퓨터인 ‘DGX
시스템’에서 트레이닝을 거쳐 구현되었음
Ø기존의 딥러닝 알고리즘이 방대한 양의 데이터를 소화할 수 있게 됨으로써 놀라운 성과를 달성했다며, 빈센트 AI에 적용된 인공지능 기법은 두 개의 신경망을 이용해 이전에
비해 훨씬 더 적은 표본으로도 응용프로그램을 생성할 수 있었다는 점에서 주목받고 있음
Ø엔비디아 측에 따르면, 알파고의 등장에 많은 바둑 기사들이 호응을
보인 것처럼 의외로 많은 예술가들이 빈센트 AI 에 상당한 호감을 보이고 있으며, 빈센트 AI를 통해 예술이 무엇인지, 예술에 대한 자신들의 지식이 어느 정도인지 알게 될 것이라 기대하고 있다고 함
빈센트 AI의 놀라운 이미지 전환 기술 뒤에는 정밀한 튜닝 작업을
거친 ‘GAN(Generative
Adversarial Network)’, 즉
‘생성적 대립쌍 신경망’이라는 최신 AI 기술이 자리하고 있음
Ø비영리 인공지능 연구단체인 ‘오픈AI’의 컴퓨터 과학자인 이언 굿펠로우가 창안한 ‘갠(GAN)’기술은 최근 인공지능 기반 이미지
전환기술로 크게 각광받고 있으며, 굿펠로우는 연구 논문 발표 후 구글의 인공지능 연구부서인 ‘구글 브레인’으로
자리를 옮겨 연구를 지속하고 있음
Ø이언 굿펠로우에 의해 2014년에 처음 등장한 이 기법과 관련한 논문
수가 기하급수적으로 증가해서 최근에는 190편 이상이 학계에 보고되고 있는데, 페이스북의 AI 연구를 이끌고 있는 얀 르쿤 교수는 갠(GAN)을 가장 중요한 기술로 꼽고 있음
Ø갠 신경망은 ‘대립쌍을 이루는(Adversarial)’두
개의 네트워크를 만들고, 상호 대립 과정에서 훈련 목표를 자동으로 생성하도록 학습시키는 모델임
Ø통상 기계학습이 사람이 태그를 달아주는 방식으로 학습결과가 맞았는지 확인해주는 데 반해 갠 기법은 사람의 개입
없이 컴퓨터가 스스로 목표 이미지와 비교해서 생성한 이미지를 반복해서 평가하고 수정하는 과정 속에서 데이터 자체에서 지식을 얻는 ‘비지도 학습형’알고리즘임
Ø최근 이미지 구별이나 음성 인식 등에 활용되는 인공지능 기술인 CNN이나 RNN은 ‘지도 학습형’알고리즘으로 이미지나 음성을 구별하고
인식할 뿐 만들어 내지는 못하는데, GAN은 생성 모델을 통해 직접 이미지와 음성을 만들어 낸다는 것이
큰 차이점임
Ø엔비디아의 연구팀이 개발한 기술 역시 GAN을 이용한 것으로, 엔비디아는 논문을 통해 신경망이 유명인(celebrity, 셀럽)의 이미지를 자동으로 생성하는 기술을 공개했는데, 이 이미지는 실제
사람이 아닌 AI가 ‘유명인’이라는 개념을 이해하고 상상으로 생성해 낸 것임
<자료> Karras et al.
[그림 2] GAN이 생성한 유명인 이미지
Ø GAN으로 그린 가상의 유명인은 어디선가 본 듯한 것처럼 보이지만 실존 인물은 아니며, 구글에서 이미지 검색을 해도 해당 인물이 발견되지는 않는데, 한마디로 GAN은 진짜 같은 가짜를 생성해 내는 기술이라고도 할 수 있음
Ø엔비디아가 발표한 논문은 GAN이 유명 연예인 외에도 침실, 화분, 말, 소파, 버스 등의 객체를 AI가 개념만 듣고 현실과 똑같이 그려낼 수 있음을
보여주고 있음
생성적 대립쌍이라는 명칭이 붙은 이유는, GAN이 서로 경쟁하는 두
개의 신경망(dueling neural network) 구조를 통해 성능을 개선하고 딥러닝 모델을 진화시키기
때문
Ø GAN의 구조는 일반적으로 ‘감식자(Discriminator)’와 ‘생성자(Generator)’라는 두 개 층의 신경망으로 구성되는데, 양
측이 서로 충돌하면서 발생하는 차이점을 수정해 나가며 궁극의 균형점, 즉 진짜 같은 가짜의 생성에 이르게
됨
Ø생성 네트워크는 진짜와 똑 같은 가짜 이미지를 생성하는 역할을 담당하는데, 생성자에
노이즈(랜덤 신호)가 입력되면 이를 토대로 가짜 이미지를
생성함
Ø감식자는 입력된 데이터가 진짜인지 가짜인지를 판정하는데, 생성자가
만들어 낸 가짜(Fake) 이미지와 샘플 데이터세트에서 추출된 실제(Real)
이미지가 감식자에 입력되면 Fake 또는 Real 여부를
판정하게 됨
Ø이 방식은 게임이론 중 ‘내쉬 균형(Nash Equilibrium)’, 즉
합리적 판단을 하는 상호 간의 게임이론에 따라 수학적으로 균형점을 찾는다는 이론이 적용된 것임
Ø한 마디로 GAN은 생성자와 감식자가 대치하며, 매우 성공적인 가짜를 생성해내는 인공지능 기술이라 정의할 수 있음
<자료> Anton Karazeev
[그림 3] 대립쌍을 이루는 GAN의 작동 프로세스
GAN의 개념을 주창한 이언 굿펠로우는 대립쌍을 설명하면서 생성자와 감식자의 관계를 위조 지폐범과 경찰의 대결로
비유하였음
Ø화폐 위조범(생성자 G)이
새로운 위폐를 만들어내면 경찰이나 은행원(감식자 D)은 이를
간파해야 하고, 위조범들이 이를 피하기 위해 더 그럴 듯한 위조 지폐를 만들면 경찰관들도 동시에 감식
기술을 향상시키는데, 이 과정을 통해 위조 화폐가 더욱 정교해진다는 것
Ø즉 위폐범의 위조 기술과 경찰의 감식 기술이 서로를 자극하면서 발전을 거듭하면,
결국 위조화폐는 진짜 화폐와 같은 수준의 내쉬 균형점에 이르게 된다는 것으로, 현실에서는
감식자가 위폐범을 이겨야 하나 GAN에서는 위폐범의 승리가 목표임
Ø이언 굿펠로우는 대립쌍을 설명하면서 수학 같이 명확한 답이 없지만 확률적으로 목표와 근사한 지를 끊임없이 확인하면서
이미지를 변환해 가면 결국엔 위폐일 확률과 진짜일 화폐일 확률이 각기 0.5가 된다고 표현하였음
Ø인간과 AI가 대결과 공존을 해야 하는 시대에 인간이 우위를 점할
수 있는 영역으로 흔히 창의성과 예술 분야가 거론되지만, 알파고 등장에서 보듯 현실은 창의성에서도 AI의 우월성이 드러나는데, 위폐범의 승리를 목표로 하는 GAN 같은 기술의 등장이 그 원인이라 할 수 있음
이처럼 GAN은 매우 성공적인
가짜를 생성할 수 있으나 기술적으로 몇 가지 과제가 있었는데, 엔비디아는 특수 구조를 개발하여 과제를
해결해 가고 있음
Ø GAN의 과제는 알고리즘의 교육에
장시간 연산이 필요하다는 점과 알고리즘의 작동이 불안정하다는 점이었는데, 엔비디아는 서서히 이미지의
해상도를 높여 나가는 구조의 네트워크를 개발하여 문제를 해결하였음
Ø엔비디아가 개발한 GAN의 특징은 학습 초기 단계에서는 낮은
해상도(4×4)의 네트워크를 사용하고, 학습이
진행되면서 점차 해상도를 올려 최종적으로 고해상도(1024×1024)의 네트워크를 사용해 선명한 이미지를 생성한다는 점
Ø엔비디아의 GAN이 순차적으로 생성한 이미지와 생성에 소요된 시간을 살펴보면, GAN에
학습을 시작한 지 4시간 33분이 경과한 시점에 저해상도(16×16)의 이미지가 생성되어 사람으로 보이는 듯한 형상이 나타났음
Ø 1일 6시간이 경과한 시점에서 나타난 중간 해상도(64×64)의 이미지에서는 얼굴 윤곽이 뚜렷해졌으며, 5일 12시간이 경과한 시점에 나타난 고해상도(256×256) 이미지에서는 인물이 부드럽게 그려져 있지만 세부적으로 보면 군데군데 일그러진
곳이 있음
Ø 19일 4시간이 경과한 시점에 나타난 초고해상도(1024×1024) 이미지에서는 리얼한 인물이 완성되는데,
이처럼 엔비디아의 GAN은 감식자(Discriminator)의
스킬을 검증하면서 서서히 해상도를 올려나가는 방식을 통해 알고리즘 교육 시간을 약 20일로 단축하였음
<자료> Karras et al.
[그림 4] 점증적으로 해상도를 높여 나가는 엔비디아의 GAN
엔비디아가 GAN의 성능을 개선했지만, 고해상도의 이미지를 생성하려면 대규모 컴퓨팅 리소스를 필요로 하는 등 아직 연구를 통해 개선해야 할 것들이
많이 남아 있음
Ø GAN에서 선명한 이미지를 생성하기 위해서는 대규모 컴퓨팅 자원이 필요한데, 엔비디아의
경우 이 연구를 위해 NVIDIA Tesla P100 GPU(4.7 TFLOPS)를 사용하였음
Ø GAN의 알고리즘 학습에는 약 20일 정도가 걸렸는데, 많이 개선된 것이지만 고해상도의 이미지를 생성하려면 여전히 많은 처리 시간이 필요하며, 결국 완벽한 가짜 이미지 생성에 아직까지는 많은 비용이 소요됨을 의미함
Ø또한 GAN으로 그려낼 수 있는 대상은 GAN이 학습을 마친 분야로 제한되기 때문에 현재는 유명 연예인 등 일부에 한정되는데, GAN의 교육 시간을 상당히 단축시키거나 혹은 폭넓은 분야를 커버하게 하려면 추가 연구가 필요한 상황임
GAN은 양날의 검이 될 위험성이 존재하지만, 현재 AI 기술 개발의 가장 큰 걸림돌을 해결할 단서가 될 수 있다는 점에서 AI 분야의
큰 돌파구가 될 수 있는 연구 주제임
Ø GAN은 현재 딥러닝이 안고 있는 많은 문제를 해결할 수 있는 비장의 카드가 될 가능성이 있는데, 비지도 학습(Unsupervised Learning)과 라벨이 없는
데이터(태그 없는 교육 자료) 분야의 연구를 크게 진전시킬
단서가 될 것으로 전망되고 있기 때문
Ø이는 현재 AI 개발의 가장 큰 걸림돌이 되고 있는 문제, 즉 알고리즘을 교육하기 위해 대량의 태그 데이터가 필요하다는 문제의 해결책이 될 수 있음을 의미하며 이것이
개발자들이 GAN에 주목하는 가장 큰 이유임
Ø반면 GAN에 대한 우려도 그만큼 크게 대두되고 있는데, GAN이 가상으로 그려낸 이미지는 사진 촬영을 한 연예인이라 해도 의심의 여지가 없으며, 실제와 똑 같은 가짜 앞에서 양자의 진위를 판정할 수 있는 사람은 아무도 없음
Ø소셜 미디어에서 가짜 뉴스가 문제가 되고 있지만 GAN의 등장으로
이제는 가짜 사진이 사태를 더욱 복잡하게 할 가능성이 커졌으며, 인스타그램에 올라오는 사진들 역시 GAN이 만들어 낼 시대가 도래하고 있음
Ø전문가들이라고 이런 문제를 비껴나갈 수 있는 것은 아니어서, 천문학자들은
이제 우주의 이미지를 직접 우주 공간에 나가서 사진 찍듯이 그려내고 있으며, 화산 폭발 장면을 실감나는
사진으로 표현하고 있음
Ø또한 인체의 DNA가 어떻게 작동하는지 또 단백질이 어떻게 반응하는지를
직접 촬영한 사진처럼 표현하기도 하는데, 그럴듯한 이미지들과 함께 이런저런 학술이론을 제시하면 한마디
반박조차 못하고 감쪽같이 설득 당할 수밖에 없음
Ø GAN 의 등장은 현실과 가상현실 사이에서 진위의 구분이 무의미해지는 시대의 도래를 시사하며, 양날의 검이 될 수 있는 GAN의 활용 범위와 방안을 놓고 AI 개발자 커뮤니티뿐 아니라 일반인 사이에서도 다양한 논쟁이 벌어질 것으로 보임
딥러닝(Deep Learning)을 응용한 시스템의 활용이 사회 각 분야로
확산되고 있으나, 동시에 AI의 문제점도 명확히 드러나고
있음. 문제 제기의 핵심은 ‘AI를 믿을 수 있는가’하는 것인데, 이는 AI의
결정 메커니즘을 사람이 온전히 알 지 못한다는 점에서 기인함. 의사보다 암 진단 정확도가 높지만, AI가 왜 그렇게 판단했는지를 모르기 때문에 신뢰성의 문제가 제기되는 것이며, 따라서 2017년에는 AI의
작동 메커니즘을 규명하려는 움직임이 적극 전개될 것으로 예상
[ 본 문 ]
◈ 인공지능(AI) 활용 시도가 다양하게 전개되면서,
사람들은 점차 ‘인공지능(AI)을 과연 신뢰해야 하는가’라는 문제에 직면하고 있음
• 딥러닝(Deep Learning) 기법을 응용한 다양한 인공지능 시스템 활용 사례가 속속 소개되며 기대감이 커지고 있으나, 동시에 AI의 문제점도 명확해지고 있음
• AI는
통계학적 수법을 통해 입력된 데이터로부터 어떤 특징의 양을 정밀하게 감지하며 의사결정을 내리는데, 사람들을
곤혹스럽게 하는 점은 AI가 왜 그런 의사결정을 내렸는지에 대해 설명해 주지 않기 때문임
• 가령 자율운전 차량은 인간보다 훨씬
안전하게 주행할 수 있다는 것이 실험을 통해 입증되고 있지만 그 운전 기술의 요체는 AI 개발자들도
모르며 오직 AI만 알고 있기에, 사람들은 ‘안전할 거 같긴 한데 믿을 수 있을까’라는 애매한 감정을 갖게 됨
• 구글 딥마인드는 바둑 인공지능 알파고를
개발하며 바둑의 규칙조차 입력하지 않았지만, 대결에서 패한 인간 최고수로부터 바둑을 이해하는 새로운
관점을 얻게 되었다는 찬사를 이끌어 냈는데, 이런 사실에 사람들은 기대감과 불안감을 동시에 느끼는 것
• 사정이 이렇다 보니 사람들이 느끼는
불안감 속에는, 사람이 AI를 이해하지 못하는 것이 아닌지, AI가 사람을 능가하는 것은 아닌가 하는 존재론적 의심도 배어 있음
◈ AI에 내포된 이런 본질적 문제는 다양한 형태로 드러나고 있는데, 중국계 AI 연구자들이 최근 발표한 얼굴 특징으로 범죄자를 식별하는
기술은 큰 논란을 낳고 있음
• 상하이교통대학(Shanghai Jiao Tong University)은 지난 11월 13일 ‘얼굴 이미지를 이용한 범죄연관성에 관한
자동화된 추론(Automated Inference on Criminality using Face Images)’이라는 논문을 공개
• 공개된 지 얼마 안되어 아직 피어 리뷰(동료 전문가 평가, peer review)도 끝나지 않았지만, 논문에 따르면 알고리즘은 89%의 정확도로 범죄자를 식별한다고 하는데, 즉 얼굴 사진을 알고리즘에 입력하면 그 사람이 범죄자인지 여부를 거의 알 수 있다는 것
• 이 연구에는 딥러닝 등 얼굴인식 AI 기술이 사용되었으며, 알고리즘을 훈련시키기 위해 남성 1,856명의 얼굴사진을 사용했고 그 중 730명이 범죄자였다고 함
<자료> Xiaolin Wu & Xi Zhang
[그림 1] 얼굴인식 AI 기법을 이용한 범죄자 식별 가능성 연구
• 논문은 범죄자의 얼굴에 세 가지 특성이
있다고 언급하고 있는데, 윗입술의 선이 보통 사람에 비해 급격히 내려가고(그림1 오른쪽 이미지 속의 p), 두
눈의 간격이 좁으며(d), 코와 양 입가 사이에서 만들어지는 각도가 좁다(θ)는
점을 들고 있음
• 이 논문은 현재 논란의 와중에 있는데, 인물의 행동에서 범죄자를 식별하는 방법은 이미 감시 카메라 등으로 사용되고 있지만, 얼굴의 특징으로 범죄자를 가려낸다는 AI를 믿을 수 있는가 하는
의문이 제기되고 있는 것
• AI는
학습 데이터를 바탕으로 통계 처리를 하는 것이지, 얼굴의 모양과 범죄자를 연결시키는 논리가 아닌데, 만일 AI가 범죄 수사에 사용된다면 일반 시민들이 이유를 알지 못한
채 용의 선상에 오르게 될 지도 모른다는 우려가 나오고 있음
◈ 딥러닝이 사회문제가 될 수 있는 불씨는 도처에 도사리고 있는데, 세계 최첨단 AI 기술력을 보유한 구글 역시 AI와 관련해 인종차별 이슈로 문제점을
지적받고 있음
• 구글의 유튜브는 청각 장애인을 위해
동영상 속의 음성을 자막으로 표시하는 기능이 있는데, 구글은 이 기능에 AI를 사용하고 있음
• 미국국립과학재단(National Science Foundation)의 레이첼 태트먼(Rachael
Tatman) 연구원은 유튜브의 캡션 기능에서 동영상 속 화자가 남성일 경우와 여성일 경우 캡션의 정확도가 다르지 않은가에 대해 조사를
실시하였음
<자료> Rachael Tatman.
[그림 2] 구글
음성인식의 성별 편견
• 그 결과 유튜브는 남성의 목소리를 여성의
목소리보다 정확하게 인식하는 것으로 나타났는데, 남성일 경우 인식 정확도는 60%이지만, 여성의 목소리일 경우 정확도는 47%로 내려가 음성인식에서 여성이 차별을 받고 있는 것으로 나타남
• 이 차이가 발생하는지에 대해 시스템을
자세히 검증할 필요가 있는데, 태트먼은 AI 훈련에 사용된
음성 데이터 샘플이 성별로 균등하지 않고 남성에 치우쳤기 때문인 것으로 추측
•AI의
성능은 훈련 자료의 품질에 민감하게 좌우되는데, AI의 여성 차별과 인종 차별 문제가 표면화됨에 따라, 훈련 데이터의 공정성 여부가 추궁 당하고 있음
◈ 사람의 생명과 직결되는 의료 분야에서도 인공지능에 의한 판단과 결정을 어떻게 해석하고 검증할 것인지에 대한 논의가 시작되고 있음
• 딥러닝 기법은 최근 유방암 검사의 판정에서
성과를 올리고 있는데, 검체의 의료 이미지(CT 촬영사진, x-레이 사진 등)를 딥러닝 네트워크에 입력하면 AI는 암이 발병한 조직을 정확하게 검출해 냄
• 현재
AI의 유방암 진단 정확도가 인간을 웃돌기 때문에, 많은 병원에서 정밀한 치료를 위해 이
시스템의 도입을 시작하고 있음
• 그러나 동시에, 건강해 보이는 조직을 AI가 암 발병 가능성이 높다고 판정한 경우, 의사와 환자가 어떻게 대응해야 할 지가 논란이 되고 있는데, AI 판정만
믿고 몸을 여는 수술을 해야 하는지 어려운 판단을 내려야 하는 압박을 받게 됨
• 물론 유전자 검사에서도 동일한 문제가
발생하고 있으며, 유방암 발병을 촉진하는 유전자 변이인 ‘BRCA’가 검출될 경우 수술을 해야 하는지 여부가 논란이 되고 있음
• 여배우 안젤리나 졸리는 ‘BRCA1’변이 유전자를 보유하고 있으며
유방암 발생 확률이 87%라는 말을 듣고 아직 암이 발병하지 않았음에도 유방 절제술을 받은 바 있음
• 그러나 AI에 의한 검진의 경우는 이와 다른데, AI는 변이 유전자 보유라는
확실한 근거를 토대로 발병 확률을 제시하는 것이 아니며, 통계적 방법으로 유방암 여부를 판단할 뿐 그
조직에서 왜 암이 발병하는 지는 설명하지 않기 때문
• 이런 이유로 인공지능은 종종 ‘인공 무능’으로
조롱받는 것이며, 과학적 근거가 없는 결정을 어떻게 해석해야 할 지에 대해 의학적 검증 노력이 시작되고
있음
◈ 은행이나 핀테크 스타트업들도 최근 대출 심사에서 딥러닝을 사용하기 시작했는데, 심사 결과에
대해서는 대체로 만족도가 높지만 현행 법과 배치되는 문제가 발생하고 있음
•AI
대출 심사의 장점은 신청자의 데이터를 알고리즘에 입력하면 즉시 위험도를 평가할 수 있고 높은 정확도로 단시간에 대출 심사가 할 수
있다는 것
• 한편,
미국 대부분의 주 정부는 은행이 대출 심사를 통과하지 못한 사람에게 그 이유를 설명하도록 의무화 하고 있는데, 딥러닝은 그 과정이 깜깜이여서 은행은 탈락한 신청자에게 이유를 충분한 설명하지 못하게 됨
• 게다가 대출 심사 기준을 바꿀 때마다
알고리즘을 재교육하는데, 소프트웨어의 로직을 변경하는 것이 아니라 대량의 데이터를 읽어 들여 딥러닝의
변수를 다시 설정하게 하기 때문에 금융업계에서 AI 도입을 두고 찬반 논란이 일고 있음
◈ AI의 작동 알고리즘을 정확히 알지 못할 경우, 경험적으로
알게 된 AI 알고리즘의 맹점을 활용한 공격에 인증 시스템이 오작동 할 위험이 있음을 증명하는 실험도
있음
• 카네기 멜론 대학의 마무드 샤리프 교수
등은 안경으로 얼굴 인증 시스템이 오작동하도록 만들 수 있다는 내용을 담은 논문 ‘최신
얼굴 인식 기술에 대한 실제적이고 눈에 띄지 않는 공격(Accessorize to a Crime: Real
and Stealthy Attacks on State-of-the-Art Face Recognition)’을 발표하였음
• 실험에 의하면 안경테의 폭이 약간 넓은
안경을 쓰면 시스템이 얼굴을 인식할 수 없게 되며, 따라서 방범 카메라의 감시 시스템을 빠져 나갈 수
있는 여지가 생김
<자료>Mahmood Sharif
et al..
[그림 3] 간단한
트릭으로 얼굴인식 AI 교란
• 또한 안경테의 색 패턴을 변경하면 얼굴
인식 시스템이 다른 인물로 오인하는 것으로 나타났는데, 현란한 색의 종이로 만든 안경테를 걸치면 심지어
남성을 여성으로 잘못 인식하는 경우도 있었다고 함
• 얼굴 인식 시스템이 딥러닝 기법으로
얼굴의 특징을 파악한다고 하는데, 이 사례를 보면 눈매의 이미지를 판정에 사용하는 것으로 추정해 볼
수 있음
• 그러나 AI가 실제로 어떤 논리로 얼굴 인증을 하고 있는지는 아직 수수께끼이며, 이것이
규명되지 않는 한 얼굴 인증 시스템을 손쉽게 빠져 나가는 범죄자의 트릭을 막을 방법이 없음
◈ AI의 작동 메커니즘이 알려지지 않는 이유는, AI의
기초를 이루는 신경망이 인간의 뇌를 본떴기 때문인데, 인간 뇌의 정보 저장 방식이 아직 밝혀지지 않았기
때문
• AI의
신경망(Neural Network)으로 이미지를 판정할 때는 사진과 태그를 네트워크에 입력한 후 출력이
제대로 사진의 내용을 판정할 수 있도록 훈련시키는 과정을 거침
• 훈련 과정에서는 네트워크의 각층 사이의
연결 강도(Weight)를 조정하는데, 이러한 교육 과정은
인간의 뇌가 학습 할 때 뉴런의 연결 강도를 조정하는 움직임과 유사한 것으로 알려져 있음
• 학습에서 얻은 연결 강도는 각 뉴런(그림 4의 흰색 동그라미 부분)에
저장되는데, 따라서 신경망을 훈련시키는 메커니즘의 특징은 프로그램과 데이터를 한 곳에 모아 저장하지
않고 학습 데이터를 네트워크에 분산하여 저장할 수 있다는 것임
<자료>Neural networks and deep learning.
[그림 4] 인공지능 신경망의 정보 저장 구조
• 인간의 뇌도 동일한 방식으로 작동하는데, 가령 뇌가 전화번호를 기억할 때, 첫 번째 숫자는 다수의 시냅스에
흩어져 저장되며, 두 번째 숫자도 마찬가지로 흩어져 저장되지만 첫 번째 숫자와 가까운 위치에 저장되는
것으로 알려져 있음
• 문제는 뇌의 이런 저장 메커니즘이 아직 정확히 밝혀지지 않았고, 따라서 뇌의 구조를 본 뜬 신경망의 정보 저장 메커니즘의 규명이 진행되지 못하고 있다는 점
• 딥러닝의 문제점은 응축하자면 지식이 네트워크 상에 눌어붙어 있다는 점에서 기인하는데, 즉 지식이 수천만 개에 이르는 뉴런에 흩어져 저장되기 때문에 시스템을 개발한 인간이 아니라 네트워크가 지식을
습득한다는 데 문제의 본질이 있음
◈ AI만이 알고 있는 답을 규명하기 위해 1990년대
초부터 연구자들이 AI의 블랙박스를 열려는 시도를 해왔는데, 규명의
과정이 곧 AI에 대한 의구심이 높아지는 과정이었음
• 카네기 멜론 대학은 1990년대부터 자동운전 기술의 기초 연구를 진행하고 있었는데, 당시
연구원 딘 포모루는 카메라에 포착된 영상으로 자동운전 알고리즘을 교육시켰음
• 몇 분간 알고리즘을 교육한 후 차량을
자동 주행시키는 시험을 반복했는데, 시험은 잘 진행되었지만 다리에 접근할 때 자동차는 도로에서 벗어나는
움직임을 보였고, 그러나 알고리즘이 블랙박스여서 그 원인을 알 수 없었음
• 소프트웨어를 디버깅하는 방법으로는 로직을
수정할 수 없기 때문에 포모루는 도로 도로주행 시험을 반복하며, 다양한 상황에서 자동운전을 반복하며
경험적으로 문제점을 밝혀낼 수밖에 없었음
• 그에 따르면 자동차는 갓길 바깥에 나있는
잔디 부분을 기준으로 주행 도로를 판정하고 있는 것으로 파악되며, 다리에 가까워지면 잔디 부분이 없어져
차로 판단 기준을 잃게 되므로 정상적인 주행을 할 수 없게 된 것임
• 이런 결론에 이르게 되자 포모루는 자동운전
기술을 AI로 구현한 자동차가 과연 제대로 작동할 것인지 확신할 수 없게 되었다고 함
◈ 현재에도 이와 동일한 문제에 직면하고 있는데, 무인 자율운전 차량들이 도로를 달리고 있는
지금, 사람이 AI 기술을 신뢰해야 할 지의 문제가 최대
이슈가 되고 있음
• AI의
운전 로직을 모르기 가운데, 어떻게든 안전 기준을 만들려다 보니 시행착오가 계속되고 있는데, 그 중 하나는 정해진 거리를 무사고로 주행 가능하다면 안전한 것으로 간주한다는 생각임
• 싱크탱크 랜드 코프(Rand Corp)는 인간이 자동차를 1억 마일 운전할 때 사망 사고는 1.09 회 발생하는데, 자율운전 차량이 인간만큼 안전하다는 것을
증명하기 위해서는 2.75억 마일을 무사고로 달릴 필요가 있다는 기준안을 제시한 바 있음
• 인간 수준의 안전성을 입증하기 위해서는
대규모 주행 시험이 필요하다는 말인데, 이는 자율운전 자동차의 안전 기준을 설정하는 작업이 난항을 겪고
있음을 잘 보여줌
◈ 그러나 자율주행 차량의 도입과 확산을 위해서는 결국 AI의 작동 메커니즘 규명이 반드시
전제되어야 할 것이므로, 이 문제를 기술적으로 해명하려는 움직임도 시작되었음
• 엔비디아(Nvidia)는 딥러닝을 이용한 자율운전 기술을 개발하고 있는데, 이
시스템의 명칭은 ‘데이브-2(DAVE-2)’이며 신경망으로 구성되어 있음
• 인간이 알고리즘에 주행 규칙을 가르치는
것이 아니라, 시스템이 신경망에서 이미지를 처리하여 안전한 경로를 파악하는데, 가령 곡선 도로의 이미지를 읽으면서 거기에서 운전할 때 알아야 할 필요가 있는 도로의 특징을 파악함
• 엔비디아는 AI가 어떤 기준으로 결정하고 있는지에 관한 연구를 함께 진행하고 있는데, 지금까지
블랙박스였던 AI의 핵심을 규명하는 시도임
• 연구의 결과, 엔비디아는 카메라가 포착한 사진과 이미지 인식 신경망(CNN)이
이것을 읽고 거기에서 추출한 특징을 비교해서 보여주며, AI가 도로를 어떻게 이해하고 있는지를 설명하고
있음
• 신경망이 보여 주는 굽은 도로의 특징을
보면, 특징량은 곡선이 대부분으로 CNN이 도로의 경계 부분을
기준으로 운전하고 있음을 알 수 있는데, 이런 방법을 통해 AI가
습득한 운전 기술의 요체를 사람이 시각적으로 이해할 수 있다는 설명
<자료>Nvidia.
[그림 5] AI가 도로를 인지하는 방법
◈ 2016년이 인공지능의 가능성을 열어젖힌 원년이라면,
2017년은 AI의 블랙박스를 열어 그 작동 논리를 규명함으로써 AI 확산의 기폭제를 마련하는 해가 될 것으로 예상
• 자율운전 자동차를 포함 자율적 인공지능
시스템은 심층강화학습(Deep Reinforcement Learning)이라는 기법을 사용하여 알고리즘이
시행착오를 반복하여 정책을 학습하도록 하고 있음
• 심층강화학습 기법은 알파고에도 사용되고
있으며, 보다 지능적인 AI 개발의 핵심 기법이 될 것으로
보이는데, 현재 심층강화학습의 요체도 블랙박스이지만, 앞으로
이에 대한 규명 작업도 적극 진행될 것으로 예상됨
• 무언가 새롭고 획기적인 것인 등장했을
때, 그것의 요체와 작동 방식을 정확히 모른다면 사람들의 대응 방식은 무조건적인 거부 혹은 반대로 종교와
유사한 무조건적 추종과 같은 극단적 양상을 띨 위험이 있음
• 인공지능이 사회적 합의 위에 다양한
가치를 위해 활용되려면, 그 메커니즘에 대한 정확한 이해가 수반되어야 할 것이며, AI가 인간의 뇌를 본 뜬 것인 만큼, AI를 알아가는 과정은 곧
우리 인간이 스스로에 대해 더 많이 알게 되는 과정이 될 수 있을 것임