※ 아래 글은 정보통신기술진흥센터(IITP)가 발간하는 주간기술동향 1880호(2019. 1. 22. 발행)에 기고한 원고입니다.


▶ IITP에서 PDF 포맷으로 퍼블리싱한 파일을 첨부합니다. 가독성이 좋으니 참고하시기 바랍니다.

무어의 법칙 종언 시대, CPU-GPU-DSA의 서버 프로세서 3파전.pdf



인텔의 CPU ‘Xeon(제온)’의 라이벌은 AMD나 암(Arm)의 서버 프로세서만이 아닌데, 급성장 중인 AI(인공지능) 분야에서는 GPU에 밀린 지 오래이며, 새로운 경쟁자도 계속 나타나고 있음


AMD의 리사 수 CEO에 따르면 2021년에는 데이터센터용 프로세서 시장에서 GPU의 점유율이 CPU에 육박하는 수준으로 성장할 전망하였음


리사 수는 데이터센터용 프로세서 시장 규모는 2018200억 달러에서 2021290억 달러로 성장할 것으로 내다보는데, 특히 GPU는 연간 수십 %의 속도로 성장하며 전체 시장의 약 40%를 차지하게 될 것으로 예상하고 있음


향후 성장이 기대되는 대규모 시뮬레이션이나 딥러닝 분야 등은 GPU가 적합한 작업이기 때문이라는 것이 그 이유


<자료> AMD

[그림 1] 2021년 데이터센터용 프로세서 시장 전망


이런 판단 하에 AMD201811월 제품 발표회에서 서버 프로세서 ‘EPYC(에픽)’의 차기 버전인 ‘ROME(, 개발코드명)’ 뿐만 아니라, 새로운 데이터센터용 GPU 제품으로 ‘Radeon Instinct MI60’‘MI50’을 발표하였음


리사 수 CEO는 새로운 GPU 제품들이 7nm(나노미터) 공정에서 처음 생산되는 데이터센터 용 GPU라 설명하며, AMD의 데이터센터 시장 공략은 CPUGPU라는 쌍두마차를 통해 전개될 것임을 강조하였음


AMD의 행보에는 약간의 조바심이 느껴지는데, 그도 그럴 것이 AMD보다 먼저 데이터센터 시장에 진입한 엔비디아(NVIDIA)는 이미 이 분야에서 GPU로 눈부신 성공을 거두었기 때문


엔비디아의 20188~10월 기간 결산을 보면 데이터센터 사업부문의 매출은 79,200만 달러로 2년 전인 20168~10월 매출에 비해 3.3배 증가했는데, 이러한 실적은 데이터센터용 GPU 시장이 얼마나 빠르게 성장하고 있는지 잘 보여주고 있음


사업의 규모가 달라 성장률을 단순 비교하기는 어렵지만, 비슷한 시기에 인텔의 데이터센터 사업부문 매출은 454,200만 달러에서 613,900만 달러로 1.4배 증가하였음


향후 성장이 기대되는 AI 부문의 수요를 노리고 있는 것은 GPU만이 아닌데, 최근 주목받고 있는 기술은 구글의 클라우드TPU'


작년 11월 스탠퍼드 대학에서 개최된 로봇 심포지엄 Bay Area Robotics Symposium(BARS) 2018에 등단한 유명 로봇 스타트업 안키(Anki)의 공동 창업자 마크 팔라투치는 구글)AI 클라우드인 ‘Cloud TPU(클라우드 TPU)’를 사용 중이라 밝혔음


안키가 2018년에 출시한 벡터(Vector)’는 사용자의 친구가 되어 대화 및 게임 등 커뮤니케이션을 통해 즐거움을 주는 장난감 로봇으로, 카메라로 촬영한 이미지에서 사용자의 얼굴을 인식하는 기능과 사용자의 음성을 인식하는 기능 등 고급 AI 기능을 갖추고 있음


안키에 따르면 기계학습 추론 처리 시, 이미지 인식과 같은 가벼운 작업은 벡터 로봇에 내장된 퀄컴의 스마트폰용 프로세서인 Snapdragon(스냅드래곤)으로도 처리 할 수 있음


그러나 음성 인식과 같이 중요한 추론은 스마트폰용 프로세서로 처리하기는 어렵기 때문에 클라우드 측에 맡기는데, 그 클라우드 백엔드에 구글의 클라우드TPU를 사용 중이라고 함


클라우드TPU는 구글이 자체 개발한 딥러닝 전용 프로세서인 ‘TPU(Tensor Processing Unit)’를 종량제 방식으로 이용할 수 있는 구독형 서비스임


TPU2세대인 ‘Cloud TPU v2’ALU(Arithmetic and Logic Unit: 산술논리연산장치)32,768개 탑재하여 딥러닝에 필요한 연산을 초당 180 테라 회(180T FLOPS) 실행할 수 있으며, 3세대 ‘Cloud TPU v3’에서는 초당 420 테라 회 연산이 가능함


<자료> Artificial Intelligence Videos

[그림 2] 수냉식을 채택한 Cloud TPU 3세대


엔비디아의 데이터센터용 GPU의 최신 버전인 ‘Tesla V100’이 딥러닝의 연산을 초당 125 테라 회 실행 가능한 것과 비교해 본다면, 최소한 딥러닝의 성능에 관해서라면 여기에 특화된 구글의 클라우드 TPU가 범용 목적의 GPU를 크게 앞선다고 볼 수 있음


안키와 같은 고도의 기술력을 가진 스타트업이 클라우드TPU를 채택하고 있다는 점은 클라우드 TPU의 압도적 성능을 방증하는 것임


구글이 클라우드 TPU를 선보이자, 뒤이어 화웨이 테크놀로지와 아마존웹서비스(AWS) 역시 딥러닝 전용 프로세서를 개발 중에 있음


화웨이가 201810월 발표한 ‘Ascend 910’은 딥러닝에 필요한 연산을 초당 최대 256 테라 회 실행할 수 있다고 하는데, Ascend 910은 올해 2분기에 정식 출시될 예정임


AWS201811월 딥러닝 전용 프로세서로 ‘AWS Inferentia’를 발표했는데, 올해 하반기부터 클라우드에서 이용할 수 있게 될 이 프로세서는 딥러닝의 연산을 초당 수백 테라 회 실행할 수 있다고 알려져 있음


구글에 이어 주요 클라우드 사업자들이 동참함에 따라, 향후 AI의 워크로드 처리를 놓고 GPU와 딥러닝 전용 프로세서 사이에 경쟁적 본격화될 것으로 예상됨


TPU와 같이 특정 용도에 특화된 프로세서를 도메인 특화 아키텍처(Domain Specific Architecture, DSA)’라 부르는데, 하드웨어 성능 개선의 방법으로 주목받고 있음


DSA의 대표적인 옹호론자는 RISC(축약명령어세트컴퓨터) 프로세서를 고안한 2명의 컴퓨터 과학자로, 스탠퍼드 대학 학장을 역임한 존 헤네시와 버클리 캘리포니아 대학의 교수를 역임한 데이빗 패터슨은 DSA만이 하드웨어의 성능을 향상시키는 길이라 적극 주장하고 있음


<자료> James Hamilton's Blog

[그림 3] 2017 튜링 어워드 수상자


‘Computer Architecture: A Quantitative Approach(컴퓨터 아키텍처: 정량적 접근)’‘Computer organization and design(컴퓨터 구성과 설계)’의 저자로 알려진 두 사람은 2017년 튜링 어워드를 공동 수상한 컴퓨터 과학의 권위자들임

ASIC(주문형반도체)애플리케이션 특화(Application Specific)’, 즉 하나의 응용분야에 최적화된 칩인 반면, DSA는 응용프로그램 보다 범위가 넓은 도메인(산업 및 기술영역)에 특화된 칩이라 할 수 있음

현재 구글 모기업인 알파벳(Alphabet)의 회장을 맡고 있기도 한 존 헤네시는 20185월에 열린 ‘Google I/O’ 컨퍼런스의 강연에서 DSA에 대한 관심이 증가하는 이유로 무어의 법칙의 종언이 다가오고 있기 때문이라 설명


CPU는 지금까지 집적회로의 트랜지스터 수가 1.5~2년마다 2배로 늘어난다는 무어의 법칙에 따라 성능을 향상시켜 왔으나, 현재는 반도체 제조 공정의 미세화가 한계에 다다르고 있음


인텔도 제조 공정의 미세화에 고전하고 있고, AMDIBM의 반도체 제조부문을 인수한 글로벌파운드리즈도 작년에 반도체 제조 공정 신규 개발에서 철수한 바 있음


무어의 법칙이 붕괴되면 단순히 트랜지스터의 수를 늘림으로써 성능을 향상시킬 수는 없게 되므로, 그렇다면 향후 어떻게 성능을 향상시킬 지가 반도체 산업의 화두가 되고 있음


존 헤네시는 시간이 지나면 오래된 아이디어가 다시 새로운 것이 되는 법(Everything old is new again)’이라며, 과거에는 작동하지 않던 DSA가 이제는 성능을 발휘하게 되었다고 주장


과거 범용 CPU 시대에 시도되었으나 당시에는 잘 작동하지 않았던 기술들이 있는데, DSA도 그 중 하나로 용도를 제한함으로써 이제는 오히려 성능을 발휘할 수 있게 되었음


일례로 ‘VLIW (Very Long Instruction Word)’ 아키텍처를 들 수 있는데, 이는 과거 인텔이 64 비트 프로세서인 Itanium(이타늄)에 채택했으나 성공하지 못했던 기술로, 하나의 명령어를 통해 여러 개의 명령어를 처리하도록 하는 방식임


이 방식은 범용 CPUVLIW를 채용할 경우 프로그램에 포함된 복수의 명령어를 병렬로 실행시키기 위한 컴파일러를 개발하는 것이 어려워 잘 작동하지 않았음


그런데 용도를 한정한다면 여러 명령어의 병렬 실행이 용이하게 될 수 있으며, 존 헤네시에 따르면 DSA에서는 VLIW에 의한 성능 향상이 실현될 수 있다고 함


그 밖에도 DSA에서는 높은 범용성을 목표로 하는 CPU에서는 채택하지 못했던 기술, 가령 부동소수점 연산의 정확도를 낮추는 대신 연산 횟수를 늘리는 등의 기술 적용이 가능한데, 실제 이 기술은 구글의 TPU와 화웨이의 Ascend 910 등 딥러닝용 DSA가 채택하고 있음


지금까지는 범용성이 높은 CPU의 성능 개선이 순조롭게 진행되어 왔기 때문에, 틈새시장 전용의 프로세서가 활약할 기회가 주어지지 않았지만, CPU의 성능 향상 방법이 막히면서 다양한 도메인에 다양한 DSA가 등장하게 될 것으로 존 헤네시는 전망하고 있음


실제로 딥러닝 이외 영역에서도 DSA가 등장하고 있는데, 베어풋 네트웍스(Barefoot Networks)SDN(소프트웨어 정의 네트워크) 전용 DSA‘Tofino(토피노)’를 개발하였음


네트워크 기기에서는 패킷 처리의 구조를 하드웨어 단으로 떨어뜨린 ASIC를 사용하는 것이 일반적이었으나, 2010년대에 들어서면서 패킷 처리를 소프트웨어를 통해 정의하는 ‘OpenFlow(오픈플로우)’와 같은 SDN 기술이 주목받게 되었음


SDN 기술에서 소프트웨어 처리는 지금까지 CPU가 담당해 왔으나, 베어풋 네트웍스는 토피노로 CPU를 대체하려 하고 있음


베어풋 네트웍스는 토피노가 초당 테라비트급 패킷 처리가 가능하고, CPU로 처리하는 데 비해 레이턴시(지연)500 분의 1 이하로 할 수 있다며, 토피노의 성능은 ASIC와 맞먹지만 ASIC과 달리 토피노는 프로그래밍을 통한 처리가 가능한 장점이 있다고 주장


서버 프로세서의 분야에서 시작된 혼전은 이제 CPU 사이의 싸움만이 아니며, CPUGPU, GPUDSA, DSACPU 등 서로 다른 아키텍처 간 경쟁으로 발전해 나갈 조짐을 보이고 있어, 앞으로 시장 전개 상황을 주시할 필요가 있음


댓글을 달아 주세요

※ 아래 글은 정보통신기술진흥센터(IITP)가 발간하는 주간기술동향 1865호(2018. 9. 26. 발행)에 기고한 원고입니다.


▶ IITP에서 PDF 포맷으로 퍼블리싱한 파일을 첨부합니다. 가독성이 좋으니 참고하시기 바랍니다.

웨더뉴스-엔비디아, AI 이용한 전세계 강우 상황 가시화 프로젝트.pdf



웨더뉴스(Weathernews)는 최근 엔비디아(NVIDIA)와 협력하여 전세계 강우 상황을 AI(인공 지능)로 가시화하는 프로젝트를 시작한다고 발표


전지구적 차원의 기후 변화 영향으로 최근 세계 곳곳에서 자연 재해가 빈발하고 있는데, 동남아시아 지역 등 비가 많이 내림에도 불구하고 기상 관측 인프라가 아직 정비되어 있지 않고 기상 전문 인력도 부족한 지역이 많음


기상 상황 파악과 예측 능력이 자연재해 빈발 흐름에 제대로 대응할 수 없는 것인데, 이에 따라 자연히 피해가 선진국에 비해 커지기가 쉬움


웨더뉴스의 프로젝트는 이런 문제를 겪고 있는 국가를 지원하기 위한 것으로, 엔비디아가 보유한 딥러닝 기술을 이용하여 강수 분포를 가시화하고 강우를 예측하여 호우 피해 경감에 기여할 것을 목표를 하고 있음


이번 프로젝트는 엔비디아의 딥러닝 전용 수퍼 컴퓨터 ‘DGX-1’을 이용하게 되는데, 높은 정확도의 위성 이미지와 비구름 레이더 이미지를 학습 데이터로 이용하여 훈련시킨 후, 실시간 위성 이미지에서 가상의 비구름 레이더 이미지를 생성시킨다는 계획

<자료> xTech

[그림 1] 딥러닝으로 생성한 가상의 비구름 영상


엔비디아는 GPU 컴퓨팅을 위한 하드웨어와 소프트웨어를 제공하게 되며, 엔비디아의 스타트업 지원 프로그램에 참여하고 있는 드에이아이그노시스(dAignosis)’DGX-1 기반 딥러닝을 개발하고, 웨더뉴스가 새로운 기상모델을 개발하게 됨


현재 기상 레이더로 관측할 수 있는 지역은 전지구 표면적의 17%에 불과한데, 이번 프로젝트는 낮은 비용으로 전지구를 관측할 수 있는 가능성을 제시한다는 점에 의의가 있음


관측 지역의 지구의 17%에 불과하다는 것은 선진국 이외 지역은 관측이 제대로 되지 않는다는 뜻인데, 지구 전체를 커버하려면 4,000 개의 기상 레이더가 필요하다고 함


이에 비해 DGX-1 수퍼컴퓨터를 50대 이용하면 가상 레이더로 전세계 기상 데이터를 1분마다 생성할 수 있게 된다고 하는데, AI를 이용한 가상 레이더 구축비용은 4천 개의 기상 레이더를 운용하는 비용의 8,000분의 1 수준으로 추정


댓글을 달아 주세요

※ 아래 글은 정보통신기술진흥센터(IITP)가 발간하는 주간기술동향 1849호(2018. 6. 5. 발행)에 기고한 원고입니다.


▶ IITP에서 PDF 포맷으로 퍼블리싱한 파일을 첨부합니다. 가독성이 좋으니 참고하시기 바랍니다.

엔비디아, 의료영상 분야 위한 ‘프로젝트 클라라’ 시작.pdf



엔비디아가 의료영상 분야를 겨냥한 새로운 클라우드 서비스를 위해 프로젝트 클라라(Project Clara)’를 시작하였음


프로젝트 클라라는 영상 진단기기를 위한 가상의 확장 가능한 GPU(그래픽 처리 프로세서) 환경을 클라우드로 제공하는 것인데, 의료영상 분야는 원래 높은 연산 능력이 요구되지만 향후 AI(인공지능)와 결합으로 더 많은 컴퓨팅 파워가 요구되는데 따른 것임


엔비디아에 따르면, 의료영상 분야에 요구되는 연산 능력은 지난 6년간 약 10배 증가했으며 특히 최근 들어 급증하고 있는데, 이미지 재구성 등에 큰 연산 능력이 필요하게 되었고 AI 도입으로 인한 부하도 더해졌기 때문


<자료> NVIDIA

[그림 1] 엔비디아의 의료영상 처리 속도 향상을 위한 프로젝트 클라라


이런 상황 변화에 맞춰 엔비디아는 프로젝트 클라라의 런칭에 즈음하여 글로벌 영상 진단기기 제조업체들과 협력 관계를 강화하기 위한 제휴를 잇달아 발표하였음


먼저 201711월에는 GE 헬스케어와 함께 지난 10년간의 협력관계를 보다 심화시켜 의료 분야에서 AI의 활용을 위해 협력할 것을 발표하였음


‘RSNA(북미영상의학회) 2017’ 학회에서 발표된 양사의 제휴는 전세계에 설치되어 있는 약 50만 대에 이르는 GE 헬스케어의 영상 진단기기에 AI를 접목하여 의료 데이터의 처리 속도를 향상시키는 데 목적을 두고 있음


GE 헬스케어에 따르면, 자사의 XCT 장치 신제품인 ‘Revolution Frontier(레볼루션 프론티어)’ 모델에 엔비디아의 AI 플랫폼을 활용했는데, 이미지 처리 속도가 기존 제품 대비 2배가량 증가했다고 함


처리 속도가 개선되면 간 병변의 검출이나 신장 병변의 분석에서 신속한 처리가 가능해지므로, 불필요한 경과 관찰을 생략할 수 있어 결과적으로 신장 기능 장애를 가진 환자 등이 혜택을 누릴 수 있음


AI 플랫폼 채택 외에도 GE 헬스케어는 초음파 영상진단 장치에 엔비디아의 GPU를 채택한다고 발표했는데, 이로써 혈류의 재구성 및 시각화가 가능해졌고, 더 우수한 2D 영상과 4D 영상이 가능해졌다고 함


한편 엔비디아는 올해 4월에 캐논 메디컬 시스템즈와 제휴를 맺고 의료연구기관을 대상으로 한 딥러닝 연구 인프라의 개발 및 판매에 관해 협력한다고 발표하였음


캐논 메디컬 시스템즈는 의료 기관이 보유한 데이터를 쉽게 수집·통합·공유할 수 있게 해주는 의료정보 통합 관리 시스템을 20181월부터 제공하고 있는데, 이를 엔비디아의 AI 컴퓨팅 플랫폼인 ‘DGX Station’으로 고속 처리하는 것이 양사 제휴의 목적임


의료 현장에서는 질병의 조기 발견과 진료를 지원하는 시스템으로 딥러닝에 의한 빅 데이터 분석에 기대를 모으고 있는데, 양사의 솔루션 결합 시도는 이러한 현장의 요구에 부응하기 위한 것이라 할 수 있음


엔비디아는 글로벌 의료기기 대형업체뿐 아니라 의료 벤처 및 스타트업과의 거리도 급속히 줄여나가고 있는데, 스타트업 지원 중 가장 큰 비중을 차지하는 것이 의료분야임


엔비디아는 인셉션 프로그램(Inception Program)’이라 부르는 액셀러레이션 프로그램을 통해 딥러닝 기술에 강점을 가진 스타트업 2,800개 사에 대해 지원하고 대기업고 매칭해주고 있음


엔비디아 헬스케어 부문 부사장인 킴벌리 파월에 따르면 인셉션 프로그램 참가 기업 중에는 의료분야가 가장 많은데, 의료영상 분야를 중심으로 의료 벤처기업 약 300개 사가 액셀러레이션에 참가하고 있음


<자료> NVIDIA

[그림 2엔비디아의 액셀러레이터 프로그램‘인셉션(Inception)


엔비디아가 지원하는 의료분야 스타트업들은 특히 제약분야에서 활동하는 기업들이 많은데, 이는 엔비디아가 제약 기업의 혁신을 가속화하는 데 AI가 중요해진다고 보기 때문


엔비디아는 이미지 분석 다음으로 AI 활용 시도가 향후 증가할 것 같은 분야로 게놈 분석 및 신약 개발을 꼽고 있음


파월 부사장은 인셉션 프로그램에 참가하는 스타트업을 가능한 한 많은 제약 업계에 소개하고 싶어 하며, 제약업계에서 사용되는 게놈 분석 및 극저온 전자 현미경 병리 진단 등을 스타트업이 경험하도록 하기 위해 이미 AI와 고성능 컴퓨팅 기반의 제공을 추진하고 있음


이 밖에도 엔비디아는 관련 당국에 대한 로비도 강화하고 있는데, AI의 의료분야 응용 이슈와 관련해 FDA(미 식품의약국)와 지속적으로 의견 교환을 하며, 몇 주에 한 건씩은 승인이 날 수 있도록 속도를 높이고 있음


엔비디아는 미국뿐 아니라 다른 국가에서도 규제가 완화되도록 하기 위해 각국의 영상 진단기기 제조업체 등과 공동의 노력을 전개해 나간다는 방침

댓글을 달아 주세요

※ 아래 글은 정보통신기술진흥센터(IITP)가 발간하는 주간기술동향 1841호(2018. 4. 11. 발행)에 기고한 원고입니다.


▶ IITP에서 PDF 포맷으로 퍼블리싱한 파일을 첨부합니다. 가독성이 좋으니 참고하시기 바랍니다.

우버 자율운전차 사망 사고, 도심 주행 허가 기준 강화될 듯.pdf



[ 요 약 ]


자율주행 자동차의 시가지 주행 테스트 과정에서 처음으로 인명 사고가 발생하면서 자율운전 기술의 안전성에 대한 의문이 제기되고 있음사고의 원인이 센서 결함인지자율운전 알고리즘의 문제인지 아직 조사가 진행 중이지만원인 규명 때까지 주행 테스트는 당분간 중단될 것으로 보임자율주행 상용화를 위해 시가지 주행은 반드시 필요한 만큼 테스트가 완전 중단되지는 않겠지만개발업체들의 기술 수준에 따라 허용 기준이 설정되는 등의 변화가 예상됨



[ 본 문 ] 


ž 우버(Uber)의 자율운전 차량이 일으킨 사고의 원인은 아직 조사 중이지만, 자율운전차에 의한 첫 보행자 사망 사고라는 점에서 상당한 파장을 일으키고 있음


Ø 사망 사고는 2018 318 , 애리조나주 피닉스 교외인 템피(Tempe)에서 일어났는데 우버의 자율운전 시험 차량(Volvo XC90 SUV 베이스)이 시속 40 마일로 주행하던 중 길을 건너고 있던 여성을 치면서 발생하였음


Ø 이 여성은 자전거를 끌고 도로의 왼쪽에서 오른쪽으로 건너 가고 있었는데, 맨 끝차선을 달리고 있던 자동차는 감속하지 않고 직진을 계속해 여성을 사망시켰음


<자료> New York Times


[그림 1] 우버 자율주행차 인명 사고 상황


Ø 자동차에는 운전자가 탑승하고 있었지만, 차량 내부 촬영 영상을 보면 사고 당시 전방을 주시하고 있지 않았기 때문에 위험 회피 조치를 할 수 없었음


Ø 자율운전 차량과 관련된 사고는 몇 차례 있었지만 인명 사고가 난 것은 이번이 두 번째이며, 보행자가 사망한 것은 처음임


Ø 지난 2016년 테슬라 차량이 트럭과 충돌하며 운전자가 사망할 당시 테슬라의 오토파일럿(Auto Pilot) 기능이 핸들과 페달 제어를 지원하는 레벨 2 정도였다면, 이번 사고 차량은 목적지를 설정하면 스스로 주행하는 레벨 4 단계였기 때문에 사고의 여파가 더 크게 나타나고 있음


Ø 사고 직후 애리조나를 비롯 다른 주에서도 사고의 원인이 정확히 밝혀지기 전까지 자율운전 도로 주행 테스트를 잠정 중단시켰으며, 현재 국가교통안전위원회(National Transportation Safety Board, NTSB)가 사고 원인 조사를 진행하고 있음


ž 사고 발생 시각은 밤 10시 경이기 때문에 사고 원인 분석은 우선 보행자 인식 실패가 센서의 결함인지 시스템의 결함인지를 규명하는 데 초점을 맞추고 있을 것으로 추정됨


Ø 우버의 자율운전 자동차는 여러 센서를 탑재하여 자동차 주위의 객체를 인식하는데, 지붕 위에는 하나의 라이더(Lidar, 레이저 센서) 7 대의 카메라를 탑재하고 있으며, 또한 레이더도 설치하여 차량 주위 360도를 모니터 하고 있음


Ø 사고가 야간 주행 중에 일어나긴 했지만, 기술적으로는 주변이 어두워도 라이더를 통해 객체를 인식할 수 있고, 보행자 정도의 객체 크기라면 확실하게 감지 할 수 있다는 것이, 우버 차량에 탑재된 라이더를 제작한 벨로다인(Velodyne)의 입장임


<자료> Velodyne


[그림 2] 벨로다인 라이더의 주변 객체 인식


Ø 벨로다인의 입장 발표에 따르면 차량에 사용된 라이더 HDL-64E 모델은 사고 당시와 같은 상황 조건에서 보행자와 자전거를 확실히 구분할 수 있다고 주장하였음


Ø 아울러 라이더의 역할은 객체의 감지이며 회피 조치를 취할 판단은 시스템이 하는 것이라고 덧붙이며, 우버의 자율운전 소프트웨어에 문제가 있을 것이라는 견해를 밝혔음


Ø 벨로다인의 주장에 대해서는, 자율운전 차량이 사고 당시 속도를 줄이거나 회피하려는 동작을 전혀 취하지 않은 것을 보면 인식이 안된 것으로 보아야 한다는 반론이 있음


ž 로이터 통신은 전문가 취재를 통해, 라이더의 기술적 결함은 아니지만 우버가 라이더의 개수를 줄임에 따라 사각지대가 발생했을 가능성에 무게를 두고 보도하였음


Ø 우버의 자율주행 테스트 차량은 원래 포드의 퓨전 세단으로 라이더 7, 레이더 7, 카메라 20대가 장착돼 있었음


Ø 우버는 지난 2016년에 베이스 차량을 볼보 XC90 SUV로 변경하면서, 레이더는 10개로 늘렸지만 라이더는 1, 카메라는 7대로 줄인 바 있음


<자료> Reuter


[그림 3] 우버 자율주행차의 센서 구성 변경


Ø 차량 주변을 탐지하는 라이더는 센싱 능력이 우수하나 부품 가격이 매우 높고, 벨로다인이 거의 독점 공급하고 있어 자율운전 차량의 가격이 낮아질 수 없는 원인으로 꼽히고 있기 때문에 우버의 변경 조치는 비용절감이 목적이었을 것임


Ø 그러나 로이터 통신에 따르면 벨로다인의 라이더는 360도를 모니터 할 수 있지만 수직 감지 범위가 좁아 낮은 곳에 위치한 물체를 감지하기 어려운 단점이 있고, 따라서 지붕에 1대만 설치할 경우 차량 주위 약 3미터의 사각지대가 발생할 수 있다고 함


Ø 사각지대 가능성에 대해서는 벨로다인 관계자도 인정했고 그렇기 때문에 다수의 라이더가 필요하다는 설명도 덧붙였다고 하는데, 웨이모가 차량에 6대의 라이더를 장착한 것에 비하면 우버가 라이더를 1개로 줄인 것은 센싱 관점에서 중대한 결함이라고 로이터는 지적


ž 그러나 자율주행차의 센서가 라이더만 있는 것은 아니기 때문에, 어떻게든 보행자는 인식했을 것이라 보는 것이 대체적인 견해임


Ø 우버는 지붕에 7대의 카메라를 탑재하고 있는데, 전방을 담당하는 카메라는 근거리와 원거리를 모두 커버하며, 앞쪽에 있는 다른 자동차가 감속하는 것을 파악하는 동시에 보행자를 인식하고 또한 신호등과 도로 표지판을 읽는 데도 사용됨


Ø 사고 직후 뉴스 보도에 따르면 사고 장소는 야간이지만 가로등이 설치되어 있어 일정한 밝기임을 알 수 있고, 카메라의 성능은 정확히 공개되어 있지 않지만 다이내믹 레인지가 넓어 사고 여성을 파악했을 가능성이 높음


Ø 자율운전 제어 ​​카메라와는 별도로 대시보드에 모니터용 카메라도 구비되어 있어 전방과 차량 내부를 촬영하게 되는데, 템피시 경찰이 공개한 대시보드 카메라 영상을 보면 보행자가 도로 왼쪽에서 오른쪽으로 건너고 있는 것이 정확히 포착되어 있음



Ø 영상을 보면 카메라가 보행자를 인식했음에도 또한 자동차는 감속하지 않고 그대로 직진 한 것도 확인할 수 있으며, 또한 위험 시 개입해야 할 운전자가 전방을 주시하지 않고 있다가 사고 소리에 상황을 알아 차리고 놀라는 장면도 확인할 수 있음


<자료> ABC News


[그림 4] 테스터 운전자의 전방 주시 태만


Ø 한편 우버 차량에는 라이더와 카메라 외에 주위 360도를 모니터 하는 레이더도 탑재되어 있는데, 레이더는 주행 중인 자동차나 정차하고 있는 자동차 등을 인식하며 도플러 효과를 이용하여 객체의 이동 속도를 파악하는 역할을 함


Ø 일반적으로 레이더의 해상도가 낮고 핀 포인트에서 객체의 위치를 ​​특정 할 수 없기 때문에 레이더 단독으로만 센싱하지는 않으며, 또한 레이더가 보행자를 인식해도 알고리즘은 이 정보만으로 브레이크를 걸도록 프로그램 되어 있지는 않음


Ø 따라서 사고 당시 차량이 속도를 줄이거나 정지하지 않았다고 해서 레이더가 보행자를 인식하지 데 실패했다고 볼 수는 없다는 것이 전문가들의 견해임


ž 종합적으로 볼 때, 우버의 센서가 보행자를 인식했을 가능성은 높은데 그럼에도 불구하고 차량이 회피 조치를 취하지 않았는지가 원인 규명의 핵심이 될 것으로 보임


Ø 현재 사고 원인 조사를 하고 있는 국가교통안전위원회(NTSB)는 주로 항공기 사고를 담당하나 교통 사고 중 사안이 중대할 경우 맡기도 하는데, 자율운전 자동차 사고처럼 자동차의 소프트웨어 분석이 요구되는 고도의 사안인 경우도 NTSB가 원인을 규명함


Ø NTSB에 의한 조사의 최종 결론이 나오려면 시간이 좀 더 걸리겠지만, 우버의 자율운전 시스템에 심각한 문제가 있다는 말들이 언론을 통해 흘러 나오고 있음


Ø 뉴욕타임스에 따르면 우버 차량의 Disengagement(디스인게이지먼트, 자율운전 기능 해제 조치)의 빈도는 13 마일당 1번이라고 하는데, 디스인게이지먼트는 차량에 문제가 발생하여 테스터 드라이버가 자율운전 모드를 해제시키는 조치를 의미함


Ø , 디스인게이지먼트가 실행되었다는 것은 자율운전 자동차가 비정상 상태에 있음을 의미하며 결함 발생 건수로도 해석할 수 있는데, 우버 차량의 경우 이것이 13 마일마다 발생했다는 것이므로 시스템이 아직 불완전한 상태에 있다고 추정할 수 있음


Ø 자율운전 차량의 도로 주행 테스트가 주로 이루어지는 캘리포니아주의 교통당국은 매년 각 기업의 테스트 결과를 취합해 자율운전 차량 디스인게이지먼트 보고서를 공표하는데, 우버의 경우 2017년 보고서에 등재되어 있지 않아 정확한 기술 수준 추정이 어려웠음


Ø 이번 뉴욕타임스의 보도로 우버의 디스인게이지먼트 빈도가 알려진 것인데, 13 마일당 1회 발생했다는 결과는, 5,600 마일당 1회가 발생한 웨이모(Waymo) 1,250마일당 1회가 발생한 GM과 비교해 볼 때 기술 완성도 면에서 큰 격차가 있는 것임


[1] 2016.12~2017.11 캘리포니아 주 내 자율운전 테스트 기업의 디스인게이지먼트 비교

기업명

디스인게이지먼트() [A]

주행거리(마일) [B]

[B] / [A]

Waymo

63

352,544.6

5,596

GM Cruise

105

131,675.9

1,254

Drive.ai

93

6,127.6

255

Baidu

42

1,949.14

217

Nissan

24

5,007

207

Zoox

14

2,244

160

Telenav

50

1,581

32

Delphi Automotive

81

1,810.6

22

우버

N/A

N/A

13

NVIDIA

109

505

5

BMW

598

1,595

3

Valeo North America

215

574.1

3

Mercedes Benz

773

1,087.7

1

<자료> Department of Motor Vehicles, State of California, 우버의 기록은 New York Times 보도


ž 우버 자율운전 시스템의 기술 결함으로 초점이 맞춰지는 가운데, 이것이 우버 만의 문제인지, 자율운전 알고리즘에 내재한 본질적인 문제인지에 대한 논의도 이루어지고 있음


Ø 사고 시간이 야간이었고, 사고 지역이 횡단보도가 아닌 구역이었기 때문에, 자율주행 차량이 보행자 주의가 필요하지 않다고 인식했을 가능성이 있다는 분석도 있음


Ø 워싱턴 포스트는 로보틱스 전문가인 듀크 대학의 미시 커밍스 교수의 말을 빌려, 자율주행차량의 컴퓨터 시스템이 보행자, 특히 횡단보도 바깥의 보행자까지 인식하는 것은 아니라는 점을 지적하였음


Ø 자율운전 차량은 인식-판단-제어의 순서로 작동하는데, 센서가 비록 무언가 객체를 인식했다 하더라도, 한밤 중에 횡단보도가 아닌 곳에서 자전거를 끌고 가는 사람이었던 만큼 보행자로 구별하지 못했을 가능성이 있다는 것임


Ø 커밍스 교수는 자율주행 시스템은 귀납적 추론을 할 수 없으므로, 특정 장소, 특정 시간대의 어떤 모습을 추측할 수 없다고 설명하며, 자율주행 차량이 도로의 복잡한 변수를 파악하지 못하기 때문에 사고가 날 위험이 높다는 점을 지적하고 있음


Ø CNN 역시 자율주행차가 보행자와 자전거를 끌고 있는 사람을 구분하는 것은 어려운 작업이라며, 자율주행차의 성능이 고속도로처럼 신호가 없고 상황이 단순한 곳에서는 완전해 보이지만, 시내주행 테스트는 조심스럽게 접근할 수밖에 없다고 보도하였음


Ø 그러나 이런 지적에 대해서는, 자율운전 시스템은 보행자나 다른 차량들이 교통법규를 정확히 준수했을 때만 작동할 수 있다고 말하는 잘못된 주장이라는 반론도 있음


Ø 웨이모와 GM뿐 아니라 사고를 낸 우버를 포함해 자율운전차 개발업체들은 사고 위험을 줄이기 위해 가상주행, 시험주행 등으로 주행 데이터를 수집하고 보행자의 무단 횡단 등 최대한 많은 교통 변수를 파악하기 위해 노력하고 있다는 것임


Ø 또한 사고 영상을 보면 속도를 줄이거나 차선을 바꾸려는 시도가 전혀 없었는데, 시스템이 비록 보행자인지 아닌지 구분할 수 없었을 수는 있으나, 앞쪽에 무언가 있는데 정확히 무엇인지 모를 경우 계속 직진하라고 알고리즘을 설계하지는 않았을 것이란 반박임


Ø , 이번 사고의 원인은 센서에서 제대로 인식을 하지 못했거나, 만일 인식을 제대로 했다면 알고리즘 설계의 잘못이라기 보다는 단순히 소프트웨어가 순간적으로 작동을 하지 않았을 것으로 보는 것이 합리적이라는 것임


ž 이런 면에서 볼 때, 이번 우버 차량의 인명 사고는 각 개발업체의 자율주행 시스템 알고리즘이 어떤 기준으로 설계되어 있는지 공개하도록 요구하는 계기가 될 수도 있음


Ø 만일 우버 차량의 사고가 센서 미인식이나 소프트웨어의 작동 오류가 아니라 알고리즘에 의한 것이라면, 가령 가능성은 낮지만, 횡단보도가 아닌 구역에서는 보행자 주의가 필요하지 않다는 식으로 프로그래밍이 되어 있는 것이라면 이는 심각한 문제가 될 수 있음


Ø 우버의 경우 작년 3월에 자율주행 차량이 전복되는 사고가 있었는데, 당시 신호가 노란색으로 변하는 순간 교차로에 들어선 차량이 가속했다는 증언이 나오면서, 노란색 신호에서는 속도를 올려 통과하라고 프로그래밍 돼 있을 가능성이 있다는 보도가 나온 바 있음


Ø 교통 법규에서 교차로 진입 시 노란색으로 불이 바뀌면 빠르게 통과하라고 되어 있기 때문에 우버의 알고리즘이 그렇게 프로그래밍 되어 있다고 해서 비판할 수는 없을 것임


Ø 그러나 교차로는 매우 복잡한 상황이 벌어지는 곳이기 때문에, 현재 기술 수준에서 노란색 신호로 바뀌는 순간 무조건 가속해서 통과하라고 프로그래밍 하는 것이 적절한 지에 대해서는 사회적 논의가 필요하며 각 기업의 판단에만 맡길 수 없다는 지적도 있음


Ø 이는 비단 우버 만의 문제는 아니며 자율운전차를 개발하는 모든 기업에 해당하는 것으로 각 기업이 어떤 기준으로 알고리즘을 프로그래밍 하는지 밝혀야 한다는 목소리가 높지만, 교통사고시 책임 소재 등의 이슈와 맞물려 있어 완전히 공개되지 않고 있는 상황임


Ø 자율운전차에 대한 논의에서 빠지지 않는 트롤리 딜레마, 즉 타인의 생명과 자신의 생명 중 하나를 선택해야 할 때 자율운전차가 어떤 선택을 하도록 프로그래밍 할 것인지, 혹은 알고리즘을 교육할 것인지는 쉽사리 합의에 이르기 어려운 난제임


<자료> Sean Lee


[그림 5] 트롤리 딜레마


Ø 트롤리 딜레마의 경우 현재는 차량 제조사마다 다른 윤리적 지침을 제시하고 있는데, 웨이모의 경우 어떤 선택이 더 나은 것인지 판단할 수 없지만 약자로 판단되는 보행자에 초점을 맞추고 있다는 입장임


Ø 반면 메르세데스 벤츠는 차 안의 사람을 보호할 것이라는 입장을 밝히고 있으며, 독일연방교통부의 경우는 사고를 피할 수 없는 상황에서 자율주행차가 어떤 선택을 해야 하는 것인지 결정할 수 없다고 입장임


Ø 자율주행차의 테스트 장소가 교통 흐름이 단순한 고속도로에서 이제 보다 복잡한 시내 주행으로 옮겨오고 있는 중이기 때문에, 어쩌면 자율주행차에 의한 사고는 계속 발생할 수 있을 텐데, 그 과정에서 알고리즘에 대한 공개 요구 역시 보다 거세질 수 있을 것임


ž 자율주행차의 상용화에 대한 기대가 높아지고 있는 상황에서 발생한 이번 인명 사고는 자율주행 기술의 신뢰도에 대해 다시 한번 되짚어 보는 계기가 되고 있음


Ø 자율주행차의 시가지 주행 테스트에 관대한 애리조나주에서도, 이번 사고 직후 우버의 시험 주행 중지 명령을 내렸음


Ø 애리조나 주지사는 사고의 원인이 확실히 우버 측에 있다고 말함으로써 엄격한 입장을 취해 나갈 것임을 시사하였으며, 우버가 앞으로 애리조나에서는 자율주행 테스트를 재개할 수 없다는 말도 나돌고 있음


Ø 이는 비단 우버에 한정한 이야기는 아니며, 애리조나뿐만 아니라 다른 주에서도 향후 자율운전에 대한 규제, 특히 시가지 주행에 대한 규제는 엄격해질 것으로 전망되고 있음


Ø 사고 직후 자율주행 기술 개발업체 스스로 테스트에 신중한 입장을 보이기도 하는데, 엔비디아의 경우 안전이 보장될 때까지 자율주행 시험을 중단한다고 발표하였음


Ø 엔비디아는 사고 직후 우버 차량이 엔비디아의 자율주행 기술을 적용하고 있었다는 보도가 나오며 곤경에 처하기도 했으나, 엔비디아의 젠슨 황CEO는 우버와 협력하고 있는 것은 사실이나 우버가 독자적인 인식 및 제어기술을 개발 중이었다고 해명한 바 있음


Ø 공교롭게 엔비디아는 사고 후 열흘 만에 개최된 자사 개발자 컨퍼런스 GPU Technology Conference(GTC) 2018를 맞이하게 됐는데, 적극적으로 자신들의 자율운전 기술 홍보에 나설 수 없는 상황이 되었음




Ø GTC 2018에서 스웨덴의 스타트업 아인라이드 트럭(Einride Truck)은 올해 가을 무인 트럭 T-pod(T-)을 상용화한다고 발표했는데, T-팟은 미국 자동차기술협회가 정한 레벨5의 최고 수준 자율운전을 지향함



Ø T-팟은 고속도로에서는 레벨5로 주행하지만 비상시에는 담당자가 원격으로 조작하며, 일반 도로에 들어서면 항상 무선 통신을 통해 원격으로 조작하게 되는데, 레벨4~5의 차량 개발을 위한 엔비디아의 드라이브 PX(Drive PX) 인공지능 시스템을 채택하고 있음


Ø T-팟을 비롯해 엔비디아는 GTC 2018 행사에서 자율운전 기술에 대해 자신감을 내비치기도 했지만, 이번 우버 사고와 연루설도 있고 자율운전에 대한 부정적 여론이 커진 상태이므로 당분간 도로 주행 테스트를 자제하며 기술을 점검하겠다는 입장을 표명한 것


ž 전문가들은 이번 사고로 자율주행차 개발이 중단되지는 않겠지만, 현재의 개발 관행에 큰 변화를 가져올 것이며, 기술력의 차이에 따라 지원이 차등화될 가능성을 점치고 있음


Ø 이번 사망 사고로 인해 자율주행차량은 아직 복잡한 변수에 취약하다는 점이 드러난 셈이라는 지적이 있긴 하지만, 미국 현지에서는 그럼에도 자율주행 시험 주행을 계속 이어가야 한다는 주장이 훨씬 많은 편임


Ø 자율주행차가 이상 상황에 대비한 메커니즘이 있긴 하지만 더 많은 변수를 감안해 판단하기 위해서는 결국 더 많은 테스트를 할 수 밖에 없으며, 시뮬레이션 주행을 통한 알고리즘 교육도 강화해야 하지만 도로 위 시험 주행의 지속이 중요하다는 것임


Ø , 현실적으로 자율주행 개발업체들 사이에 기술 격차가 있다는 것이 수치로 확인되고 있느니만큼, 도로 주행 허가를 위한 기준을 설정할 필요가 있다는 주장이 힘을 얻고 있으며, 이와 맞물려 개발업체들의 도덕성에 대한 문제 제기도 이루어지고 있음


Ø 인터넷 상에는 우버의 자율운전 자동차가 시가지를 경쾌하게 주행하고 있는 비디오가 많이 있으며 이는 기술이 완성된 것처럼 보이게 하는데, 이번 사고를 통해 실제 우버의 시스템은 미완성이고 시가지를 달리기에는 위험성이 높다는 평가와 증언들이 나오고 있음


Ø 우버는 자율주행차량의 시험 주행을 위해 약 5만평에 이르는 가상도시 알모노(Almono)를 만들었다고 알려지는 등 외부적으로 기술 개발 수준이 높다는 인상을 주고 있으나, 디스인게이지먼트가 13마일당 1회라는 사실은 매우 어려움을 겪고 있음을 방증함


Ø 우버의 테스터들도 이전에 유사한 상황이 많았음을 증언함에 따라 우버가 이런 기술 수준으로 시내 주행 테스트를 실행에 옮긴 데 대한 비난의 목소리도 커지고 있음


Ø 또한 자율운전 기술의 완성도를 너무 신뢰한 나머지 전방 주시 의무를 게을리 할 만한 상황이 전혀 아니었음에도 한눈을 판 테스터와, 테스터들에 대한 교육을 철저히 하지 않은 우버에 책임을 묻는 사람들도 많음


Ø 우버는 향후 자율운전 기술 개발과 테스트를 어떤 식으로 전개할 것인지에 대한 질문을 받고 있는데, 이는 우버뿐 아니라 다른 기술 개발업체에도 해당되는 것이며, 개발업체들의 답변과 상관없이 교통당국이 나름의 허가 기준을 정할 가능성이 매우 높아지고 있음

댓글을 달아 주세요

  1. *loveme* 2018.04.12 11:29 신고  댓글주소  수정/삭제  댓글쓰기

    미래사회가 조금씩 다가오는군요. 이러다가 운전하는 재미까지 없어질까봐 살짝 걱정은 되네요 ㅋㅋ

    • 보라개구리 Purple Frog 2018.04.12 11:35 신고  댓글주소  수정/삭제

      네.. 그런데 GM도 그렇고 자동차 회사들이 무인자동차를 어쩔 수없이 개발하려는 이유가.. 미국의 10대, 20대가 자동차 운전에 흥미를 잃어가고 있기 때문이라고 하네요. 스마트폰 하면서 대중 교통 이용하는게 더 좋다는 것이죠.. 자동차 회사들이 바라보는 무인자동차의 목표는 더 좋은 스마트폰 이용 환경을 제공하는 것일 지도 모릅니다.

※ 아래 글은 정보통신기술진흥센터(IITP)가 발간하는 주간기술동향 1835호(2018. 2. 28. 발행)에 기고한 원고입니다.


▶ IITP에서 PDF 포맷으로 퍼블리싱한 파일을 첨부합니다. 가독성이 좋으니 참고하시기 바랍니다.

2017년 자율운전 도로 주행 테스트 결과, 기술력 1위는 웨이모.pdf



ž 캘리포니아 교통당국의 발표 결과, 자율운전 자동차의 기술력은 구글의 자회사 웨이모(Waymo)가 글로벌 자동차 대기업과 스타트업을 ​​아직 크게 앞서고 있는 것으로 나타남


Ø 캘리포니아 주는 자율운전 도로주행 테스트를 허용하고 있는 몇 안 되는 곳으로 교통당국은 주 내 도로에서 자율운전 차량을 테스트하는 기업에 대해 그 해의 시험 결과를 보고하도록 의무화하고 있음


Ø 각 사가 보고한 테스트 결과를 취합해 캘리포니아주 교통당국이 공개한 보고서(Autonomous Vehicle Disengagement Reports 2017)에 따르면, 자율운전 도로주행 거리와 AI의 운전 제어 중지 빈도 측면에서 웨이모가 모두 타사에 비해 크게 앞선 것으로 나타남


Autonomous Vehicle Disengagement Reports 2017 (20개사의 보고서를 볼 수 있는 사이트)


Ø 우선 도로주행 테스트 거리를 보면, 웨이모는 2017년에 총 75대의 자율운전 차량을 테스트했으며, 주행거리는 총 35 2,545 마일( 56만 킬로미터)이었음


Ø 웨이모의 테스트 주행거리는 2016 63 5,868 마일에 비해 절반 가량 줄어든 수치임에도 불구하고, 2017년 시험 주행거리 2위를 차지한 GM에 비해 2.7배 가량 높은 것임


Ø 자율운전 기술력과 관련해 주행거리 보다 주목해야 할 것은 AI(인공지능)이 제어 능력을 잃어 사람에게 운전 권한을 넘기는 분리(Disengagement)의 발생 횟수인데, 웨이모 자율운전 차량은 2017년에 35 2,545 마일을 달리는 사이에 63회의 분리가 발생하였음


Ø 즉 웨이모의 자율운전 AI는 현재 5,596 마일( 9,000 킬로미터) 주행 당 한 번 꼴로 판단 불능 상태에 봉착하고 있는 셈


Ø 웨이모의 과거 분리 횟수 당 주행거리를 보면, 2015년에 1,200 마일( 2,000 킬로미터) 1, 2016년에는 5,000 마일( 8,000 킬로미터) 1회였으므로, 웨이모의 자율운전 AI 성능은 꾸준히 향상되고 있음을 알 수 있음


[1] 2016.12~2017.11 캘리포니아 주 내 자율운전 테스트 기업의 AI 분리 횟수 당 주행거리

기업명

분리 횟수

주행거리(마일)

분리 1회당 주행거리(마일)

Waymo

63

352,544.6

5,596

GM Cruise

105

131,675.9

1,254

Drive.ai

93

6,127.6

255

Baidu

42

1,949.14

217

Nissan

24

5,007

207

Zoox

14

2,244

160

Telenav

50

1,581

32

Delphi Automotive

81

1,810.6

22

NVIDIA

109

505

5

BMW

598

1,595

3

Valeo North America

215

574.1

3

Mercedes Benz

773

1,087.7

1

<자료> Department of Motor Vehicles, State of California


ž 웨이모를 뒤쫓고 있는 곳은 제너럴 모터스(GM)의 자회사인 GM 크루즈(GM Cruise) 2017년에 도로 주행 테스트 거리를 전년도에 비해 10배 이상 늘렸음


Ø GM 크루즈의 AI가 사람에게 권한을 넘기는 빈도는 1,254 마일 당 1회였는데, 이는 웨이모의 2015년 수준인 1,200 마일 당 1회를 따라잡은 것임


Ø 또한 GM 크루즈의 2016년 분리 1회 당 주행거리가 54 마일이었음을 감안하면, GM 1년 사이에 자율운전 AI의 성능을 비약적으로 높였음을 유추할 수 있음


Ø GM 크루즈의 테스트에서 흥미로운 점은 자율운전 차량의 도로 주행을 샌프란시스코에서만 실시하고 있다는 것인데, 이는 웨이모가 샌프란시스코의 교외 지역인 마운틴 뷰에서 도로 테스트를 실시하고 있는 것과 대비되는 부분


Ø 샌프란시스코는 교통량이 많고 도로가 복잡하기 때문에 사람도 운전하기가 쉽지 않은 지역인데, GM 크루즈는 운행 조건이 더 나쁜 환경에서 테스트를 함으로써 웨이모의 기술력을 단기간에 따라 잡으려 하는 것으로 보임


Ø 이와 유사한 전략을 펴고 있는 곳이 샌프란시스코에 본사를 둔 스타트업 즈욱스(Zoox)인데, GM 크루즈와 마찬가지로 샌프란시스코에서만 주행 테스트를 실시하고 있다고 함


ž 캘리포니아 교통당국의 보고서를 보면 자율운전 차량들 사이에 성능의 차이가 크다는 사실을 알 수 있는데, 가장 차이가 두드러지는 것이 사람에게 권한을 넘기는 횟수임


Ø 웨이모의 자율운전 자동차가 5,596 마일 당 1회만 AI가 사람에게 권한을 인계하는 반면 메르세데스 벤츠와 BMW의 자율운전 자동차는 1~3 마일 당 1회 꼴로 AI로부터 사람으로 인계가 발생하고 있음


Ø AI용 반도체와 자율운전 소프트웨어를 조합한 자율운전 플랫폼 제공을 목표로 하고 있는 엔비디아의 시험 성적도 아직은 불안한 수준인데, 505 마일을 주행하는 동안 109회 분리가 발생하여 5 마일 당 1회 꼴로 분리가 발생하고 있음


Ø 엔비디아는 자율운전 플랫폼을 사용해 누구나 자율운전 자동차를 구현할 수 있게 함으로써 자율운전 기술의 일상용품화(Commodity)를 실현하겠다는 포부를 밝히고 있으나, 이 목표가 실현되기까지는 아직 시간이 더 필요할 것으로 보임


ž 캘리포니아 교통당국의 보고서는 자율운전 자동차의 기술 수준을 가늠하는데 매우 유용한 자료이지만, 이런 정보를 취합할 수 있는 것은 2017년이 마지막이 될 것으로 보임


Ø 가장 중요한 기술 개발 업체인 웨이모는 무인택시 시범 서비스의 허가 문제로 캘리포니아 당국과 합의에 이르지 못해 작년 말부터 애리조나로 완전 무인 자율운전 자동차의 도로 주행 테스트를 실시하고 있으며, 올해 캘리포니아에서 도로 주행 여부는 불투명함


Ø 웨이모의 캘리포니아 내 도로 주행 거리가 2016년에 비해 절반 가량으로 줄어든 데에는 이런 배경이 작용한 것인데, 웨이모는 2017년부터 애리조나 외에 워싱턴과 텍사스 주에서도 자율운전 도로 주행 테스트를 실시하고 있음


Ø 웨이모는 2017 12월 현재 자율운전 도로 주행 테스트가 총400만 마일( 645만 킬로미터)이 넘었다고 발표한 바 있는데, 이는 캘리포니아 지역 이외의 도로 테스트도 상당한 거리에 달했음을 시사하는 것임


Ø 포드 자동차 역시 2017년에 자율운전 차량 테스트 지역을 캘리포니아에서 미시간 주로 옮겼는데, 2016년에 캘리포니아에서 590 마일의 도로 테스트를 실시했던 포드였지만 2017년에는 전혀 실시하지 않았음


Ø 따라서 각 사의 자율운전 기술의 성능 차이가 어느 정도인지를 간접적으로나마 비교하려면 2018년에는 기존과 다른 데이터를 사용할 필요가 있을 것임


ž 한편 시장조사기관 내비건트 리서치(Navigant Research)는 자체 분석 툴을 이용해 평가한 결과 GM을 자율주행 종합 기술력 1, 웨이모를 2위로 발표하였음


Ø 내비건트 리서치는 자율운전 시스템을 개발하고 있는 19개 기업을 비전, 시장출시 전략, 파트너, 생산 전략, 기술, 판매 및 유통, 제품 성능, 제품 품질과 신뢰성, 제품 포트폴리오, 유지력 10개 기준으로 평가하였음


<자료> Navigant Research


[그림 1] 자율운전 기술 기업들의 순위표


Ø 그 다음 자체 순위표(leaderboard) 방법론을 이용하여 19개 기업을 선도자(leader)-경쟁자(contender)-도전자(challenger)-추종자(follower) 4개 그룹으로 분류하였음


Ø 선도자 그룹에는 GM, 웨이모, 다임러-보쉬, 포드, 폴크스바겐, BMW-인텔-FCA(피아트 크라이슬러 연합), 앱티브(Aptive, 델파이의 자회사) 7개 기업 및 연합이 포함되었음


Ø 내비건트 리서치 보고서에서 웨이모가 2위로 평가된 것은 자동차 기업이 아니기 때문에 생산 능력에서 GM에 밀렸기 때문이며, 자율주행 기술력 부문만 본다면 캘리포니아 교통당국의 보고서와 마찬가지로 단연 최고 수준으로 평가 받았음


Ø 내비건트 리서치는 2020년경에 제한적 범위지만 주행과 가속 및 제동에는 사람이 신경 쓸 필요가 없을 정도의 자율주행차가 등장할 것으로 전망하는데, 글로벌 완성차 제조업체들이 대부분 이때를 기점으로 자율주행차 양산을 목표로 하고 있기 때문임


ž GM은 자율주행 개발 경쟁에 비교적 뒤늦게 뛰어들었지만 과감한 투자와 빠른 양산화 전략을 추진하면서 작년 평가에서 4위를 기록했으나 이번에 1위로 평가되었음


Ø GM2016년 차량 공유 서비스 업체 리프트(Lyft) 5억 달러를 투자한 바 있고, 자율주행 솔루션 개발 스타트업인 크루즈 오토메이션(Cruise Automation)10억 달러에 인수하는 등 과감한 투자 행보를 보인 바 있음



Ø 2017년에도 레이저 레이더(LiDAR) 기술을 보유한 스타트업 스트로브(Strobe)를 인수했으며, 2018년 들어서자마자 크루즈 오토메이션과 함께 4세대 자율주행차 크루즈 AV(Autonomous Vehicle)를 공개하였음


<자료> TechCrunch


[그림 2] 운전대 없는 GM의 크루즈 AV


Ø 크루즈 AV는 운전대가 없기 때문에 운전석과 조수석의 구분이 없고 브레이크나 액셀러레이터 페달이 아예 없는데, 댄 암만 GM 사장은 2019년에 크루즈 AV가 도로 주행을 할 수 있도록 미 교통 당국에 허가를 신청한 상태라고 밝혔음


ž 테슬라는 몇 년 전까지만 해도 내비건트 리서치의 평가에서 상위권에 올랐지만, 이후 가시적인 기술 발전 전략을 보여주지 못해 이번 조사에서는 최하위로 평가되었음


Ø 내비건트 리서치는 테슬라가 궂은 날씨나 대기가 흐린 환경에서도 카메라와 센서가 이상 없이 작동할 수 있게 해주는 기술이 없기 때문에 사람이 개입하지 않는 완전한 자율주행차를 만들기는 당분간 어렵다고 평가하고 있음


Ø 2016년 테슬라는 자율주행 소프트웨어인 오토파일럿(Auto Pilot) 탑재 차량의 운전자가 사고로 사망하자 자율주행 핵심 기술 제공업체인 모빌아이(Mobileye)와 결별했는데, 이후 기술 개발이 정체되고 있다는 평가가 나오고 있음


Ø 내비건트 리서치는 테슬라가 자율주행차 분야에 높은 비전을 가지고 있지만 그 비전을 지속적으로 실행할 수 있는 능력을 지속적으로 입증하지 못하고 있다며 새로운 전기가 필요할 것으로 분석하고 있음


Ø 한편, 테슬라와 결별한 모빌아이는 2017 3월 인텔이 153억 달러에 인수한 바 있으며, 인텔은 모빌아이 인수를 통해 자율주행 기술 분야에서 새로운 다크호스로 급부상하였음

댓글을 달아 주세요

※ 아래 글은 정보통신기술진흥센터(IITP)가 발간하는 주간기술동향 1827호(2017. 12. 20. 발행)에 기고한 원고입니다.


▶ IITP에서 PDF 포맷으로 퍼블리싱한 파일을 첨부합니다. 가독성이 좋으니 참고하시기 바랍니다.

완전 자율주행 무인 택시 ‘웨이모’의 안전성 확보를 위한 여러 노력들.pdf



[ 요 약 ]


웨이모(Waymo)가 테스트 중인 완전 무인 택시는 자율주행 기술 6단계 중 5단계 진입을 뜻하는데이는 차량 안전성에 대한 책임이 사람에서 자동차 제조업체로 옮겨진다는 점에서 큰 의의가 있음안전성 책임을 떠안겠다고 선언한 셈이므로 웨이모는 안전성 확보를 위해 소프트웨어 개발하드웨어 사전 정비서비스 UI 개발 등 여러 측면에서 노력하고 있는데특히 자율주행 차량의 최적 경로 결정을 인공지능이 아닌 사람에 맡김으로써 책임 소재 규명이 가능한 구조를 선택하고 있음



[ 본 문 ]

ž 알파벳 산하 웨이모(Waymo)의 무인 택시 시범 서비스는 자동차 사고의 책임이 사람에서 자동차 제조업체로 넘어오는 단계에 진입하고 있음을 보여 줌


Ø 웨이모는 지난 11월부터는 보조 운전자가 탑승하지 않는 무인 택시 운행서비스를 전개하고 있는데, 현재 수십 개 기업이 자율주행 차량 기술을 테스트하고 있지만 위급 상황에 관여할 운전자가 탑승하지 않는 완전 자율주행 차량의 도로 주행 테스트는 웨이모가 처음임


Ø 미국자동차기술학회(SAE)는 자율주행 기술의 발전 단계를 6단계로 구분(레벨0~레벨5)하고 있는데, 전문가들은 웨이모가 5단계인 레벨4에 해당하는 것으로 보고 있음


Ø 자율운전 기술 진화의 최종 단계인 레벨5는 운전자가 어떤 주행 상황에도 전혀 개입하지 않는다고 규정하고 있으므로 사고시 책임 소재가 명확히 자동차 제조업체에 있음


Ø 그러나 다섯 번째 단계인 레벨4는 운전자가 요건이 갖춰진 경우에 한해 운전에 전혀 개입하지 않는다고 규정하고 있어 사고 발생시 법적 책임 소재에 약간의 모호성이 발생할 수 있음


Ø 레벨4의 규정은 요건이 갖춰진 경우 주행과 관련된 모든 결정은 시스템이 하며 따라서 결과의 책임이 자동차에 있음을 의미하지만, 아직 자율주행차 관련 법규가 구체적으로 제정되지 않아 정해진 조건이 무엇이 되느냐에 따라 소비자와 제조업체간 분쟁이 발생할 소지가 있음


Ø 전문가들은 뭬이모가 무인 택시로 운행되는 데서 보듯, 레벨4부터 탑승자는 승객에 불과하기 때문에 원칙적으로 제조업체의 안전운행 책임을 명문화할 필요가 있다고 보고 있음


[1] 미국 자동차기술학회(SAE)의 자율주행 기술발전 단계 구분

Level 0

(비자동화)

- 운전자가 차의 속도와 방향을 계속 통제한다

- 시스템은 주행에 전혀 영향을 주지 않는다

Level 1

(운전자 보조)

- 운전자는 차의 속도 또는 방향을 계속 통제한다

- 시스템은 주행과 관련한 다른 기능에 개입한다

Level 2

(부분 자동화)

- 운전자는 반드시 능동적으로 주행에 개입하고 주변 상황을 항상 주시한다

- 시스템은 정해진 조건에서 차의 속도와 방향을 조절한다

Level 3

(조건부 자동화)

- 운전자는 능동적으로 주행에 개입하거나 주변 상황을 항상 주시하지 않아도 되지만, 항상 직접 주행을 통제할 준비가 되어 있어야 한다

-시스템은 정해진 조건에 차의 속도와 방향을 조절하고, 기능 구현이 한계에 이르기 전에 운전자가 능동적 운전을 이어나가도록 알림으로써, 운전자가 대응할 수 있는 시간적 여유를 주어야 한다

Level 4

(고도 자동화)

- 운전자는 정해진 조건에서 운전에 전혀 개입하지 않는다

- 시스템은 정해진 조건의 모든 상황에서 차의 속도와 방향을 통제하고 능동적으로 주행을 한다

Level 5

(완전 자동화)

- 운전자는 모든 상황에 개입하지 않는다

- 시스템은 주행 중 모든 경우에 차의 속도와 방향을 통제하고 능동적 주행을 한다

<자료> Society of Automotive Engineers


ž 자율운전 차량 사고의 책임이 제조업체 쪽으로 옮겨간다면 소비자 입장에서 가장 궁금한 것은 웨이모의 안정성인데, 안정성은 결정하는 것은 우선 소프트웨어의 완성도임


Ø 웨이모의 소프트웨어는 가상 및 실제 환경으로 나누어 테스트되는데, 개발된 자율운전 소프트웨어는 우선 시뮬레이터를 통해 알고리즘을 교육하고 학습한 기능을 검증하게 됨


<자료> Waymo


[그림 1] 시뮬레이터에서 자동차 구동 모습


Ø 웨이모는 고급 시뮬레이션 환경에서 알고리즘 교육을 실시하는데, 시뮬레이터를 통해 25,000 대의 웨이모를 구동시킴으로써 매일 800만 마일의 주행 테스트를 하는 효과를 얻고 있음


Ø 시뮬레이터를 사용하면 시험 주행 거리를 늘릴 수 있을 뿐만 아니라, 실제 현실에서는 별로 발생하지 않는 이벤트도 생성해 교육시킬 수 있는데, 예를 들어 교차로에서 좌회전 신호가 깜빡이는 등 자주 발생하지 않지만 사고 연관성은 높은 신호 상황을 만들어 낼 수 있음


Ø 시뮬레이터는 실제 거리를 소프트웨어로 재현하고 있는데, 가상으로 구현된 거리는 실제 시가지를 스캔한 데이터를 바탕으로 구축된 것으로, 전용 차량에 탑재된 라이다(Lidar, 레이저 센서)를 통해 거리를 스캔한 후 정밀 3D 지도를 제작한 것임


Ø 지도에는 차선, 인도, 신호등 등이 표시되는데 여기에는 차선의 폭과 인도의 높이 등 주행 정보 가 포함되어 있으며, 그 위에 좌회전 신호가 깜박이는 교차로 등 특수 이벤트 발생 상황을 구현할 수 있음


ž 시뮬레이터에서는 조건을 다양하게 바꾸거나 환경에 변화를 추가한 후 테스트를 실행하는 퍼징(Fuzzing) 과정을 통해 소프트웨어의 완성도를 높여 가게 됨


Ø 시뮬레이터에서 조건이 구성되고 나면 가상의 거리를 자동차로 주행하는데, 이를 통해 좌회전 신호가 깜박이는 교차로에서 회전하는 연습을 하게 됨


<자료> Waymo


[그림 2] 시뮬레이터에서 교차로 좌회전 상황 학습


Ø 이 경우 자동차는 교차로에 천천히 진입하며 마주 오는 차량이 없는 것을 확인한 후 좌회전하게 되는데, 알고리즘이 개선되어 갈 때마다 동일한 조건에서 주행 시험을 반복함으로써 습득한 운전 기술의 완성도를 높여 나감


Ø 시뮬레이터의 환경에는 변화를 추가할 수 있는데, 이를 퍼징(Fuzzing)이라 하며, 가령 좌회전 신호 시에 마주 오는 차량의 속도를 바꾸거나 신호등 타이밍을 바꿀 수 있고, 새로운 조건에서도 자동차가 안전하게 좌회전 할 수 있는지 확인해 볼 수 있음


Ø 또한 실제로는 거의 있을 수 없는 상황 조건을 구현할 수도 있는데, 오토바이가 백색 차선 위를 따라 달리거나 사람이 차선 사이를 지그재그로 달리는 상황 등을 생성한 후 비정상적인 행동이 발생할 때 자동차가 어떻게 반응하는지 확인해 볼 수 있음


Ø 이처럼 웨이모 자율운전 자동차는 주요 기술을 시뮬레이터에서 배우고 연습을 거듭해 완성도를 높이고 있으며, 2016년 한 해에만 시뮬레이터에서 25억 마일을 주행했다고 하는데, 이는 지구를 10만 바퀴 돈 거리에 해당함


ž 시뮬레이션을 통과한 소프트웨어는 자동차에 탑재되어 도로 주행 테스트를 하게 되는데, 전용 서킷에서 테스트를 거친 후 실제 도로에서 시험 주행을 하게 됨


Ø 소프트웨어를 탑재한 시험 차량은 전용 서킷인 캐슬(Castle)에서 주행 테스트를 하는데, 캐슬은 구글이 공군 기지 철거 부지를 사들인 후 실제 거리 풍경을 그대로 재현한 곳임


<자료> Google Earth


[그림 3] 자율주행차 테스트용 전용 서킷 캐슬


Ø 캐슬에서 새로 개발된 소프트웨어와 수정된 소프트웨어가 검증되며 또한 드물게 발생하는 이벤트들도 시험하는데, 구조화된 테스트(Structured Tests)라 불리는 이 과정에서 약 2만 가지의 시나리오를 검증하며, 검증이 끝난 소프트웨어는 도로에서 실제 테스트를 진행함


Ø 웨이모는 지난 8년 동안 미국 전역의 20개 도시에서 350만 마일의 도로를 실제 주행했는데, 애리조나에서는 사막 환경, 워싱턴에서는 비 내리는 환경, 미시간에서는 눈 내리는 환경에서 테스트 하는 등 서로 다른 기상 조건에서 안전하게 주행 할 수 있는지 확인하고 있음


Ø 도로 주행 테스트는 또한 홍보 활동을 겸하고 있는데, 지역 주민들이 자율운전 차량을 실제 접하게 함으로써 막연한 불안감을 없애고 이해하게 만드는 것을 목표로 하고 있음


Ø 시뮬레이션 통과 후 실제 차량에 탑재 되어 전용 서킷과 실제 시가지 주행을 통해 기능과 안정성이 검증되면, 비로소 자율운전 소프트웨어는 최종 제품으로 출하가 됨


ž 이처럼 웨이모가 여러 단계에 걸쳐 다양한 소프트웨어 테스트 및 실제 주행 테스트를 거쳐야 하는 것은 자율주행차의 최적 경로를 인공지능(AI)이 아닌 사람이 결정하기 때문임



[그림 4] 웨이모의 최적 경로 결정 과정


Ø 웨이모의 소프트웨어는 주변 객체의 움직임을 예상하고 그 바탕 위에 최적의 경로를 산출하는데 이를 플래닝(Planning) 프로세스라 부르며, 플래닝을 통해 진행 방향, 속도, 주행할 차선, 핸들 조작 등을 결정하게 됨


Ø 여기서 핵심 포인트는 플래닝 프로세스에 AI를 적용하지 않는다는 것인데, 플래닝의 로직은 코딩되어 있으며 자동차의 움직임은 사람이 프로그램으로 지정하고 있음


Ø 즉 웨이모는 인간이 자율운전의 알고리즘을 파악할 수 있는 구조로 되어 있는 것인데, 이는 사고가 났을 경우 알고리즘 파악을 통해 책임 소재를 규명할 수 있는 장점이 있으나, 방대한 규칙이 정의되어야 하며 그 개념들을 검증하기 위한 대규모의 주행 테스트가 필요하게 됨


Ø 웨이모의 이런 접근 방식은 플래닝 프로세스를 AI가 담당하게 하는 엔비디아와 대비되는 것인데, 엔비디아는 AI가 인간의 운전을 보고 운전 기술을 배우는 AI Car 개발을 목표로 하고 있음


Ø AI Car는 추상적인 도로 개념을 이해해 차선이 없어도 인간처럼 운전하는 것을 목표로 하는데, 방대한 규칙의 정의가 필요하지 않고 알고리즘은 웨이모에 비해 간단해 질 수 있지만, AI의 의사결정 메커니즘은 인간이 전혀 이해할 수 없어 신뢰성의 문제가 발생하게 됨


Ø 알파고의 경우 인간이 알파고의 메커니즘을 전혀 이해할 수 없더라도 결과적으로 사람을 이기기 때문에 그 수를 보고 연구하려는 마음이 생길 수 있지만, AI Car의 경우 사고가 났을 때 AI의 판단이 사람보다 나을 테니 무조건 사람이 운전한 쪽이 잘못이라 판정할 수는 없기 때문


ž 한편 자율주행차는 무인으로 주행하기 때문에 소프트웨어 성능뿐 아니라 차량의 유지보수도 매우 중요하므로, 웨이모는 자동차 정비 전문 네트워크와 제휴를 맺고 있음


<자료> Waymo


[그림 5] 차고에서 정비 중인 웨이모 무인 택시


Ø 웨이모는 지난 11월 무인 택시 서비스 시작에 즈음해 차량 유지보수 네트워크인 오토네이션(AutoNation)과 제휴를 발표하였으며, 애리조나와 캘리포니아에서는 이미 오토네이션을 통해 웨이모의 유지 보수 서비스를 실시하고 있음


Ø 오토네이션은 미국 최대 자동차 판매기업으로 16개 주에 361개 매장을 보유하고 있으며 35개 제조업체의 자동차를 판매하고 있는데, 판매뿐 아니라 자동차 정비 사업도 전개하고 있음


Ø 웨이모는 무인 자율운전 차량이기 때문에 문제가 발생할 경우 비상등을 켜고 수리할 수 없으므로, 오류가 발생하기 전에 부품 교환을 실시하는 등 예방 정비활동 중심으로 차량 유지보수를 해야 함


Ø 비단 하드웨어에 대한 정비뿐 아니라 자율운전 차량은 고급 센서와 소프트웨어를 탑재하고 있기 때문에 이에 상응하는 소프트웨어 관리 기술도 요구됨


Ø 자율운전 차량의 기기는 고가이기 때문에 제조원가를 조기에 상각하려면 24시간 연속으로 운행하게 될 가능성이 높은데, 이런 사업모델을 지원하기 위해서라도 자율운전 자동차의 유지 보수 기술은 매우 중요함


ž 현재 자율운전 자동차의 안전에 관한 지표는 확립되어 있지 않기 때문에, 웨이모는 안전성 확보를 위해 여러 가지 관점에서 다양하게 접근하고 있음


Ø 자율운전 차량의 도로주행 테스트를 어느 조건에서 얼마만큼 해야 하는 지에 대해서는 논란이 계속되고 있으며, 아직 업계 공동의 혹은 공공기관이 정한 안정성 기준은 마련되어 있지 않음


Ø 그러나 캘리포니아 주의 경우 자율운전 차량의 도로 테스트 내용을 공표하도록 의무화 하고 있기 때문에, 그 중 자율운전 기능 해제(Disengagement) 섹션을 통해 간접적으로나마 안전성을 추정해 볼 수는 있음


<자료> Department of Motor Vehicles


[그림 6] 웨이모의 자율운전 기능 해제 횟수


Ø 자율운전 기능 해제 조치(Disengagement)가 실행되었다는 것은 자동차가 위험한 상태에 놓이게 되었다는 뜻이므로, 이를 사고 상황 혹은 자율주행차가 설계대로 작동하지 않은 결함 발생 상황으로 해석해 볼 수 있기 때문


Ø 웨이모의 자율운전 기능 해제 횟수는 2015년에 1천 마일 당 0.8회였으나 2016년에는 0.2회로 감소했으며, 2017년도 보고서는 아직 공개되지 않았지만 이런 추세가 이어졌다면 거의 발생하지 않았을 것으로 보임


Ø 웨이모는 안전과 관련하여 여러 관점에서 장치를 마련하고 있는데, 철저한 주행 시험을 반복하여 자율운전 모드에서 350만 마일을 주행시켰으며, 차량의 주요 시스템인 스티어링이나 브레이크 등을 이중화 하여 하드웨어의 고장에 대비하고 있음


Ø 운용 측면에서는 주행할 수 있는 영역을 운행 설계 영역(ODD, Operational Design Domain)로 정의해 자동차가 달릴 조건을 명확하게 파악하고 있으며, 탑승객과 인터페이스에도 신경을 써 무인 택시 승객이 사고 발생시에도 불안해 하지 않도록 기능 설계를 하였음


Ø 개발 과정과 시험 결과만 놓고 보면, 그리고 안전하게 주행 할 수 있는 환경에서만 서비스를 제공하며, 무인으로 주행하더라도 운행 제어센터에서 원격으로 모니터하고 비상 사태에 대응하고 있다는 점을 고려하면 웨이모 무인 택시는 안전하다고 평가할 수 있음


ž 안정성 확보를 위한 웨이모의 다양한 시도들은 기술을 현실에 맞추려는 기술업체들의 노력을 통해 자율주행차가 상용 서비스 단계에 본격 진입하고 있음을 보여주고 있음


Ø 그 동안 자율주행차의 상용화 시기 전망이 어려웠던 이유는 안전성에 대한 확신을 과연 어떻게 할 수 있을지에 대한 사회적 합의가 이루어지지 않았기 때문임


Ø 안전성 이슈는 단순히 사고 빈도를 얼마나 낮출 수 있느냐에 대한 것이 아니라, 긴급 상황 발생 시 대처 방안과 사고 발생 시 책임 소재 규명 및 그에 따른 보험 처리 방안까지 포함하는 사회관습적인 문제이자 법적인 문제임


Ø 웨이모는 혁신적인 자율운전 기술에 맞춘 새로운 자동차 법규나 사회적 합의를 마련해 달라고 요구하는 데 머무르지 않고, 안전성에 관한 현재의 사회적 기준에 최대한 부합하기 위한 기술 개발 방식 및 서비스 운용 방식을 채택하여 그 완성도를 높여 나가고 있음


Ø 특히 최적 경로 선택을 AI에 맡기지 않고 사람이 결정하는 방식을 택함으로써 오히려 더 지난한 테스트 기간을 자처하고, 완전 무인 자율주행 방식을 선택해 안정성과 직결된 책임의 문제를 업체가 부담하겠다고 나선 점은 결과를 떠나 높이 평가 받을 만한 지점임


Ø 자동차 해킹 등 보안 이슈도 남아 있고 안전성에 대한 문제 제기는 끝이 없을 테지만, 웨이모가 보여준 전향적인 시도들로 인해 자율주행차 상용화 시점은 한층 더 앞당겨질 전망


댓글을 달아 주세요

※ 아래 글은 정보통신기술진흥센터(IITP)가 발간하는 주간기술동향 1824호(2017. 11. 29. 발행)에 기고한 원고입니다.


▶ IITP에서 PDF 포맷으로 퍼블리싱한 파일을 첨부합니다. 가독성이 좋으니 참고하시기 바랍니다.

스스로 학습하는 인공지능 GAN, 현재 200여 개 파생기술 연구 중.pdf



[ 요 약 ]


구글의 인공지능(AI) 연구 부문인 구글 브레인의 이언 굿펠로우가 2014년 발표한 GAN(Generative Adversarial Networks)은 최근 10년간 AI 연구에서 가장 뛰어난 성과로 평가받고 있으며현재 약 200여 개의 변형된 기술들이 연구되고 있음. GAN은 딥러닝과 달리 인간의 개입 없이도 그리고 학습할 데이터가 없어도 신경망 스스로 학습해 나갈 수 있음을 보여주고 있다는 점에서 큰 기대를 받고 있으며그 잠재력만큼 동시에 큰 위험도 내포하고 있어 우려의 목소리도 높아지고 있음



[ 본 문 ]


ž 알파고 이후 인공지능(AI)이 대체할 수 없는 창의성을 키워야 한다는 주장이 더욱 커졌지만, 기실 알파고 쇼크의 본질은 창작도 AI가 인간보다 잘 할 수 있음을 보여준 데 있음


Ø 지나 10월 알파고를 개발한 딥마인드(DeepMind)인간의 지식 없이 바둑 게임 정복하기라는 논문을 발표하며, 새롭게 알파고 제로(Zero)를 소개하였음


Ø 제로라는 코드네임이 붙은 이유는, 이전 버전의 알파고 개발에서는 최초 학습 데이터로 사람의 기보 약 16만 건을 사용한 반면, 알파고 제로는 사람의 기보나 바둑에 대한 기본 규칙을 전혀 입력하지 않고 AI 스스로 바둑을 두면서 실력을 배양하도록 했기 때문


Ø 논문에 따르면 알파고 제로는 72시간 만에 이세돌을 꺾은 알파고 리 버전을 넘어섰고, 4개월 후에는 커제를 꺾은 알파고 마스터 버전을 넘어섰다고 함.


Ø 기존 AI가 방대한 데이터 분석과 강화학습 등을 통해 인간의 지혜를 배우는 데 초점을 두고 인간이 이미 잘 할 수 있는 것들을 자동화는 수준이었다면, 알파고 제로는 인간 전문가의 개입이나 인간의 관점 입력 없이 이루어졌다는 데 중대한 함의가 있음


Ø 알파고 제로의 바둑을 보면서 바둑계에서 나온 반응은 그래도 사람이 수천 년 동안 발전시켜 온 소위 바둑의 정석이란 것이 틀리지 않았음이 확인되어 다행이다라는 것이었는데, 최소한 바둑계에서는 이제 아무도 AI를 그저 엄청난 속도로 연산을 하는 기계로만 바라보지 않음


ž 실제 디자인, 회화, 음악, 문학, 영화 등 예술과 창작 영역에 AI의 침투 소식은 이제 더 이상 낯설지 않은데, 이들 소식에서 언급되는 AI는 수십 가지로 변형되고 있는 GAN 기술임


Ø 지난 5엔비디아 GTC 2017 컨퍼런스에서 구글 리서치의 이언 굿펠로우는 청중들에게 각양각색의 고양이 사진을 보여주며, 이중 실제 고양이 사진이 아닌 AI가 임의로 합성해 낸 이미지를 찾아보라고 질문을 던졌음


Ø 청중들은 좀처럼 찾아낼 수 없었는데, 사실 그 사진들 중 실제 고양이 사진은 단 한 장도 없었고 모두 AI가 무작위로 합성해 낸 것이었으며, 사람들은 진짜 사진과 가짜 사진의 구분이 무너지고 있다며 감탄과 탄식을 동시에 쏟아 냈음


<자료> NVIDA


[그림 1] GAN을 개발한 이언 굿펠로우


Ø 고양이 사진 합성에 사용된 인공지능 기술은 생성적 대립쌍 신경망(GAN, Generative Adversarial Network)이라 불리는 것인데, 이언 굿펠로우가 지난 2014년에 논문을 통해 발표했을 때 컴퓨터 사이언스 학계에서 찬사가 쏟아졌음


Ø 딥러닝의 창시자로 불리는 제프리 힌튼 교수는 (GAN)에 대해 최근 10년 간 가장 매력적인 이론이라 평가했는데, 인간의 가이드라인에 따라 수동적으로 학습하는 기존 AI와 달리 능동적으로 학습하고 행동하는 AI 개발을 위한 토대가 될 것이라 보았기 때문임


Ø 갠 신경망은 대립쌍을 이루는(Adversarial) 두 개의 네트워크, 즉 이미지를 만드는 생성자(Generator)와 이미지가 진짜인지 가짜인지 감별하는 감식자(Discriminator)를 서로 경쟁시켜 생성자가 감별자가 구분하기 어려운 진짜 같은 가짜를 만들게 하는 것임


Ø 2014년 이후 매주 새로운 갠(GAN) 논문들이 쏟아지고 있으며 최근에는 190편 이상이 보고되고 있는데, 전문가들도 모두 추적하기 힘들 정도로 다양한 응용기법들이 등장하고 있음


Ø 그 이름도 다양해 DCGAN, SRGAN, StackGAN, 3D-GAN, CycleGAN 200여 개의 서로 다른 기법이 GAN으로부터 개발되고 있어 GAN 기술은 앞으로 더욱 발전속도가 가속화될 전망


ž 가장 대표적인 GAN 기법은 DCGAN(Deep Convolutional Generative Adversarial Networks)으로로 엔비디아는 이를 이용해 유명 연예인의 이미지를 생성하는 기술을 공개하였음


Ø 엔비디아의 DCGAN은 유명 연예인뿐만 아니라 침실, 화분, , 소파, 버스 등 어떤 객체라도 AI가 개념만 듣고 현실과 똑같이 그려낼 수 있음을 보여주었음



Ø DCGAN에서 생성자(Generator)는 매개변수에서 원래 이미지를 찾아 처리하는 디컨볼루션 네트워크(De-Convolution Network)로 구성되며, 입력된 노이즈(랜덤 신호)로부터 이미지를 생성함


<자료> Amazon.


[그림 2] DCGAN을 이루는 생성자와 감식자


Ø 감식자(Discriminator)는 매개별수를 응축 처리하는 컨볼루션 네트워크(Convolution Network)로 구성되며, 여기에 위조 이미지(Fake) 또는 실제 이미지(Real)을 입력함


Ø 감식자는 입력된 이미지를 처리하고 그것이 위조(Fake)인지 또는 실제(Real)인지 여부를 로지스틱 회귀분석법으로 판정하며, 이 과정에서 감식자가 역전파 알고리즘(Backpropagation)으로 진짜와 가짜의 차이값(Gradient)을 얻게 됨


Ø 이 차이값을 다시 생성자에 입력하여 진짜와 똑 같은 가짜를 생성하는 기술을 향상시키는데, 양측이 모두 향상되는 구조로 이 프로세스를 몇 번이고 되풀이 하여 감식자가 구분할 수 없는 진짜 같은 가짜 이미지를 생성하게 됨


Ø DCGAN의 생성자는 가짜 이미지를 생성할 뿐만 아니라 생성된 이미지를 연산 조작하는 기능을 가지고 있는데, 예를 들어 안경을 쓴 남자 - 안경을 쓰지 않은 남자 + 안경을 쓰지 않은 여자 = 안경을 쓴 여자와 같은 연산을 처리함


<자료> Radford et al.


[그림 3] DCGAN 생성자의 이미지 연산 조작


Ø 연산의 결과 안경 쓴 여성의 이미지를 9개 생성하는데, 맨 중앙 이미지가 구하려는 답으로 주위의 8개 이미지를 외삽법(extrapolation)으로 추론하여 중앙의 이미지를 생성한 것이며, 이런 연산 조작 기법을 이용하면 금발을 흑발로 바꿀 수도 있음


Ø 외삽법이란 어떤 주어진 구간의 밖에 존재하는 값을 추정하는 것으로 보외법(補外法 )이라고도 하며, 반대로 주어진 구간 내에 존재할 수 있는 값을 추정하는 것은 보간법(補間法)이라고 함


ž 회화 그림 관련 응용프로그램에 적용되고 있는 SRGAN(Super-Resolution Generative Adversarial Networks)은 저해상도 이미지를 고해상도 이미지로 변환하는 기법임


<자료> Ledig et al.


[그림 4] SRGAN으로 해상도 높이기


Ø [그림 4]의 맨 오른쪽이 원본 이미지인데, 예를 들어 이 이미지의 해상도를 4배로 늘리는 작업을 한다고 할 때 다양한 방법으로 시도가 가능함


Ø 맨 왼쪽 이미지는 기존에 주로 많이 사용하던 바이큐빅(bicubic)이라는 2차원 외삽법에 의해 해상도를 높인 것임


Ø 왼쪽에서 두번째는 이미지 수준을 예측하는 심층 레지듀얼 네트워크(Deep Residual Network)로서 딥러닝의 손실함수인 평균제곱오차(Mean Squared Error)에 최적화 되어 있는 SRResNet 기법을 이용해 해상도를 높인 것임


Ø 왼쪽에서 세 번째가 SRGAN으로 생성한 이미지인데, 물리적으로는 손실 압축에서 화질 손실 정보를 수치로 표현한 최대 신호 대비 잡음비(peak signal-to-noise ratio)가 높아 노이즈가 있지만, 외견상 구조적 유사성(Structural Similarity)는 원본 이미지에 가장 가까움


Ø SRGAN 기법은 이미지 초해상도(Image Super-Resolution)라고도 불리며 저해상도 이미지를 8K 모니터 등 고해상도 디스플레이에 표시하는 기술로서 주목받고 있음


ž 스택GAN(StackGAN, Stacked Generative Adversarial Networks)는 입력된 문장과 단어를 해석해 이미지를 생성하는 인공지능 기법임


Ø 예를 들어, 이 새는 파란색에 흰색이 섞인 짧은 부리를 가지고 있다라는 텍스트를 입력하면 StackGAN이 이를 이해하여 그에 맞는 이미지를 생성함


<자료> Zhang et al.


[그림 5] StackGAN


Ø GAN이 생성자와 감식자의 대립 네트워크를 생성하듯, StackGAN은 저해상도 이미지를 생성하는 Stage-I과 고해상도 이미지를 생성하는 Stage-II 2단계 네트워크 구성을 갖추고 있음


Ø DCGAN과 마찬가지로 StackGAN에서 생성된 이미지는 실제 조류가 아닌 StackGAN이 상상으로 생성한 것이며, 사진처럼 보이지만 그러한 새는 세상에 존재하지 않음


ž 3D-GANMIT AI 연구팀이 공개한 입체 모델 생성 네트워크로 가령 가구 사진을 통해 교육시키면 3D-GAN은 가구를 3차원으로 그릴 수 있게 됨


Ø 연구팀의 논문을 보면 이케아의 가구 사진을 3D-GAN에 입력하면 그 가구를 3D로 묘사하는데, 입력된 사진은 가구 전체를 담고 있지 않지만 3D-GAN은 이것을 상상에서 보충하여 3D 이미지를 생성해 내고 있음


Ø 3D-GAN 역시 3D 모델 이미지를 연산 조작할 수 있는데, 가령 선반 있는 낮은 테이블 - 선반 없는 높은 테이블 + 높은 테이블 = 선반이 있는 높은 테이블'과 같은 연산을 수행해 이미지를 생성함


<자료> Wu et al.


[그림 6] 3D-GAN을 이용한 3D 이미지 생성


Ø [그림 6]3D-GAN이 학습한 성과를 가시적으로 보여주기 위한 것이며, GAN이 학습한 성과를 매개 변수로 네트워크에 저장하는 것을 실제로 볼 수는 없음


Ø MIT는 현재 숨겨진 영역(Latent Space)의 매개 변수를 출력하는 3D-GAN의 학습 메커니즘을 검증하기 위한 연구를 수행하고 있음.


ž 사이클GAN(CycleGAN)은 인공지능이 자율적으로 학습하여 이미지의 스타일을 다른 스타일로 변환시킬 수 있는 기술임


Ø 입력된 이미지의 스타일을 다른 스타일로 변환하는 방법을 일반적으로 스타일 변환(Style Transfer)이라고 하는데, 이미지 사이의 스타일을 매핑하기 위해 최근 들어 심층신경망을 이용하는 경우가 많음


Ø 가령 심층신경망이 화가의 스타일을 습득하여 그 화풍으로 그림을 그리는 기술이 다수 발표되고 있는데, 사진을 입력하면 AI가 이를 모네 스타일 혹은 피카소 스타일의 유화로 변환해 주는 애플리케이션들이 대표적임


Ø 그러나 이 방식은 화가의 작품이나 풍경 사진 데이터 중 어느 한쪽 혹은 양쪽의 데이터가 거의 없는 경우, 작품과 사진이 짝을 짓게 하는 교육(Paired Training)을 어떻게 실행할 수 있을 것인가가 큰 과제가 됨


Ø 이에 비해 사이클GAN(Cycle-Consistent Adversarial Networks) 기술은 쌍을 이루는 교육 데이터가 필요 없는, 즉 작품-사진의 쌍을 지을 필요 없이, 모네의 유화나 풍경 사진을 각각 독자적으로 사용하여 네트워크를 교육시키는 짝 지우지 않는 교육(Unpaired Training) 기법임


Ø 교육된 사이클GAN은 예를 들어 모네의 작품을 입력하면 이를 사진으로 변환하거나 반대로 사진을 입력하면 모네의 유화로 변환시킬 수 있음


Ø 또한 얼룩말의 사진을 말의 사진으로, 말의 사진을 얼룩말의 사진으로 변환할 수 있는데 이를 객체 변형(object transfiguration)이라 하며, 또한 산의 여름 사진을 입력하면 눈 쌓인 겨울 산의 사진으로 변환할 수도 있는데 이는 계절 변환(season transfer)이라고 함


<자료> Zhang et al.


[그림 7] CycleGAN을 이용한 스타일 변환


Ø 사이클GAN은 네트워크가 자율적으로 학습하는 아키텍처로서 교사 없는 학습(Unsupervised Learning)으로 이어질 수 있는 기법으로 기대되고 있음


Ø 사이클GAN 기법은 버클리 인공지능 연구실이 주축이 되어 개발하고 있는데, 주 책임자인 중국인 주준이엔 외에 한국인 박사과정 학생 박태성이 참여하고 있기도 함


ž 디스코GAN(DiscoGAN)은 인공지능이 자율적으로 서로 다른 객체 그룹 사이의 특성을 파악하여 양자 사이의 관계를 파악할 수 있는 기술임


Ø 사람은 하나의 그룹과 다른 그룹의 관계, 예를 들어 가방 그룹과 신발 그룹의 관계를 경험적 혹은 직관적으로 파악할 수 있는데, 신경망이 이 관계를 파악하도록 하기 위해서는 태그가 붙어 있는 이미지를 대량으로 입력해 알고리즘을 교육할 필요가 있음


Ø 이에 비해 디스코GAN은 알고리즘이 양자의 관계를 자율적으로 이해하는데, 먼저 디스코GAN에 가방과 신발이라는 두 그룹의 이미지를 각각 입력해 각자의 특성을 가르치고 나면 이미지에 태그(가방이나 신발 등의 이름)가 붙지 않아도 알고리즘이 양자의 관계를 스스로 파악함


Ø 교육된 디스코GAN을 예를 들면, 가방 이미지를 입력하면 신발 이미지를 생성하거나, 파란색 가방 이미지에서 파란색 신발 이미지를 생성하고, 남성의 사진을 입력하면 여성의 이미지를 생성 할 수도 있음


<자료> Kim et al.


[그림 8] DiscoGAN을 이용한 스타일 변환


Ø 디스코GAN 역시 사이클GAN과 마찬가지로 양자의 관계를 정의한 짝 지운 데이터(Paired Data)가 불필요하고 각자의 특성 이미지만 교육시키면 네트워크가 자율적으로 학습하는 구조이기 때문에, 교사 없는 학습의 길을 여는 기술로 주목받고 있음


ž GAN은 기초 연구뿐만 아니라 비즈니스에 응용도 시작되고 있는데, 아마존이 GAN을 이용한 패션 사업의 구상을 밝힌 것이 대표적임


Ø 아마존은 산하 연구소인 Lab126에서 GAN의 개발을 진행하고 있는데, GAN이 유행 중인 패션을 통해 스스로 스타일을 학습하고 자신만의 패션을 생성하도록 하고 있는데, GAN이 패션 디자이너가 되어 인간을 대신해 새로운 디자인을 창조하게 하는 것임



Ø 패션 트렌드는 페이스북이나 인스타그램 등에 올라온 사진으로 학습하는데, 이 사진들을 GAN에 입력하면 GAN이 트렌드를 배워 독자적인 패션을 디자인하게 됨


Ø 또한 아마존은 인공지능 스피커 에코의 변형 버전인 에코 룩(Echo Look)을 통해 이용자를 촬영한 다음 패션에 대한 조언을 하는 서비스를 제공하고 있음


Ø 아마존은 에코 룩을 통해 이용자의 패션 취향을 이해한 다음, GAN이 개인에 특화된 디자인을 만들게 하는 계획을 갖고 있는데, GA이 생성한 디자인으로 만든 주문형 옷(On-Demand Clothing)이 이용자에게 배달되게 하는 사업 구조임


<자료> Amazon


[그림 9] GAN을 이용한 아마존의 에코 룩


ž 이처럼 200여 개에 달하는 GAN의 변형 기술 연구가 폭넓게 진행되고 있는 이유는 GAN이 현재 딥러닝이 안고 있는 많은 문제를 해결해 줄 강력한 무기를 제고할 수 있기 때문임


Ø 특히 교사 없는 학습(Unsupervised Learning)과 태그 없는 데이터(Unlabeled Data) 교육 분야에서 연구를 크게 진전시킬 단서를 제공할 것으로 전망되고 있는데, 사이클CAN이나 디스코GAN이 그러한 가능성을 잘 보여주고 있음


Ø 또한 엔비디아의 연구팀 역시 DCGAN 기술을 이용해 촬영한 것처럼 선명한 가상의 유명 연예인 이미지를 생성하고 있지만, 신경망 교육에는 태그가 붙어 있지 않은 연예인 사진을 사용하는 등 알고리즘이 자율적으로 배우는 기술은 빠르게 진화하고 있음


Ø 과학자들은 상상하는 모습을 모두 이미지로 만들어 낼 수 있는 이런 시스템들을 보며 인공지능 신경망이 세상을 해석하는 통찰력을 제공해 줄 것이라 기대하고 있음


Ø 비록 인공지능이 어떤 원리로 이미지를 저장하고 해석하는지 명확하지는 않더라도, 바둑 기사들이 알파고가 바둑의 본질을 보다 잘 이해한다고 인정하듯이, 과학자들 역시 컴퓨터가 생성해 내는 이미지가 실제 세상에서도 통할 수 있다고 생각하는 것임


ž GAN에 대한 기대가 높아지는 만큼 그 위험성에 대한 지적도 나오고 있는데, AI 뿐만 아니라 모든 기술이 그렇듯 이 기술을 어떻게 사용할 것인지는 결국 인간이 결정에 달려 있음


Ø 페이스북의 AI 연구소장인 얀 르쿤은 GAN과 그 파생 기술들은 지난 10년의 기계학습 연구에서 가장 뛰어난 성과라고 높이 평가하고 있음


Ø 한편, GAN의 위험성을 지적하는 목소리도 높아지고 있는데, 지금까지도 페이스북 가짜 사진이 문제가 됐지만 GAN의 등장으로 그 위험성이 더욱 높아짐에 따라 이제 뉴스에 게재되는 사진이나 비디오를 신뢰할 수 있는가 하는 질문이 제기되고 있음


Ø 소셜 미디어에 게재된 이미지가 증거 사진으로 사용되는 경우가 많지만, 이제 앞으로 무엇이 진실인지 알 수 없는 시대가 되면 그럴 수 있겠느냐는 것이며, 수년 내로 GAN을 통해 진짜 같은 가짜 비디오를 생성할 수 있게 된다면 혼란은 더욱 가중될 것이라는 경고임


Ø 이는 엄밀한 근거에 기반을 두어야 하는 과학에서 더욱 불거질 수 있는 문제인데, 그럴듯한 이미지나 동영상과 함께 이런저런 학술이론을 제시하면 한마디 반박조차 못하고 감쪽같이 설득 당할 수밖에 없는 위험이 생긴 것임


Ø 삶을 풍요롭게 하는 데 사용될 지 아니면 삶을 위험에 빠뜨리게 될 지, AI가 그러하듯 GAN이라는 혁신 기술 역시 양날의 검을 가지고 있다는 점을 항시 염두에 두고 바라볼 필요가 있음

댓글을 달아 주세요

※ 아래 글은 정보통신기술진흥센터(IITP)가 발간하는 주간기술동향 1823호(2017. 11. 22. 발행)에 기고한 원고입니다.


▶ IITP에서 PDF 포맷으로 퍼블리싱한 파일을 첨부합니다. 가독성이 좋으니 참고하시기 바랍니다.

현실 같은 가짜를 상상으로 만들어 내는 새로운 인공지능 ‘GAN’.pdf



[ 요 약 ]


엔비디아의 연구팀은 신경망이 유명 연예인(celebrity, 셀럽)의 이미지를 생성하는 기술을 공개했는데생성된 이미지는 실제 인물에 기반을 둔 것이 아니라 인공지능(AI)이 유명인의 개념을 이해하고 상상으로 그린 ​​것이며유명인 이외에도 모든 객체의 개념을 이해한 후 사람의 개입 없이 AI가 실제와 똑같이 그려낼 수 있음을 보여주었음생성적 대립쌍 신경망(Generative Adversarial Network, GAN)이라 불리는 이 기술은 2014년 처음 등장한 이래 가장 주목 받는 AI 연구 주제로 부상하였음



[ 본 문 ] 


ž 최근 인공지능(AI) 컴퓨팅 분야 연구에 적극 나서고 있는 엔비디아(Nvidia)GTC 유럽 2017 컨퍼런스에서 딥러닝 기반 응용프로그램 빈센트(Vincent) AI의 공개 시연을 진행


Ø 빈센트 AI는 이용자가 스타일러스 입력 펜을 사용해 간단히 스케치한 그림을 실시간으로 유화나 네온 색상의 팝아트 등 7가지 예술작품 스타일로 변환시켜 주는 응용프로그램으로 캠브리지 컨설턴트(Cambridge Consultants)라는 기업이 엔비디아 기술을 이용해 제작한 것임


<자료> NVIDA


[그림 1] 빈센트 AI로 변환시킨 스케치


Ø 엔비디아의 젠슨 황 CEO는 기조연설 도중 무대에서 내려와 스타일러스를 직접 들고 엔비디아 로고와 사람의 얼굴을 그렸으며, 이것이 실시간으로 피카소 풍의 그림으로 변환되자 컨퍼런스에 참석한 청중들의 박수가 터져 나왔음.


Ø 캠브리지 컨설턴트의 AI 연구소인 디지털 그린하우스(Digital Greenhouse)에서 5명으로 구성된 연구팀은 두 달 만에 빈센트 AI의 데모를 구현할 수 있었는데, 이번 데모는 엔비디아의 딥러닝 전용 수퍼컴퓨터인 DGX 시스템에서 트레이닝을 거쳐 구현되었음


Ø 기존의 딥러닝 알고리즘이 방대한 양의 데이터를 소화할 수 있게 됨으로써 놀라운 성과를 달성했다며, 빈센트 AI에 적용된 인공지능 기법은 두 개의 신경망을 이용해 이전에 비해 훨씬 더 적은 표본으로도 응용프로그램을 생성할 수 있었다는 점에서 주목받고 있음


Ø 엔비디아 측에 따르면, 알파고의 등장에 많은 바둑 기사들이 호응을 보인 것처럼 의외로 많은 예술가들이 빈센트 AI 에 상당한 호감을 보이고 있으며, 빈센트 AI를 통해 예술이 무엇인지, 예술에 대한 자신들의 지식이 어느 정도인지 알게 될 것이라 기대하고 있다고 함


ž 빈센트 AI의 놀라운 이미지 전환 기술 뒤에는 정밀한 튜닝 작업을 거친 GAN(Generative Adversarial Network), 생성적 대립쌍 신경망이라는 최신 AI 기술이 자리하고 있음


Ø 비영리 인공지능 연구단체인 오픈AI의 컴퓨터 과학자인 이언 굿펠로우가 창안한 (GAN) 기술은 최근 인공지능 기반 이미지 전환기술로 크게 각광받고 있으며, 굿펠로우는 연구 논문 발표 후 구글의 인공지능 연구부서인 구글 브레인으로 자리를 옮겨 연구를 지속하고 있음


Ø 이언 굿펠로우에 의해 2014년에 처음 등장한 이 기법과 관련한 논문 수가 기하급수적으로 증가해서 최근에는 190편 이상이 학계에 보고되고 있는데, 페이스북의 AI 연구를 이끌고 있는 얀 르쿤 교수는 갠(GAN)을 가장 중요한 기술로 꼽고 있음


Ø 갠 신경망은 대립쌍을 이루는(Adversarial) 두 개의 네트워크를 만들고, 상호 대립 과정에서 훈련 목표를 자동으로 생성하도록 학습시키는 모델임


Ø 통상 기계학습이 사람이 태그를 달아주는 방식으로 학습결과가 맞았는지 확인해주는 데 반해 갠 기법은 사람의 개입 없이 컴퓨터가 스스로 목표 이미지와 비교해서 생성한 이미지를 반복해서 평가하고 수정하는 과정 속에서 데이터 자체에서 지식을 얻는 비지도 학습형 알고리즘임



Ø 최근 이미지 구별이나 음성 인식 등에 활용되는 인공지능 기술인 CNN이나 RNN지도 학습형 알고리즘으로 이미지나 음성을 구별하고 인식할 뿐 만들어 내지는 못하는데, GAN은 생성 모델을 통해 직접 이미지와 음성을 만들어 낸다는 것이 큰 차이점임


Ø 엔비디아의 연구팀이 개발한 기술 역시 GAN을 이용한 것으로, 엔비디아는 논문을 통해 신경망이 유명인(celebrity, 셀럽)의 이미지를 자동으로 생성하는 기술을 공개했는데, 이 이미지는 실제 사람이 아닌 AI유명인이라는 개념을 이해하고 상상으로 생성해 낸 것임


<자료> Karras et al.


[그림 2] GAN이 생성한 유명인 이미지


Ø GAN으로 그린 가상의 유명인은 어디선가 본 듯한 것처럼 보이지만 실존 인물은 아니며, 구글에서 이미지 검색을 해도 해당 인물이 발견되지는 않는데, 한마디로 GAN은 진짜 같은 가짜를 생성해 내는 기술이라고도 할 수 있음


Ø 엔비디아가 발표한 논문은 GAN이 유명 연예인 외에도 침실, 화분, , 소파, 버스 등의 객체를 AI가 개념만 듣고 현실과 똑같이 그려낼 수 있음을 보여주고 있음


ž 생성적 대립쌍이라는 명칭이 붙은 이유는, GAN이 서로 경쟁하는 두 개의 신경망(dueling neural network) 구조를 통해 성능을 개선하고 딥러닝 모델을 진화시키기 때문


Ø GAN의 구조는 일반적으로 감식자(Discriminator)생성자(Generator)라는 두 개 층의 신경망으로 구성되는데, 양 측이 서로 충돌하면서 발생하는 차이점을 수정해 나가며 궁극의 균형점, 즉 진짜 같은 가짜의 생성에 이르게 됨



Ø 생성 네트워크는 진짜와 똑 같은 가짜 이미지를 생성하는 역할을 담당하는데, 생성자에 노이즈(랜덤 신호)가 입력되면 이를 토대로 가짜 이미지를 생성함


Ø 감식자는 입력된 데이터가 진짜인지 가짜인지를 판정하는데, 생성자가 만들어 낸 가짜(Fake) 이미지와 샘플 데이터세트에서 추출된 실제(Real) 이미지가 감식자에 입력되면 Fake 또는 Real 여부를 판정하게 됨


Ø 이 방식은 게임이론 중 내쉬 균형(Nash Equilibrium), 즉 합리적 판단을 하는 상호 간의 게임이론에 따라 수학적으로 균형점을 찾는다는 이론이 적용된 것임


Ø 한 마디로 GAN은 생성자와 감식자가 대치하며, 매우 성공적인 가짜를 생성해내는 인공지능 기술이라 정의할 수 있음


<자료> Anton Karazeev


[그림 3] 대립쌍을 이루는 GAN의 작동 프로세스


ž GAN의 개념을 주창한 이언 굿펠로우는 대립쌍을 설명하면서 생성자와 감식자의 관계를 위조 지폐범과 경찰의 대결로 비유하였음


Ø 화폐 위조범(생성자 G)이 새로운 위폐를 만들어내면 경찰이나 은행원(감식자 D)은 이를 간파해야 하고, 위조범들이 이를 피하기 위해 더 그럴 듯한 위조 지폐를 만들면 경찰관들도 동시에 감식 기술을 향상시키는데, 이 과정을 통해 위조 화폐가 더욱 정교해진다는 것


Ø 즉 위폐범의 위조 기술과 경찰의 감식 기술이 서로를 자극하면서 발전을 거듭하면, 결국 위조화폐는 진짜 화폐와 같은 수준의 내쉬 균형점에 이르게 된다는 것으로, 현실에서는 감식자가 위폐범을 이겨야 하나 GAN에서는 위폐범의 승리가 목표임


Ø 이언 굿펠로우는 대립쌍을 설명하면서 수학 같이 명확한 답이 없지만 확률적으로 목표와 근사한 지를 끊임없이 확인하면서 이미지를 변환해 가면 결국엔 위폐일 확률과 진짜일 화폐일 확률이 각기 0.5가 된다고 표현하였음


Ø 인간과 AI가 대결과 공존을 해야 하는 시대에 인간이 우위를 점할 수 있는 영역으로 흔히 창의성과 예술 분야가 거론되지만, 알파고 등장에서 보듯 현실은 창의성에서도 AI의 우월성이 드러나는데, 위폐범의 승리를 목표로 하는 GAN 같은 기술의 등장이 그 원인이라 할 수 있음


ž 이처럼 GAN은 매우 성공적인 가짜를 생성할 수 있으나 기술적으로 몇 가지 과제가 있었는데, 엔비디아는 특수 구조를 개발하여 과제를 해결해 가고 있음


Ø GAN의 과제는 알고리즘의 교육에 장시간 연산이 필요하다는 점과 알고리즘의 작동이 불안정하다는 점이었는데, 엔비디아는 서서히 이미지의 해상도를 높여 나가는 구조의 네트워크를 개발하여 문제를 해결하였음



Ø 엔비디아가 개발한 GAN의 특징은 학습 초기 단계에서는 낮은 해상도(4×4)의 네트워크를 사용하고, 학습이 진행되면서 점차 해상도를 올려 최종적으로 고해상도(1024×1024)의 네트워크를 사용해 선명한 이미지를 생성한다는 점

Ø 엔비디아의 GAN이 순차적으로 생성한 이미지와 생성에 소요된 시간을 살펴보면, GAN에 학습을 시작한 지 4시간 33분이 경과한 시점에 저해상도(16×16)의 이미지가 생성되어 사람으로 보이는 듯한 형상이 나타났음


Ø 1 6시간이 경과한 시점에서 나타난 중간 해상도(64×64)의 이미지에서는 얼굴 윤곽이 뚜렷해졌으며, 5 12시간이 경과한 시점에 나타난 고해상도(256×256) 이미지에서는 인물이 부드럽게 그려져 있지만 세부적으로 보면 군데군데 일그러진 곳이 있음


Ø 19 4시간이 경과한 시점에 나타난 초고해상도(1024×1024) 이미지에서는 리얼한 인물이 완성되는데, 이처럼 엔비디아의 GAN은 감식자(Discriminator)의 스킬을 검증하면서 서서히 해상도를 올려나가는 방식을 통해 알고리즘 교육 시간을 약 20일로 단축하였음


<자료> Karras et al.


[그림 4] 점증적으로 해상도를 높여 나가는 엔비디아의 GAN


ž 엔비디아가 GAN의 성능을 개선했지만, 고해상도의 이미지를 생성하려면 대규모 컴퓨팅 리소스를 필요로 하는 등 아직 연구를 통해 개선해야 할 것들이 많이 남아 있음


Ø GAN에서 선명한 이미지를 생성하기 위해서는 대규모 컴퓨팅 자원이 필요한데, 엔비디아의 경우 이 연구를 위해 NVIDIA Tesla P100 GPU(4.7 TFLOPS)를 사용하였음


Ø GAN의 알고리즘 학습에는 약 20일 정도가 걸렸는데, 많이 개선된 것이지만 고해상도의 이미지를 생성하려면 여전히 많은 처리 시간이 필요하며, 결국 완벽한 가짜 이미지 생성에 아직까지는 많은 비용이 소요됨을 의미함


Ø 또한 GAN으로 그려낼 수 있는 대상은 GAN이 학습을 마친 분야로 제한되기 때문에 현재는 유명 연예인 등 일부에 한정되는데, GAN의 교육 시간을 상당히 단축시키거나 혹은 폭넓은 분야를 커버하게 하려면 추가 연구가 필요한 상황임


ž GAN은 양날의 검이 될 위험성이 존재하지만, 현재 AI 기술 개발의 가장 큰 걸림돌을 해결할 단서가 될 수 있다는 점에서 AI 분야의 큰 돌파구가 될 수 있는 연구 주제임


Ø GAN은 현재 딥러닝이 안고 있는 많은 문제를 해결할 수 있는 비장의 카드가 될 가능성이 있는데, 비지도 학습(Unsupervised Learning)과 라벨이 없는 데이터(태그 없는 교육 자료) 분야의 연구를 크게 진전시킬 단서가 될 것으로 전망되고 있기 때문


Ø 이는 현재 AI 개발의 가장 큰 걸림돌이 되고 있는 문제, 즉 알고리즘을 교육하기 위해 대량의 태그 데이터가 필요하다는 문제의 해결책이 될 수 있음을 의미하며 이것이 개발자들이 GAN에 주목하는 가장 큰 이유임


Ø 반면 GAN에 대한 우려도 그만큼 크게 대두되고 있는데, GAN이 가상으로 그려낸 이미지는 사진 촬영을 한 연예인이라 해도 의심의 여지가 없으며, 실제와 똑 같은 가짜 앞에서 양자의 진위를 판정할 수 있는 사람은 아무도 없음


Ø 소셜 미디어에서 가짜 뉴스가 문제가 되고 있지만 GAN의 등장으로 이제는 가짜 사진이 사태를 더욱 복잡하게 할 가능성이 커졌으며, 인스타그램에 올라오는 사진들 역시 GAN이 만들어 낼 시대가 도래하고 있음


Ø 전문가들이라고 이런 문제를 비껴나갈 수 있는 것은 아니어서, 천문학자들은 이제 우주의 이미지를 직접 우주 공간에 나가서 사진 찍듯이 그려내고 있으며, 화산 폭발 장면을 실감나는 사진으로 표현하고 있음


Ø 또한 인체의 DNA가 어떻게 작동하는지 또 단백질이 어떻게 반응하는지를 직접 촬영한 사진처럼 표현하기도 하는데, 그럴듯한 이미지들과 함께 이런저런 학술이론을 제시하면 한마디 반박조차 못하고 감쪽같이 설득 당할 수밖에 없음


Ø GAN 의 등장은 현실과 가상현실 사이에서 진위의 구분이 무의미해지는 시대의 도래를 시사하며, 양날의 검이 될 수 있는 GAN의 활용 범위와 방안을 놓고 AI 개발자 커뮤니티뿐 아니라 일반인 사이에서도 다양한 논쟁이 벌어질 것으로 보임

댓글을 달아 주세요

※ 아래 글은 정보통신기술진흥센터(IITP)가 발간하는 주간기술동향 1782호(2017. 2. 8 발행)에 기고한 원고입니다. 


▶ IITP에서 PDF 포맷으로 퍼블리싱한 파일을 첨부합니다. 가독성이 좋으니 참고하시기 바랍니다.

, VR로 시각 청각 촉각 재현.pdf



◈ 엔비디아는 1 26일 기업용 VR(가상현실) 컨퍼런스인 NVIDIA Pro VR Day 2017을 개최하고, VR의 미래와 엔비디아의 VR 기술 혁신에 대해 발표하였음


<자료> NVIDIA.


[그림 1] 엔비디아 VR 데이 2017


• 기조 연설에 나선 엔비디아의 밥 페티 부사장은 VR이 이미지처리 기술의 발전뿐만 소리와 빛, 촉각의 재현 기술까지 향상 시키며 제조, 건축, 마케팅, 의료 등 다양한 분야에서 새로운 서비스의 출현을 가능케 할 것이라 전망


<자료> NVIDIA.


[그림 2]  가상현실 응용분야


또한 VR이 향후 700억 달러 규모의 시장을 형성할 것이며, 다양한 방식으로 현재의 비즈니스를 변모시킬 가능성이 있다고 예측


현재 VR 이용 방식은 고글 형태의 헤드마운트디스플레이(HMD)를 쓰게 하고 고글에 가상의 3차원 영상을 투영하여 이용자가 보는 방향이나 컨트롤러의 움직임에 따라 영상이 움직이게 해 가상세계에 있는 듯한 느낌을 주는 것


자동차 대리점에서 소비자가 자동차의 VR 영상을 보고 차종과 디자인을 검토할 수 있게 하거나, 건설 예정인 고층 빌딩을 VR로 재현한 후 경관과 교통에 미치는 영향을 사전 평가하는 등의 용도로 이미 활용이 시작되고 있음


그러나 VR이 해결해야 할 대표적 걸림돌로는 영상 멀미가 꼽히는데, 사람의 동작과 영상의 움직임에 차이가 생김에 따라 어지러움을 느끼게 되는 영상 멀미를 방지하려면 영상을 고속으로 처리해 ​​지연을 최소화하는 소형 GPU(그래픽 처리 프로세서)가 필수적이라고 함


밥 페티 부사장은 영상 멀미를 방지하려면 이 시간 차이를 20 밀리 초 이하로 억제할 필요가 있다며, GPU의 성능 향상이 VR의 선결과제 해결에 공헌하고 있다고 자평


◈ 엔비디아는 향상된 GPU를 바탕으로 소리의 방향과 빛의 방향, 촉각을 정확하게 재현함으로써, 정말 진짜 같은 실용적인 VR의 개발을 목표로 하고 있다고 설명


밥 페티에 따르면 영상에 맞춰 소리를 느끼거나, 방향을 바꿀 때 빛의 변화하는 양상을 충실히 재현할 때 이용자들이 높은 수준의 몰입감을 체험할 수 있음


• 예를 들어, 건설업체는 건설하기 전에 건물의 설계를 향상된 VR로 재현함으로써 소리의 울림이나 조명의 배치까지 실제에 가깝게 검토 할 수 있음


지금까지 VR의 이용이 간단한 시뮬레이션에 한정되어 있었다며, 향상된 VR은 정확한 현실 재현을 통해 프로토타입을 생략하거나 설계 기간을 단축하는 효과를 줄 수 있음


엔비디아는 현재 미국에서 진행 중인 신사옥 건설에 향상된 VR을 실제로 활용하고 있는데, VR을 통해 일사량을 확인하여 지붕의 경사를 변경하는 등의 효용이 있었다고 함


엔비디아의 젠슨 황 CEO가 매일 VR로 신사옥의 디자인을 체크하고 있을 정도로 실제로 매우 유효한 방법이라고 자평



<자료> Youtube

.

[VR 동영상] VR을 이용한 엔비디아 신사옥 설계


◈ 엔비디아가 주력하고 있는 것은 촉감을 재현하는 기술을 고도화하는 것으로, 이를 통해 지금까지 생각할 수 없었던 용도로 VR의 활용이 확산될 것으로 기대한다고 함.


<자료> NVIDIA


[그림 3] 엔비디아가 제공하는 촉각 SDK


• 촉감의 재현이란 펄스(압력)를 인체에 가함으로써 가상현실로 보는 물건을 실제 만지고 있는 듯한 느낌을 재현하는 것을 말함


이 기술이 이용해 가령 수술의 시뮬레이션에 적용할 경우 VR에서 뼈와 근육 등 경도가 다른 조직을 해부할 때 보다 정확한 훈련이 가능해 질 수 있음


엔비디아는 현재 촉각을 재현하기 위한 가상현실 콘텐츠를 개발하기 위한 SDK(소프트웨어 개발 키트)를 제공 중이라고 함

댓글을 달아 주세요

※ 아래 글은 정보통신기술진흥센터(IITP)가 발간하는 주간기술동향 1778호(2016. 12. 28 발행)에 기고한 원고입니다. 


▶ IITP에서 PDF 포맷으로 퍼블리싱한 파일을 첨부합니다. 가독성이 좋으니 참고하시기 바랍니다.

풀이과정을 알 수 없는 인공지능에 대한 신뢰성.pdf



[ 요 약 ]


딥러닝(Deep Learning)을 응용한 시스템의 활용이 사회 각 분야로 확산되고 있으나, 동시에 AI의 문제점도 명확히 드러나고 있음. 문제 제기의 핵심은 AI를 믿을 수 있는가 하는 것인데, 이는 AI의 결정 메커니즘을 사람이 온전히 알 지 못한다는 점에서 기인함. 의사보다 암 진단 정확도가 높지만, AI가 왜 그렇게 판단했는지를 모르기 때문에 신뢰성의 문제가 제기되는 것이며, 따라서 2017년에는 AI의 작동 메커니즘을 규명하려는 움직임이 적극 전개될 것으로 예상



[ 본 문 ]


◈ 인공지능(AI) 활용 시도가 다양하게 전개되면서, 사람들은 점차 인공지능(AI)을 과연 신뢰해야 하는가라는 문제에 직면하고 있음


딥러닝(Deep Learning) 기법을 응용한 다양한 인공지능 시스템 활용 사례가 속속 소개되며 기대감이 커지고 있으나, 동시에 AI의 문제점도 명확해지고 있음


AI는 통계학적 수법을 통해 입력된 데이터로부터 어떤 특징의 양을 정밀하게 감지하며 의사결정을 내리는데, 사람들을 곤혹스럽게 하는 점은 AI가 왜 그런 의사결정을 내렸는지에 대해 설명해 주지 않기 때문임


가령 자율운전 차량은 인간보다 훨씬 안전하게 주행할 수 있다는 것이 실험을 통해 입증되고 있지만 그 운전 기술의 요체는 AI 개발자들도 모르며 오직 AI만 알고 있기에, 사람들은 안전할 거 같긴 한데 믿을 수 있을까라는 애매한 감정을 갖게 됨


구글 딥마인드는 바둑 인공지능 알파고를 개발하며 바둑의 규칙조차 입력하지 않았지만, 대결에서 패한 인간 최고수로부터 바둑을 이해하는 새로운 관점을 얻게 되었다는 찬사를 이끌어 냈는데, 이런 사실에 사람들은 기대감과 불안감을 동시에 느끼는 것


사정이 이렇다 보니 사람들이 느끼는 불안감 속에는, 사람이 AI를 이해하지 못하는 것이 아닌지, AI가 사람을 능가하는 것은 아닌가 하는 존재론적 의심도 배어 있음


AI에 내포된 이런 본질적 문제는 다양한 형태로 드러나고 있는데, 중국계 AI 연구자들이 최근 발표한 얼굴 특징으로 범죄자를 식별하는 기술은 큰 논란을 낳고 있음


상하이교통대학(Shanghai Jiao Tong University)은 지난 11 13얼굴 이미지를 이용한 범죄연관성에 관한 자동화된 추론(Automated Inference on Criminality using Face Images)이라는 논문을 공개


공개된 지 얼마 안되어 아직 피어 리뷰(동료 전문가 평가, peer review)도 끝나지 않았지만, 논문에 따르면 알고리즘은 89%의 정확도로 범죄자를 식별한다고 하는데, 즉 얼굴 사진을 알고리즘에 입력하면 그 사람이 범죄자인지 여부를 거의 알 수 있다는 것


이 연구에는 딥러닝 등 얼굴인식 AI 기술이 사용되었으며, 알고리즘을 훈련시키기 위해 남성 1,856명의 얼굴사진을 사용했고 그 중 730명이 범죄자였다고 함




<자료> Xiaolin Wu & Xi Zhang


[그림 1] 얼굴인식 AI 기법을 이용한 범죄자 식별 가능성 연구


• 논문은 범죄자의 얼굴에 세 가지 특성이 있다고 언급하고 있는데, 윗입술의 선이 보통 사람에 비해 급격히 내려가고(그림1 오른쪽 이미지 속의 p), 두 눈의 간격이 좁으며(d), 코와 양 입가 사이에서 만들어지는 각도가 좁다(θ)는 점을 들고 있음


이 논문은 현재 논란의 와중에 있는데, 인물의 행동에서 범죄자를 식별하는 방법은 이미 감시 카메라 등으로 사용되고 있지만, 얼굴의 특징으로 범죄자를 가려낸다는 AI를 믿을 수 있는가 하는 의문이 제기되고 있는 것


AI는 학습 데이터를 바탕으로 통계 처리를 하는 것이지, 얼굴의 모양과 범죄자를 연결시키는 논리가 아닌데, 만일 AI가 범죄 수사에 사용된다면 일반 시민들이 이유를 알지 못한 채 용의 선상에 오르게 될 지도 모른다는 우려가 나오고 있음


◈ 딥러닝이 사회문제가 될 수 있는 불씨는 도처에 도사리고 있는데, 세계 최첨단 AI 기술력을 보유한 구글 역시 AI와 관련해 인종차별 이슈로 문제점을 지적받고 있음


구글의 유튜브는 청각 장애인을 위해 동영상 속의 음성을 자막으로 표시하는 기능이 있는데, 구글은 이 기능에 AI를 사용하고 있음


미국국립과학재단(National Science Foundation)의 레이첼 태트먼(Rachael Tatman) 연구원은 유튜브의 캡션 기능에서 동영상 속 화자가 남성일 경우와 여성일 경우 캡션의 정확도가 다르지 않은가에 대해 조사를 실시하였음


<자료> Rachael Tatman.


[그림 2] 구글 음성인식의 성별 편견


• 그 결과 유튜브는 남성의 목소리를 여성의 목소리보다 정확하게 인식하는 것으로 나타났는데, 남성일 경우 인식 정확도는 60%이지만, 여성의 목소리일 경우 정확도는 47%로 내려가 음성인식에서 여성이 차별을 받고 있는 것으로 나타남


이 차이가 발생하는지에 대해 시스템을 자세히 검증할 필요가 있는데, 태트먼은 AI 훈련에 사용된 음성 데이터 샘플이 성별로 균등하지 않고 남성에 치우쳤기 때문인 것으로 추측


AI의 성능은 훈련 자료의 품질에 민감하게 좌우되는데, AI의 여성 차별과 인종 차별 문제가 표면화됨에 따라, 훈련 데이터의 공정성 여부가 추궁 당하고 있음


◈ 사람의 생명과 직결되는 의료 분야에서도 인공지능에 의한 판단과 결정을 어떻게 해석하고 검증할 것인지에 대한 논의가 시작되고 있음


딥러닝 기법은 최근 유방암 검사의 판정에서 성과를 올리고 있는데, 검체의 의료 이미지(CT 촬영사진, x-레이 사진 등)를 딥러닝 네트워크에 입력하면 AI는 암이 발병한 조직을 정확하게 검출해 냄


현재 AI의 유방암 진단 정확도가 인간을 웃돌기 때문에, 많은 병원에서 정밀한 치료를 위해 이 시스템의 도입을 시작하고 있음


그러나 동시에, 건강해 보이는 조직을 AI가 암 발병 가능성이 높다고 판정한 경우, 의사와 환자가 어떻게 대응해야 할 지가 논란이 되고 있는데, AI 판정만 믿고 몸을 여는 수술을 해야 하는지 어려운 판단을 내려야 하는 압박을 받게 됨


물론 유전자 검사에서도 동일한 문제가 발생하고 있으며, 유방암 발병을 촉진하는 유전자 변이인 BRCA가 검출될 경우 수술을 해야 하는지 여부가 논란이 되고 있음


여배우 안젤리나 졸리는 BRCA1 변이 유전자를 보유하고 있으며 유방암 발생 확률이 87%라는 말을 듣고 아직 암이 발병하지 않았음에도 유방 절제술을 받은 바 있음


그러나 AI에 의한 검진의 경우는 이와 다른데, AI는 변이 유전자 보유라는 확실한 근거를 토대로 발병 확률을 제시하는 것이 아니며, 통계적 방법으로 유방암 여부를 판단할 뿐 그 조직에서 왜 암이 발병하는 지는 설명하지 않기 때문


이런 이유로 인공지능은 종종 인공 무능으로 조롱받는 것이며, 과학적 근거가 없는 결정을 어떻게 해석해야 할 지에 대해 의학적 검증 노력이 시작되고 있음


◈ 은행이나 핀테크 스타트업들도 최근 대출 심사에서 딥러닝을 사용하기 시작했는데, 심사 결과에 대해서는 대체로 만족도가 높지만 현행 법과 배치되는 문제가 발생하고 있음


AI 대출 심사의 장점은 신청자의 데이터를 알고리즘에 입력하면 즉시 위험도를 평가할 수 있고 높은 정확도로 단시간에 대출 심사가 할 수 있다는 것


한편, 미국 대부분의 주 정부는 은행이 대출 심사를 통과하지 못한 사람에게 그 이유를 설명하도록 의무화 하고 있는데, 딥러닝은 그 과정이 깜깜이여서 은행은 탈락한 신청자에게 이유를 충분한 설명하지 못하게 됨


게다가 대출 심사 기준을 바꿀 때마다 알고리즘을 재교육하는데, 소프트웨어의 로직을 변경하는 것이 아니라 대량의 데이터를 읽어 들여 딥러닝의 변수를 다시 설정하게 하기 때문에 금융업계에서 AI 도입을 두고 찬반 논란이 일고 있음


AI의 작동 알고리즘을 정확히 알지 못할 경우, 경험적으로 알게 된 AI 알고리즘의 맹점을 활용한 공격에 인증 시스템이 오작동 할 위험이 있음을 증명하는 실험도 있음


카네기 멜론 대학의 마무드 샤리프 교수 등은 안경으로 얼굴 인증 시스템이 오작동하도록 만들 수 있다는 내용을 담은 논문 최신 얼굴 인식 기술에 대한 실제적이고 눈에 띄지 않는 공격(Accessorize to a Crime: Real and Stealthy Attacks on State-of-the-Art Face Recognition)을 발표하였음


실험에 의하면 안경테의 폭이 약간 넓은 안경을 쓰면 시스템이 얼굴을 인식할 수 없게 되며, 따라서 방범 카메라의 감시 시스템을 빠져 나갈 수 있는 여지가 생김


<자료> Mahmood Sharif et al..


[그림 3] 간단한 트릭으로 얼굴인식 AI 교란


• 또한 안경테의 색 패턴을 변경하면 얼굴 인식 시스템이 다른 인물로 오인하는 것으로 나타났는데, 현란한 색의 종이로 만든 안경테를 걸치면 심지어 남성을 여성으로 잘못 인식하는 경우도 있었다고 함


얼굴 인식 시스템이 딥러닝 기법으로 얼굴의 특징을 파악한다고 하는데, 이 사례를 보면 눈매의 이미지를 판정에 사용하는 것으로 추정해 볼 수 있음


그러나 AI가 실제로 어떤 논리로 얼굴 인증을 하고 있는지는 아직 수수께끼이며, 이것이 규명되지 않는 한 얼굴 인증 시스템을 손쉽게 빠져 나가는 범죄자의 트릭을 막을 방법이 없음


AI의 작동 메커니즘이 알려지지 않는 이유는, AI의 기초를 이루는 신경망이 인간의 뇌를 본떴기 때문인데, 인간 뇌의 정보 저장 방식이 아직 밝혀지지 않았기 때문


AI의 신경망(Neural Network)으로 이미지를 판정할 때는 사진과 태그를 네트워크에 입력한 후 출력이 제대로 사진의 내용을 판정할 수 있도록 훈련시키는 과정을 거침


• 훈련 과정에서는 네트워크의 각층 사이의 연결 강도(Weight)를 조정하는데, 이러한 교육 과정은 인간의 뇌가 학습 할 때 뉴런의 연결 강도를 조정하는 움직임과 유사한 것으로 알려져 있음


학습에서 얻은 연결 강도는 각 뉴런(그림 4의 흰색 동그라미 부분)에 저장되는데, 따라서 신경망을 훈련시키는 메커니즘의 특징은 프로그램과 데이터를 한 곳에 모아 저장하지 않고 학습 데이터를 네트워크에 분산하여 저장할 수 있다는 것임


<자료> Neural networks and deep learning.


[그림 4] 인공지능 신경망의 정보 저장 구조


인간의 뇌도 동일한 방식으로 작동하는데, 가령 뇌가 전화번호를 기억할 때, 첫 번째 숫자는 다수의 시냅스에 흩어져 저장되며, 두 번째 숫자도 마찬가지로 흩어져 저장되지만 첫 번째 숫자와 가까운 위치에 저장되는 것으로 알려져 있음


문제는 뇌의 이런 저장 메커니즘이 아직 정확히 밝혀지지 않았고, 따라서 뇌의 구조를 본 뜬 신경망의 정보 저장 메커니즘의 규명이 진행되지 못하고 있다는 점


딥러닝의 문제점은 응축하자면 지식이 네트워크 상에 눌어붙어 있다는 점에서 기인하는데, 즉 지식이 수천만 개에 이르는 뉴런에 흩어져 저장되기 때문에 시스템을 개발한 인간이 아니라 네트워크가 지식을 습득한다는 데 문제의 본질이 있음


AI만이 알고 있는 답을 규명하기 위해 1990년대 초부터 연구자들이 AI의 블랙박스를 열려는 시도를 해왔는데, 규명의 과정이 곧 AI에 대한 의구심이 높아지는 과정이었음


카네기 멜론 대학은 1990년대부터 자동운전 기술의 기초 연구를 진행하고 있었는데, 당시 연구원 딘 포모루는 카메라에 포착된 영상으로 자동운전 알고리즘을 교육시켰음


몇 분간 알고리즘을 교육한 후 차량을 자동 주행시키는 시험을 반복했는데, 시험은 잘 진행되었지만 다리에 접근할 때 자동차는 도로에서 벗어나는 움직임을 보였고, 그러나 알고리즘이 블랙박스여서 그 원인을 알 수 없었음


소프트웨어를 디버깅하는 방법으로는 로직을 수정할 수 없기 때문에 포모루는 도로 도로주행 시험을 반복하며, 다양한 상황에서 자동운전을 반복하며 경험적으로 문제점을 밝혀낼 수밖에 없었음


그에 따르면 자동차는 갓길 바깥에 나있는 잔디 부분을 기준으로 주행 도로를 판정하고 있는 것으로 파악되며, 다리에 가까워지면 잔디 부분이 없어져 차로 판단 기준을 잃게 되므로 정상적인 주행을 할 수 없게 된 것임


이런 결론에 이르게 되자 포모루는 자동운전 기술을 AI로 구현한 자동차가 과연 제대로 작동할 것인지 확신할 수 없게 되었다고 함


◈ 현재에도 이와 동일한 문제에 직면하고 있는데, 무인 자율운전 차량들이 도로를 달리고 있는 지금, 사람이 AI 기술을 신뢰해야 할 지의 문제가 최대 이슈가 되고 있음


AI의 운전 로직을 모르기 가운데, 어떻게든 안전 기준을 만들려다 보니 시행착오가 계속되고 있는데, 그 중 하나는 정해진 거리를 무사고로 주행 가능하다면 안전한 것으로 간주한다는 생각임


싱크탱크 랜드 코프(Rand Corp)는 인간이 자동차를 1억 마일 운전할 때 사망 사고는 1.09 회 발생하는데, 자율운전 차량이 인간만큼 안전하다는 것을 증명하기 위해서는 2.75억 마일을 무사고로 달릴 필요가 있다는 기준안을 제시한 바 있음


인간 수준의 안전성을 입증하기 위해서는 대규모 주행 시험이 필요하다는 말인데, 이는 자율운전 자동차의 안전 기준을 설정하는 작업이 난항을 겪고 있음을 잘 보여줌


◈ 그러나 자율주행 차량의 도입과 확산을 위해서는 결국 AI의 작동 메커니즘 규명이 반드시 전제되어야 할 것이므로, 이 문제를 기술적으로 해명하려는 움직임도 시작되었음


엔비디아(Nvidia)는 딥러닝을 이용한 자율운전 기술을 개발하고 있는데, 이 시스템의 명칭은 데이브-2(DAVE-2)이며 신경망으로 구성되어 있음


인간이 알고리즘에 주행 규칙을 가르치는 것이 아니라, 시스템이 신경망에서 이미지를 처리하여 안전한 경로를 파악하는데, 가령 곡선 도로의 이미지를 읽으면서 거기에서 운전할 때 알아야 할 필요가 있는 도로의 특징을 파악함


엔비디아는 AI가 어떤 기준으로 결정하고 있는지에 관한 연구를 함께 진행하고 있는데, 지금까지 블랙박스였던 AI의 핵심을 규명하는 시도임


• 연구의 결과, 엔비디아는 카메라가 포착한 사진과 이미지 인식 신경망(CNN)이 이것을 읽고 거기에서 추출한 특징을 비교해서 보여주며, AI가 도로를 어떻게 이해하고 있는지를 설명하고 있음


신경망이 보여 주는 굽은 도로의 특징을 보면, 특징량은 곡선이 대부분으로 CNN이 도로의 경계 부분을 기준으로 운전하고 있음을 알 수 있는데, 이런 방법을 통해 AI가 습득한 운전 기술의 요체를 사람이 시각적으로 이해할 수 있다는 설명



<자료>Nvidia.


[그림 5] AI가 도로를 인지하는 방법



2016년이 인공지능의 가능성을 열어젖힌 원년이라면, 2017년은 AI의 블랙박스를 열어 그 작동 논리를 규명함으로써 AI 확산의 기폭제를 마련하는 해가 될 것으로 예상


자율운전 자동차를 포함 자율적 인공지능 시스템은 심층강화학습(Deep Reinforcement Learning)이라는 기법을 사용하여 알고리즘이 시행착오를 반복하여 정책을 학습하도록 하고 있음


심층강화학습 기법은 알파고에도 사용되고 있으며, 보다 지능적인 AI 개발의 핵심 기법이 될 것으로 보이는데, 현재 심층강화학습의 요체도 블랙박스이지만, 앞으로 이에 대한 규명 작업도 적극 진행될 것으로 예상됨


무언가 새롭고 획기적인 것인 등장했을 때, 그것의 요체와 작동 방식을 정확히 모른다면 사람들의 대응 방식은 무조건적인 거부 혹은 반대로 종교와 유사한 무조건적 추종과 같은 극단적 양상을 띨 위험이 있음


인공지능이 사회적 합의 위에 다양한 가치를 위해 활용되려면, 그 메커니즘에 대한 정확한 이해가 수반되어야 할 것이며, AI가 인간의 뇌를 본 뜬 것인 만큼, AI를 알아가는 과정은 곧 우리 인간이 스스로에 대해 더 많이 알게 되는 과정이 될 수 있을 것임

댓글을 달아 주세요