※ 아래 글은 정보통신기술진흥센터(IITP)가 발간하는 주간기술동향 1836호(2018. 3. 7. 발행)에 기고한 원고입니다.


▶ IITP에서 PDF 포맷으로 퍼블리싱한 파일을 첨부합니다. 가독성이 좋으니 참고하시기 바랍니다.

구글 자율운전차의 강력한 대항마로 부상한 GM의 ‘크루즈 AV’.pdf



[ 요 약 ]


제너럴 모터스(GM)는 2019년 양산을 목표로 완전 자율주행 자동차 크루즈 AV(Cruise AV)의 개발과 테스트에 박차를 가하고 있음크루즈 AV는 자율주행차 기술을 선도하고 있는 구글 웨이모(Waymo)를 겨냥해 대항마로 개발 중인 모델임. IT 대기업과 스타트업들이 각광받고 있는 자율운전 개발 경쟁에서 GM은 그 동안 존재감이 없었으나전문가들은 크루즈 AV가 GM은 흘러간 과거의 거인이라는 낙인을 지울 만큼 상당한 실력을 품고 있는 것으로 보고 있음



[ 본 문 ]


ž 제네럴 모터스(GM)2018 1월 미국 교통부(DOT)운전대와 페달이 없는 자율운전 자동차의 도로 주행 허가 신청서를 제출하였음


Ø 신청서에 따르면 조작부가 없는 GM 차량의 자율운전 수준은 미국 자동차기술협회(SAE)가 정의한 6단계 중 5단계인 레벨 4'에 해당하는 것으로 보이며, 제한된 조건에서 완전 자율운전의 실현을 테스트 하려는 것으로 보임


<자료> General Motors


[그림 1] 무인차량 크루즈 AV의 내부


Ø GM이 내건 조건 중 하나는 주행 지역을 좁힌다는 것인데, 고정밀 지도 데이터가 구축되어 있고 실제 차량 테스트와 분석에 의한 시뮬레이션 주행 시험을 반복해 왔던 이미 잘 알고 있는 지역에서만 주행하겠다고 밝혔음


Ø GM 2019년에 자율운전 차량의 양산을 시작한다는 계획인데, 양산 초기 판매 모델은 웨이모(Waymo)와 비슷한 형태, 즉 차량 공유나 카풀 등 배차 서비스 기업들의 업무 차량으로 공급될 예정임


ž GM은 크루즈 AV가 배차 서비스와 결합될 경우, 보다 많은 사람들이 자율운전 차량을 경험함으로써 이해도가 높아질 것으로 기대한다는 입장을 밝히고 있음


Ø 크루즈 AV가 배차 서비스에 이용될 경우 사용자는 스마트폰으로 무인 차량을 호출하게 되고, 승차지는 목적지는 제한된 범위 내에서 선택하는 형태가 될 것으로 보임


Ø 웨이모에 이어 GM도 배차 서비스를 우선 타게팅 하는 것은 미국에서 배차 서비스 이용자가 급격한 증가하고 있기 때문으로, 서비스 업체 입장에서는 크루즈 AV를 배차 서비스와 조합하며 운전자 확보 없이도 이용자를 쉽게 늘릴 수 있는 이점이 있음


Ø 또한 GM에 따르면 배차 서비스에 크루즈 AV를 공급할 경우 불특정 다수의 사람이 탑승할 기회를 갖게 되므로, 보다 많은 사람들이 자율운전 기술에 대해 직접 경험하고 안정성과 편의성을 판단할 수 있게 되는 마케팅 효과를 기대할 수 있음


ž 배차 서비스에 크루즈 AV를 우선 공급하는 것이 자동차를 최대한 팔아야 하는 GM에 손해가 될 수도 있으나, 신차 시장이 줄어드는 상황에 적극 대응하기 위한 것으로 보임


Ø 크루즈 AV은 부품 비용이 동급 엔진의 차량 모델에 비해 수천만 원은 높기 때문에 판매가가 높을 수밖에 없으며, 따라서 개인에 판매할 경우 살 수 있는 고객의 수는 제한됨


Ø 부품 가격이 높은 이유는 크루즈 AV에 탑재하는 주요 환경 인식 센서의 수 42개에 이르고 고성능 컴퓨터도 여러 대 탑재되기 때문


Ø 또한 운동제어부의 부품 모두 어느 한 계통이 고장 나도 정상적으로 주행할 수 있는 기능안전(Fail Operational) 방식으로 되어 있어 부품 수가 크게 늘어나기 때문


Ø 게다가 크루즈 AV는 쉐보레(Chevrolet) 브랜드의 전기자동차 볼트(Bolt)를 기반으로 개발 중인데, 볼트는 소형차이지만 고가의 대용량 배터리를 탑재하고 있어 판매 가격이 유사 차종에 비해 약 3 7천 달러 가량 높은 편임


<자료> General Motors


[그림 2] 볼트 EV 기반의 크루즈 AV


Ø 크루즈 AV의 가격이 개인이 구매하기엔 부담스럽지만, 배차 서비스 업체라면 운전자 인건비가 들지 않고 가동 시간을 늘릴 수 있는 장점을 기대할 수 있어 추가 매입 가격이 얼마나 단기간에 회수될 지는 두고 봐야 하지만 수요는 있다는 평가


Ø GM 입장에서는 배차 서비스 업체에 차량을 판매하는 것이 개인들에게 판매하는 것에 비해 손해이지만, 당장은 개인 수요가 불투명해 배차 서비스 업계에 마진을 낮추더라도 대량으로 공급하는 전략을 택할 것이란 게 자동차 산업 애널리스트들의 전망임



Ø 한편 이윤이 낮아짐에도 GM이 배차 서비스용 무인 차량을 우선 개발하는 것은 배차 서비스로 인해 향후 미국의 신차 시장이 줄어들 것으로 전망되기 있기 때문이란 분석도 있음


Ø KPMG에 따르면 2030년 미국의 신차 판매 대수는 1,620만 대로 2016년에 비해 130만 대가 줄어들 것으로 예측했는데, 내역을 보면 배차 서비스 등과 결합된 무인 차량이 300만대 규모로 성장하는 반면 세단 등 개인 소유 차량은 약 420만 대로 크게 줄어든 전망


Ø 만약 예측대로 시작이 변해간다면 개인 대상 판매가 중심인 GM 등 자동차 업체에 타격이 클 것이며, 게다가 웨이모를 비롯한 IT 대기업들이 새롭게 성장하는 시장을 선점할 것이기 때문에, GM으로서는 무인 택시 개발이 공격인 동시에 방어 전략인 측면이 있음


<자료> KMPG


[그림 3] 2030년 미국 신차 시장 전망


ž 구글 등에 가려져 잘 알려지지 않았지만 GM의 자율운전차 연구개발의 역사는 오래 되었으며, 자동차 업계에서는 자율운전 연구의 선구자로 인정받고 있음


Ø 80년 전인 1939년 뉴욕 국제 박람회에서 GMFuturama(퓨처라마)라는 제목의 세밀한 디오라마 연출을 통해 고속도로를 자동으로 달리는 자동차의 미래 이미지를 선보인 바 있는데, 자율주행이 IT 기업에 의해 제시된 개념은 아님을 엿볼 수 있음



Ø 비교적 최근에도 자율운전 기술의 전환점에 GM이 밀접한 관련이 있는데, 치열한 기술 경쟁의 계기가 된 2007DARPA(방위고등연구계획국) 개최 자율운전차 경주 대회에서 우승 한 카네기 멜론 대학에 차량을 제공하고 개발을 도운 곳이 GM이었음


Ø 그러나 당시 카네기 멜론 팀의 개발 리더였던 크리스 우름슨은 대회 종료 후 구글에 들어가는데, GM도 초빙했다고 하나 구글에 납치되다시피 했다는 후문이며, 이런 배경을 놓고 보면 GM에게 구글은 악연의 적수라 할 수 있음


ž GM은 크루즈 AV의 개발에 있어 안전성과 신뢰성을 중시하고 있음을 강조하고 있는데, 자동차 양산 경험이 없는 웨이모와 차이를 가장 잘 보여줄 수 있는 지점으로 보기 때문


Ø GM은 크루즈 AV 1983년 설립된 미시간주 오리온 공장에서 양산할 계획인데, 수십 년에 걸쳐 발전시켜 온 설비 및 공정을 통해 생산함으로써, 자체 자동차 공장이 없는 웨이모 등 ICT 기반 신흥 자동차 업체들과 차별성을 보여준다는 전략임


Ø 실제 안전성과 신뢰성은 자율운전 자동차의 판매에서 가장 중요한 요소가 될 가능성이 높은데, 가트너의 2017년 설문 조사에서 55%의 응답자가 기술적인 결함에 대한 불안을 이유로 자율운전 자동차를 타고 싶지 않다고 답했음


Ø 이는 자동차의 안전성이 곧 생명과 직결되기 때문으로, 향후 안전성과 신뢰성에 관해 소비자의 마음을 얻을 수 있는지 여부가 자율운전 차량의 매출을 크게 좌우할 것임을 시사


Ø GM은 개발 방식에 있어서도 웨이모에 비해 안전성과 신뢰성에서 우위에 있다고 어필하고 있는데, 하드웨어와 소프트웨어를 모두 자사에서 개발한다는 것을 근거로 들고 있음


Ø GM과 달리 현재 웨이모는 분업 체계를 선택하여, 웨이모가 소프트웨어를 담당하고 파트너인 미국 피아트·크라이슬러·오토모빌스(FCA)가 차량의 개발과 생산을 담당하고 있음


Ø 이에 대해 GM은 방대한 소프트웨어와 수만 개 부품의 하드웨어로 구성되는 자율운전 차량의 특성상, 분업은 신뢰성 높은 시스템의 개발과 평가를 원활하게 진행하기가 어려운 방식이라 주장하고 있음


Ø GM 2016년에 자율운전 소프트웨어를 개발업체인 크루즈 오토메이션(Cruise Automation)을 약 10억 달러에 인수해 GM 내부로 포섭한 바 있음


Ø 이를 통해 하드웨어와 소프트웨어 팀 간의 긴밀한 협력을 통해 모든 시스템의 잠재적인 고장 패턴을 분석하여 안전하고 신뢰할 수 있는 무인 자동차를 생산할 수 있게 되었다는 것을 자신들의 장점으로 어필하고 있음


ž 주행 성능 면에서도 GM은 웨이모에 대해 우위라고 은근히 주장하는데, 2019년에 시작할 배차 서비스를 주행 환경이 복잡한 도심에서 시작할 것임을 내비치고 있기 때문


Ø 웨이모는 2018년부터 애리조나주 피닉스의 교외 지역에서 무인 차량을 이용한 배차 서비스를 정식 시작할 계획인데, 피닉스는 도심에 비해 교통량이 적고 도로 정비가 잘돼 있기 때문에 사고가 일어날 가능성은 상대적으로 낮은 지역이라 할 수 있음


Ø GM은 상용화 시점은 웨이모에 비해 늦었지만 교외에서 서비스를 하는 웨이모에 비해 주행 성능은 자신들이 뛰어나다는 것을 보여주려 하고 있음


Ø GM은 도로 주행 시험 허가 신청서와 함께 공개한 자료(☞클릭) 를 통해 도심인 캘리포니아주 샌프란시스코와 교외 지역인 피닉스 근교의 교통 환경이 어떻게 차이 나는지를 의도적으로 강조하였음


Ø 긴급 차량의 운행대수나 좌우 회전 교차로의 수가 샌프란시스코에 훨씬 많다는 것을 강조한 것인데, 주행 환경이 쉬운 피닉스에서 서비스를 시작하는 웨이모를 강하게 의식한 것이 분명해 보임


Ø GM은 현재 샌프란시스코 이외에 미시간주 디트로이트에서 도로 주행 테스트를 하고 있는데, 향후 대도시 뉴욕에서도 테스트를 시작할 예정이며, 도심 중심의 주행 테스트에 주력함으로써 웨이모를 추격한다는 전략임


[1] GM과 웨이모의 자율주행 테스트 환경의 비교(자율주행 1천 마일 당 빈도)

운행 조작/시나리오

샌프란시스코(GM)

피닉스 교외(웨이모)

비율

좌회전

1,462

919

1.6:1

차선 변경

772

143

5.4:1

공사로 인한 차단 차선

184

10

19.1:1

반대편 차선을 이용한 통행

422

17

24.3:1

공사 현장 주행

152

4

39.4:1

응급 차량

270

6

46.6:1

<자료> General Motors


Ø 반면 GM은 자율주행 테스트 총 주행거리를 밝히고 있지는 않은데, 주행거리는 지금까지지 누적 400만 마일을 테스트한 웨이모가 자신들의 안전성과 신뢰성을 어필하는 요소로 강조하는 포인트이고, GM이 단기간에 따라잡기란 불가능하기 때문


ž GM의 기술에서 핵심 개념은 중복 설계(Redundancy)인데, 안전과 신뢰성을 위해 주요 기능의 구동이 실패한 경우에도 주행을 계속할 수 있는 구조를 갖추고 있음


Ø IT 시스템 구축에서 중복 설계(리던던시)는 비용을 높이더라도 무중단 가동 환경을 만드는 것인데, 트레이드-오프 관계에 있는 비용과 안전성의 두 요소를 놓고 GM은 자율운전차 판매에서 안전이 가장 중요하다고 생각해 비용을 높여 안전성을 선택한 것으로 보임


Ø GM에 따르면 크루즈 AV의 자율운전 시스템에는 인식(Perception)-주행 계획(Planning)-차량 제어(Control)의 세 가지 주요 기능이 있는데, 모두 중복 설계 되었다고 함


Ø 예를 들어 인식 기능은 차량 주변 객체의 위치와 속도, 방향, 종류를 계산하는 것인데, 핵심은 차량 주위 360도를 인식하는 센서 군으로, 작동 원리가 다른 3 종류의 센서를 사용하는 것에 더해 동일한 장소를 복수의 센서로 감지하도록 중복 설계하였음


ž 크루즈 AV는 라이더(LIDAR, 적외선 레이저 센서) 5, 카메라 16, 밀리파 레이더 21개를 탑재했는데, 한 센서가 작동하지 않아도 다른 센서로 주위 360도 인식 기능을 유지함


<자료> GM


[그림 4] 크루즈 AV 지붕의 5대 라이더 센서


Ø 3종류의 센서 중 핵심은 라이더로, 라이더 하나 만으로도 안전하게 주행할 수 있는 기본 기능을 구현할 수 있는데, GM 2017 10월 라이더를 개발하는 스타트업 스트로브 (Strobe)를 인수하고 기술 고도화에 투자하고 있음


Ø 밀리파 레이더는 주로 이동하는 물체의 감지를 담당하며 라이더를 지원하는데, 전파의 반사에 의해 차량과 이동하는 객체의 상대 속도를 측정하는 데 강점이 있음


Ø 라이더와 밀리파 레이더는 각각 레이저()와 전파를 이용해 측정 원리가 다르기 때문에 레이저의 반사율이 낮은 경우 전파의 반사로 보충하는 보완 관계가 형성됨


Ø 카메라는 물체의 색상과 모양을 고화질로 감지 할 수 있어 거리와 속도를 감지하기 보다 주로 물체의 분류와 추적에 사용하지만, 여러 대의 카메라로 거리를 감지하는 기능을 갖출 수 있어 라이더가 구동하지 않을 경우 어느 정도 기능을 대체할 수 있음


Ø 인식 기능에는 센서 군에 의한 물체 감지 외에도 자기 위치 추정(Localization) 기능이 포함되는데, 이는 자율운전의 근간으로 만일 실패하여 추정의 정확도가 크게 떨어지면 자율운전이 불가능하므로 GM은 여러 방법으로 추정이 가능하도록 중복 설계하고 있음


Ø 가령 내비게이션 기능에서는 일반적인 GNSS(위성위치확인시스템)와 자이로 센서를 결합하는 방법과 라이더 등으로 측정한 특징물과 고정밀 지도 데이터의 위치를 ​​대조하는 방법 등을 동시에 이용해 자기 위치를 추정하고 있음


ž 인식 결과를 바탕으로 주행 계획을 수립하게 되며, 여기에서 중요한 것은 행동예측과 보이지 않는 영역에 대한 고려인데, GM은 이 기능에 딥러닝을 적용하였음


Ø 주행 계획에는 내비게이션과 마찬가지로 목적지까지의 경로를 계산하는 매크로 주행 경로 결정과 사고 확률을 줄이기 위한 마이크로 주행 경로 결정이 포함되는데, 최근 중요성이 강조되는 것은 마이크로 주행 경로 결정임


<자료> GM


[그림 5] 마이크로 주행 경로의 결정


Ø 마이크로 주행 계획은 우선 센서에서 인식한 주변 객체의 3 차원 모델을 구축해 정밀 지도 데이터에 가상으로 배치한 다음 객체의 종류와 속도 등의 계산 결과를 바탕으로 지도 데이터에서 객체 모델의 움직임을 예측하는 것임


Ø 차량과 보행자, 트럭, 자전거 등의 종류에 따라 움직이는 방법이 매우 다양하기 때문에 이를 고려하여 행동 예측에 반영시키게 됨


Ø 그런 다음 인식 기능으로 계산한 주행 한계의 결과와 조합하여 차량이 달릴 범위를 결정하게 되는데, 주행 가능 범위 내에서 사고의 위험이 낮고 빠르게 달릴 수 있는 경로를 그리고 그 경로에 따라 차량이 움직이도록 함


Ø 주행 한계의 계산은 인공지능(AI)의 일종인 딥러닝(심층 학습)을 사용하는데, 주행 한계는 일반적으로 흰색 선이나 가드 레일, 차도와 인도의 턱 등을 통해 쉽게 찾을 수 있음


Ø 그러나 외곽 도로의 경우 흰색 선이 없어 주행 한계를 이해하기 어려운 곳이 자주 나타나기 때문에, 주행 한계를 결정할 때 달릴 수 없는 영역으로 분류된 곳의 수 많은 이미지를 이용해 훈련시킨 AI의 판단이 효과를 발휘할 수 있음


Ø 주행 경로의 결정에서 GM은 특히 센서에 보이지 않는 영역의 처리를 위한 연구를 중요시하고 있는데, 비나 안개, 다른 객체에 가려 보이지 않는 영역을 파악하고 안전한 경로를 결정하는 데 연구 결과를 적용하고 있음


Ø 가령 지도 데이터의 보이지 않는 영역에 가상의 깃발(플래그)을 세우고, 그 깃발 지점에서 물체가 갑자기 튀어 나오는 위험을 계산한 후, 그 결과값을 가미하여 주행 경로를 신중하게 결정함으로써 운행의 안전도를 높이고 있음


ž 주행 계획의 계산에도 중복 설계를 하고 있는데, 경로 결정 대로 주행이 제대로 실행되지 않을 경우에 대비해 항상 여러 백업 경로를 준비해 두도록 하고 있음


Ø 크루즈 AV는 초당 10회 정도의 경로를 계산하여 이 중 가장 안전하고 빠르게 달릴 수 있는 경로 선택을 기본 원칙으로 하고 있음


Ø 그러나 예상대로 주행이 이루어지지 않을 때를 대비해, 가령 차선을 변경하는 경로를 선택했을 때 갑자기 다른 차가 변경하려는 주행 경로를 차단했을 때는 원래 차선으로 달리는 등 백업으로 준비하고 있던 경로로 즉각 전환하도록 하고 있음


Ø 주행 계획의 연산에는 통신(Networking) 기능도 활용되는데, 다른 크루즈 AV 차량이 인식한 정보를 경로 계획에 반영하는 것으로, 다른 차량이 인식한 정보를 클라우드로 통합한 후 네트워크를 통해 모든 크루즈 AV 차량이 공유하도록 하고 개발하고 있음


Ø GM은 이를 두고 한 대가 학습한 것을 모든 차량이 학습한다고 표현하는데, 일반 자동차에 없는 장점으로 크루즈 AV의 안전 운전에 크게 기여할 것으로 기대하고 있음


ž 차량 제어 기능은 주행 계획에 따라 가속과 감속, 조향을 제어하는 것인데, 차량 제어에 관련된 전기 계열 하드웨어 부품을 모두 이중화하였음


Ø 예를 들어 자율운전 기능의 주요 ECU(전자제어장치)를 두 개 탑재하는 것인데, 한 컴퓨터가 구동에 실패할 경우 동시에 계산하고 있던 다른 한쪽이 연산을 이어받게 됨


<자료> GM


[그림 6] 크루즈 AV 주요 배선의 이중화


Ø 이 때 2개의 ECU가 상호 감시하는 구조에서는 어느 쪽이 실패했는지 결정할 수 없기 때문에 GM ECU를 전체 시스템의 고장 유무를 항상 감시하는 자자가 진단 ECU를 또 하나 탑재하였음


Ø 이 진단 ECU가 있으면 다수결로 어떤 ECU가 실패했는지 결정할 수 있기 때문에, 실패한 ECU의 신호를 사용하지 않고 남아 있는 정상적인 ECU의 신호로 차량을 제어하게 됨


Ø 주요 기능의 전원 공급 장치 역시 2개의 계통을 준비하는데, 주 전원이 실패하면 백업 전원에서 주요 ECU와 인식 센서, 스티어링, 브레이크 등에 전력을 공급함


Ø 특히 브레이크에 대해서는 전용 카메라를 별도로 설치하여 일반적인 자율운전 기능 용도 이외에 자동 브레이크 기능을 추가로 탑재하고 있음


Ø 주요 ECU를 연결하는 신호선도 이중으로 하여 한쪽 통신이 끊어진 경우 다른 쪽으로 신호를 교환하도록 하고 있음


Ø 또한 확률은 낮지만 주요 부품과 백업 부품이 고장 나는 경우에 대비한 방안도 강구하고 있는데, 이 경우 페일 세이프(fail safe) 기능을 통해 안전하게 정지한다고 함


ž 크루즈 AV는 주행 계획 등에 통신 기능을 이용하고 있기 때문에, 무선 통신을 통해 해킹이 발생할 경우 중대 사고로 이어지게 되므로 GM은 보안 대책에도 주력하고 있음


Ø GM이 인수한 크루즈 오토메이션에는 자동차 업계의 화이트 해커로 가장 유명한 두 사람이 있는데, 찰리 밀러 (Chary Miller)와 크리스 발라섹(Chris Valasek)


Ø 이 둘은 2013년 도요타 프리우스를 해킹하여 주목을 받았으며, 이후 우버 등을 거쳐 크루즈 오토메이션에 일하던 중 GM의 인수로 현재는 크루즈 AV 보안 개발에 참여하고 있음


Ø 보안을 위해 GM은 소프트웨어의 취약점을 포괄적으로 분석하는 도구 및 잠재적인 위협을 업스트림(상위 공정)에서 발견하여 제거하는 위협 모델링 등을 활용 중이라고 하며, 통신에 메시지 인증 기능과 함께 침입 탐지 기능을 도입했다고 함


ž 웨이모가 크게 앞서는 듯 보이던 자율운전차 시장에 전통의 자동차 업체 GM이 강력한 대항마로 나섬에 따라 2018년 자율운전차 시장의 상용화 모멘텀은 더욱 커질 전망


Ø 웨이모는 주행거리를, GM은 주행환경의 난이도를 강조하는 것으로 나타나고 있으며, 서비스 업체와 소비자의 마음을 얻기 위한 양사의 경쟁 과정에서 기술의 발전과 소비자 인식 전환, 상용 서비스 완성도 제고가 극적으로 전개될 것으로 기대되고 있음

※ 아래 글은 정보통신기술진흥센터(IITP)가 발간하는 주간기술동향 1836호(2018. 3. 7. 발행)에 기고한 원고입니다.


▶ IITP에서 PDF 포맷으로 퍼블리싱한 파일을 첨부합니다. 가독성이 좋으니 참고하시기 바랍니다.

AI를 이용한 지진 감지 시스템, 기존 시스템보다 17배 이상 감지.pdf



ž 하버드 대학의 티보 페롤 교수 연구팀은 인공지능(AI)을 이용한 지진 감지 및 위치 확인 시스템 ConvNetQuake(컨브넷퀘이크)를 개발하였음


Ø 연구팀에 따르면 지진은 사람들이 생각하는 것 보다 훨씬 더 일상적으로 일어나는 현상으로, 남부 캘리포니아 지역만 해도 매년 약 1만 번의 지진이 발생하고 있음


Ø 오클라호마가 속한 미국 중남부의 경우 그보다 더 많은 지진이 해마다 발생하는데, 석유 및 가스 개발업체들이 산업 폐수를 지하 깊숙이 주입하는 것이 원인으로 추정되고 있음


Ø 이들 지진의 대부분은 사람들이 느끼지 못하지만 그런 수많은 지진을 이해하는 것은 아주 중요한데, 미세한 지진에 대한 정보를 가지고 있으면 지진을 일으키는 원인이 무엇인지 결정할 수 있으며, 어쩌면 지진을 막을 수 있는 방안을 마련 할 수도 있을 것이기 때문


Ø 티보 페롤이 이끄는 연구팀은 모든 규모의 지진 발생을 예측할 수 있는 방법을 고안함으로써 지역사회가 지진에 대해 보다 잘 대처할 수 있게 하기 위해 연구를 시작했다고 함


Ø 기존의 시스템이 체감할 수 없을 정도로 경미한 지진의 감지에 어려움을 겪고 있는 문제를 해결하기 위해 모든 지진을 감지하기 위해 ConvNetQuake라는 새로운 시스템을 개발하게 되었다는 설명


<자료> Futurism


[그림 1] 산업 폐수에 의해 발생하는 지진


ž ConvNetQuake는 진동기록(seismogram, 사이즈모그램)을 이용해 지진을 감지하고 발생 지점을 식별하는 최초의 신경망으로 기존 시스템보다 17배나 더 많이 감지한다고 함



Ø 연구팀이 지진 감지에 특화 시킨 알고리즘은 사이즈모그램이라 알려진 지반 운동을 자세히 모니터링 할 수 있으며, 지반의 움직임이 단순한 노이즈인지 아니면 지진인지를 결정할 수 있음


<자료> Futurism

[그림 1] 산업 폐수에 의해 발생하는 지진

Ø 지금까지 아주 작은 지진의 감지가 어려웠던 것은 바로 이 노이즈 때문이었는데, 연구팀에 따르면 ConvNetQuake는 노이즈와 지진을 명확히 구분할 수 있다고 함


Ø 연구팀은 이 신경망을 훈련시키고 테스트하기 위해 오클라호마의 지반 운동 기록을 사용했는데, 오클라호마 지리 연감에 기록된 것보다 17배나 많이 지진을 감지하였음



Ø ConvNetQuake가 기존 지진 감지 방법보다 우월하다고 쳐도 이 시스템은 단지 지진을 감지만 할 수 있으며 예측하지 못하는 한계가 있는데, 예측할 수 있는 방법이 고안되기 전까지는 초기 감지만이 지진이 야기하는 대재난을 막을 수 있는 최선의 희망이라고 함


※ 아래 글은 정보통신기술진흥센터(IITP)가 발간하는 주간기술동향 1836호(2018. 3. 7. 발행)에 기고한 원고입니다.


▶ IITP에서 PDF 포맷으로 퍼블리싱한 파일을 첨부합니다. 가독성이 좋으니 참고하시기 바랍니다.

AI를 이용한 지진 감지 시스템, 기존 시스템보다 17배 이상 감지.pdf



ž 반도체 설계기업 Arm 2월 마지막 주에 유럽에서 개최된 2개 컨퍼런스에서 1조 개의 센서 연결을 위한 보안 기술과 제품을 연이어 발표하였음


Ø ARM은 독일 뉘른베르크에서 개최된 임베디드 월드(embedded world) 2018과 스페인 바르셀로나에서 열린 모바일 월드 콩그레스(Mobile World Congress) 2018에서 보안 관련 기술을 발표하고 3개의 블로그 포스트를 통해 제품을 알기 쉽게 소개


Ø ARM 2017 10월 자사 주체 연계 이벤트인 Arm TechCon 2017에서 1조 개의 기기와 센서를 보안성 있게 연결하기 위한 기술 사양으로 Platform Security Architecture: PSA를 발표한 바 있음


Ø 2월 말의 두 컨퍼런스에서 Arm이 발표한 기술과 제품은 PSA를 구현하는 모듈로 자리 매김되며, PSA에 대한 이해를 구체화할 수 있는 첫 제품이라는 점에서 의의가 있음


ž 3개의 포스트 중 첫번째는 Arm의 부사장이자 IoT 디바이스 부문을 담당하고 있는 폴 윌리엄슨이 작성한 것으로, PSA 3가지 단계로 이루어진 것임을 재차 소개하였음


Ø 3가지 단계는 Analyze(위협 모델 및 보안 분석 단계), Architect(보안 하드웨어 및 펌웨어 아키텍처의 사양), Implement(펌웨어 소스 코드 레퍼런스 구현)


Ø 블로그에 따르면 2월 말의 두 컨퍼런스에서는 Analyze(분석) 단계의 첫 행보로 3 IoT 기기의 TMSA(Threat Models and Security Analyses) 문서를 공개한 것임


Ø 3 IoT 기기는 스마트 수량계(smart water meter)와 수하물 추적 장치(asset tracking device), 웹 카메라로, 각 기기에 대한 3TMSA 문서를 참조하면 보안 요구 사항을 정의하기가 쉬워진다고 함


Ø Architect 단계의 첫 행보로 Trusted Base System Architecture-M(TBSA-M)이라는 문서를 준비 중이라고 밝혔는데, 이는 IC 설계자를 위한 하드웨어 보안 사양 가이드로 현재 주요 파트너와 리뷰 중에 있다고 함


Ø 또한 PSA Compliance & Certification Program(PSA 준수 및 인증 프로그램)도 발표했는데, 이는 ArmPSA를 둘러싼 에코 시스템 구축을 목표로 하고 있을 보여 줌


Ø 이 프로그램을 이용하면 개발업체들은 구현의 보안 수준을 쉽게 확인할 수 있으며, 높은 수준의 보안 API 세트를 제공받아 소프트웨어 개발자의 보안 작업을 줄일 수 있다고 함


ž 두 번째 포스트 역시 폴 윌리엄슨이 작성한 것으로 휴대전화 인증에 사용되는 SIM 기술을 이동통신 연결 유형의 IoT 기기에 적용 할 수 있는 신제품에 대해 소개하고 있음


Ø SIM(Subscriber Identity Module) 기술을 셀룰러 망에 연결된 IoT 기기에 응용할 수 있게 해주는 신제품의 명칭은 Arm Kigen(카이겐) 패밀리


<자료> Arm


[그림 1] Arm 카이겐 패밀리 시스템 개요


Ø Arm 카이겐 패밀리는 클라우드 측의 서버 전용 Arm Kigen Server Solutions와 클라이언트인 IoT 기기에 탑재된 시스템온칩(SoC)에서 실행되는 Arm Kigen OS로 구성됨


Ø 이 제품은 GSMA SIM 사양인 eUICC(SGP.01, SGP.02, SGP.21, SGP.22)에 따라 클라우드 측의 IoT 기기를 인식하는 방법 등을 제공함


Ø SIM의 기능은 Arm Kigen OS가 제공하는데, OSArm의 보안 IP 서브 시스템에 포함된 Arm TrustZone CryptoIsland 등으로 만들어진 보안 영역에서 실행됨


Ø Arm Kigen OS를 사용하여 SIM MCU, RF를 하나의 칩으로 만들어 IoT 기기에 탑재하면, 3개의 칩으로 구성된 기존 기술에 비해 저전력화를 도모할 수 있다고 함


Ø 윌리엄슨 부사장에 따르면 휴대전화나 스마트폰의 경우 이동통신사를 바꿀 때 SIM 카드를 물리적으로 교체할 필요가 있지만 Arm 카이겐은 교체할 필요가 없다고 함


ž 세 번째 포스트는 ArmIoT 서비스 그룹 사장인 디페쉬 파텔이 작성한 것으로 SaaS 형태로 제공 중인 Mbed Cloud(엠베드 클라우드)'의 확장에 대해 설명하였음


Ø Mbed Cloud2016Arm TechCon에서 발표된 것으로 IoT 기기 관리 등을 위한 SasS(소프트웨어 대여 서비스)로 클라우드를 통해 제공되는 서비스임


Ø 이번에 ArmMbed Cloud의 온-프레미스 버전인 Mbed On Premises를 새로 발표했는데, 신제품을 통해 각 기업이 구축한 사설 클라우드와 다른 기업이 제공하는 IaaS(인프라 대여 서비스)도 지원할 수 있게 되었다고 함


<자료> Arm


[그림 2] 공용 클라우드의 IoT 기기와 사설 클라우드의 IoT 기기를 한 곳에서 관리 가능


Ø 디페쉬 파텔 사장은 Arm이 지원하는 IoT 네트워크의 범위가 더욱 확장될 것이라 설명함


Ø 가령 센서와 같이 연산 능력이 낮은 IoT 기기는 완전한 기능을 갖춘 임베디드 OS를 탑재하지 못하며 IP 통신도 지원할 수 없으나, Arm은 이렇게 연산 능력이 약한 기기들도 IoT 네트워크에 연결시킬 수 있는 구조를 준비 중이라고 함


Ø 또한 그는 Arm의 임베디드 OSMbed OS의 새로운 기능에 대해서도 설명하였는데 LPWA(Low Power Wide Area, 저전력 광역통신기술)의 지원이 강화되었다고 함

※ 아래 글은 정보통신기술진흥센터(IITP)가 발간하는 주간기술동향 1835호(2018. 2. 28. 발행)에 기고한 원고입니다.


▶ IITP에서 PDF 포맷으로 퍼블리싱한 파일을 첨부합니다. 가독성이 좋으니 참고하시기 바랍니다.

차세대 동작 인식 기술 발표 봇물, 소형화∙저전력화가 특징.pdf



[ 요 약 ]


마이크로소프트가 키넥트를 발표한 이래 동작 인식 기술은 게임뿐만 아니라 의료제조업 등 다양한 분야에서 새로운 인터페이스 방식으로 점차 확산되어 가고 있음최근 반도체 및 센서 기술의 발전에 힘입어 새롭게 업그레이드 되고 있는 차세대 동작 인식 기술은 소형화경량화저전력화가 특징이어서 스마트폰을 비롯해 보다 다양한 기기에 탑재될 가능성을 획득함으로써동작 인식의 활용이 보다 광범위하게 이루어질 수 있는 모멘텀을 확보하고 있음



[ 본 문 ]


ž 집적회로 기술 관련 국제 컨퍼런스인 International Solid-State Circuits Conference(ISSCC) 2018에서 차세대 동작 인식 기술이 잇따라 발표되었음


Ø 손이나 몸의 움직임을 인식하여 기기 조작의 인터페이스로 사용하는 동작(gesture) 인식 기술은 2010년 출시된 마이크로소프트의 동작 입력 컨트롤러 키넥트(Kinect)를 계기로 대중적으로 알려지기 시작했음


Ø 키넥트는 MS의 게임 콘솔인 X박스와 짝을 이루며 주로 게임 분야에서 활용되었으나, 그 밖에도 직접 기기 조작이 어려운 수술실에서 이용하는 등 점차 응용처가 확산되어 왔음


<자료> Marnent


[그림 1] 수술실의 동작 인식 인터페이스


Ø 최근에는 VR(가상현실)/AR(증강현실) 애플리케이션에서 활용이 적극 모색되고 있기도 하며, 스마트폰이나 헤드마운트디스플레이(HMD)에 동작 인식 기술을 탑재하려는 움직임도 시작되었음


Ø 2월 중순에 샌프란시스코에서 열린 ISSCC 2018 컨퍼런스에서는 이처럼 새로운 분야에 적용될 것을 겨냥한 차세대 동작 인식 기술들이 다수 선보였는데, 신기술들은 이전의 동작 인식 기술에 비해 소비 전력과 비용은 절감하고, 계측 성능은 대폭 강화한 것이 특징임


ž 차세대 동작 인식 기술들은 우선 적외선을 사용하지 않아 전력 및 비용을 크게 절감하고고 있는데, 우리나라의 KAIST가 선보인 손 동작 인식 IC 칩이 대표적


Ø 동작 인식 입력 컨트롤러에서 사용하는 심도 이미지 센서의 경우, 빛을 쐰 후 되돌아 올 때까지의 비행 시간으로 거리를 추정하는 ToF(Time of Flight) 방식이 일반적임


Ø 혹은 특정한 2차원 패턴(도트)광을 대상물에 쏘이고, 촬상 소자가 획득하는 패턴광의 왜곡을 바탕으로 심도를 측정하는 SL(Structured Light) 방식을 사용하기도 함


Ø ToF SL 방식 모두 비교적 정밀하게 동작을 인식할 수 있지만 적외선을 이용하므로 발광 소자나 수광 소자 등의 광학 소자가 필요하기 때문에, 그 만큼 소비 전력의 증가나 비용 상승으로 이어지기도 쉬움


Ø 이런 문제를 해결하고자 올해 ISSCC에서는 적외선을 이용하지 않는 방법의 제안이 잇따랐는데, 대표적으로 KAIST는 스테레오 카메라를 이용해 전력 소모가 작은 손짓 인식 IC의 프로토타입을 제작하여 선보였음


Ø KAIST는 좌우 한 쌍의 카메라 이미지에 대해 대응점을 탐색하고 시차 정보로부터 이미지의 심도 정보를 얻는 스테레오 매칭 방식을 채택하였음



<자료> ISSCC


[그림 2] KAIST가 시험 제작한 손 동작 인식용 IC의 주요 사양()과 데모 장면(아래)


Ø 스테레오 매칭 방식은 ToF 방식 등에 비해 전력 소모가 작은 장점이 있지만, 손짓의 오인식이 발생하기 쉽다는 문제가 있었는데, KAIST는 손의 식별과 심도 추정에 인공지능 알고리즘의 하나인 CNN(Convolutional Neural Network)을 이용하여 인식의 정확도를 높였음


Ø 구체적으로는 말하면, KAIST의 방식은 20~40cm의 손 동작 인식 범위에서 추적 오차 (hand tracking error)가 평균 4.3mm 정도에 불과하고, 프로토타입 IC의 소비 전력은 한손 인식 시에 9.02 mW, 양손 인식 시에 31.2 mW로 매우 낮음


Ø KAIST 팀은 프로토타입 IC를 구현한 USB 동글을 스테레오 카메라 장착 노트북에 끼워 손짓을 인식하는 데모를 선보였는데, 가상 공간에 나타난 입방체를 손으로 잡거나 늘리는 모습을 보여주었음


ž 밀리미터파를 이용하여 저전력으로 동작을 인식하려는 기술도 나왔는데, 이런 방식의 데모는 인피니온(Infineon)과 텍사스 인스트루먼트(Texas Instruments, TI)가 선보였음


Ø 인피니온은 ISSCC에 논문을 투고·발표한 것이 아니라, ISSCC의 담당 위원으로 추천 및 승인된 기업이 자사 제품과 기술을 홍보할 수 있는 인더스트리 쇼케이스(Industry Showcase)를 통해 기술을 공개하였음


Ø 인피니온은 소비 전력 100 mW 미만의 소형(12.5mm × 9mm × 0.8mm) 동작 인식 밀리미터파 레이더(트랜시버) IC를 개발했는데, 측정 거리가 10m로 길다는 점도 특징


Ø TI는 시험 제작한 밀리미터파 레이더용 트랜시버 IC를 사용하여 동작 인식 데모를 보여주었는데, IC는 이번 ISSCC에서 구두 발표된 것으로 주로 자율운전에서 차량 밖의 상황을 감지하기 위해 사용될 것이라고 함


Ø 그러나 TI는 원거리뿐만 아니라 근거리에서도 사용할 수 있음을 어필하기 위해 손가락의 움직임을 인식할 수 있다는 것을 데모 세션에서 선보였는데, 데모는 운전석 주변의 조작 패널에 적용하는 것을 가정한 것이었음


ž 이 밖에도 노르웨이의 스타트업인 엘립틱 랩(Elliptic Labs)이 인더스트리 쇼케이스에서 초음파를 이용한 동작 인식 기술을 선보였음


Ø 엘립틱 랩은 초음파의 가상 센서로 손짓을 인식하는데, 자신들의 인식 알고리즘을 채택한 소프트웨어를 스마트폰에 탑재하면, 전용 센서를 추가하지 않고도 동작 인식을 가능하게 해주기 때문에 가상 센서라 부르고 있음


Ø 엘립틱 랩은 이미 스마트폰에 탑재되어 있는 스피커를 초음파 송신기로, 마이크를 수신기로 이용하기 때문에 만약 스마트폰에 여러 개의 스피커가 내장되어 있다면 동작 인식의 정확도는 더욱 높아진다고 함


ž 동작 인식에 사용하는 ToF 방식의 심도 이미지 센서에서도 큰 진전이 있었는데, 마이크로소프트는 이번 ISSCC에서 100만 화소가 넘는 ToF 센서용 수광 소자를 발표하였음


Ø MS가 발표한 이미지 센서의 유효 화소 수는 1024×1024 픽셀, 화소 사이즈는 3.5μm각이며, 이 화소에 초당 30 프레임의 프레임 속도로 작동시킬 경우 소비 전력은 650 mW로 낮은 편이고, 칩 크기는 9.8mm×5.4mm 65nm 제조 공정에서 만들어진다고 함


Ø 또한 글로벌 셔터(global shutter)를 지원하기 때문에 빠른 몸짓을 보다 정확하게 인식할 수 있게 된 것도 특징임


Ø 전자제어 셔터에는 롤링 셔터(Rolling Shutter)와 글로벌 셔터 방식이 있는데, 롤링 셔터는 포컬 플레인에 있는 두 개의 차광막을 순차적으로 열고 닫는 구조여서 이미지 센서가 한 라인씩 신호를 읽게 되므로, 뒤로 갈수록 증가된 신호량의 적체 문제가 발생


Ø 반면, 글로벌 셔터는 전체를 동시에 노광시킨 후 한번에 닫아버리는 구조여서 한 프레임의 촬영 시점이 동일하기 때문에 시차에 의한 왜곡이 없는 장점이 있고 동영상 촬영에 보다 적합한 것으로 알려져 있음


Ø 통상 ToF 센서는 손을 빠르게 휘두르는 상태와 같이 빠르게 이동하는 객체가 있는 상황에서 배경광을 노이즈로 인식하기 때문에 거리 측정의 정밀도가 떨어지는 쉬움


Ø ToF 센서용 수광 소자는 통상 두 프레임 간의 차이를 취하여 배경광을 제거하므로, 다음 프레임이 되기 전에 객체가 움직이면 이전 프레임의 객체가 잔상으로 남아 노이즈가 되어 거리 측정 정밀도가 저하되는 것인데, 글로벌 셔터 방식이면 이런 문제가 거의 없어짐


ž MS는 시연을 통해 프로토타입 센서와 레이저 광원을 조합한 ToF 센서에 의한 측정 결과 등을 보여 주었는데, 2013년에 나온 2세대 키넥트 보다 성능이 크게 향상되었음


<자료> ISSCC


[그림 3] MS의 새로운 ToF 센서 시연 장면


Ø 고무적인 것은 광원을 포함해도 이 ToF 센서의 소비 전력이 950 mW 1W를 밑돈다는 것으로, 이는 모바일 기기에도 탑재될 수 있음을 의미하기 때문


Ø 심도의 불확실성(Depth Uncertainty) 3000 lux 미만의 밝기 환경에서 측거 범위의 0.2% 미만이었고, 측거 범위는 1024픽셀 × 1024 픽셀로 구동할 경우 0.4~4.2m였으며, FOV(시야각)은 수직과 수평 모두 120도였음


Ø 시연 결과 MS의 새로운 ToF 센서는 2세대 키넥트에 비해 성능이 크게 향상된 것으로 보이는데, 가령 화소 수는 약 4배 이상이며 소비 전력은 크게 낮아졌음


Ø 2세대 키넥트는 ToF 센서의 소비 전력이 컸기 때문에 냉각 기기가 컸고 냉각 팬도 붙어 있었으며, 따라서 키넥트 본체의 크기로는 도저히 모바일 기기에 탑재할 수 없었음


Ø 이에 비해 MS가 데모 세션에서 보여준 프로토타입의 ToF 센서 모듈은 마우스 정도의 크기였기 때문에 기술 발전 여하에 따라서는 스마트폰의 주변기기 나아가 스마트폰에 탑재될 수 있는 가능성을 보여주었음


ž 소형화-경량화-저전력화가 특징인 차세대 동작 인식 기술이 가장 먼저 활용될 분야로는 VRAR, 자동차 분야 등이 꼽히고 있으며, 특히 VR 시장의 촉매제가 될 것으로 기대됨


Ø 2016년에 고사양의 HMD들이 속속 선보이며 VR 시장이 본격화될 것이란 전망이 계속해서 제기되고 있으나 아직은 현실화되지 못하고 있음


Ø 여기에는 여러 이유가 있겠으나 센서를 외부에 놓고 HMD가 그 신호를 받아들여 위치와 동작을 인식하는 아웃사이드-인 방식으로 인한 번거로움도 한 요인으로 꼽힘


Ø 이에 비해 2세대 HMD는 센서 카메라를 HMD의 전면에 배치해 사용자의 위치와 움직임을 인식하는 인사이드-아웃 방식을 채택함으로써 PC가 필요 없는 스탠드얼론 형태를 띠고 있는데, 차세대 동작 인식 기술은 더 가볍고 편리한 HMD 출현을 촉진할 것으로 보임


Ø 자동차 분야에서는 운전자의 몸짓을 감지해 전방 주시 태만, 졸음 운전, 운전 중 전화 사용 등에 대한 경고를 알림으로써 안전도를 높이거나, 운전자의 손 동작을 인식해 에어컨을 켜거나 음악을 재생하는 등의 인터페이스를 구현해 편의성을 높여줄 것으로 기대됨

※ 아래 글은 정보통신기술진흥센터(IITP)가 발간하는 주간기술동향 1835호(2018. 2. 28. 발행)에 기고한 원고입니다.


▶ IITP에서 PDF 포맷으로 퍼블리싱한 파일을 첨부합니다. 가독성이 좋으니 참고하시기 바랍니다.

2017년 자율운전 도로 주행 테스트 결과, 기술력 1위는 웨이모.pdf



ž 캘리포니아 교통당국의 발표 결과, 자율운전 자동차의 기술력은 구글의 자회사 웨이모(Waymo)가 글로벌 자동차 대기업과 스타트업을 ​​아직 크게 앞서고 있는 것으로 나타남


Ø 캘리포니아 주는 자율운전 도로주행 테스트를 허용하고 있는 몇 안 되는 곳으로 교통당국은 주 내 도로에서 자율운전 차량을 테스트하는 기업에 대해 그 해의 시험 결과를 보고하도록 의무화하고 있음


Ø 각 사가 보고한 테스트 결과를 취합해 캘리포니아주 교통당국이 공개한 보고서(Autonomous Vehicle Disengagement Reports 2017)에 따르면, 자율운전 도로주행 거리와 AI의 운전 제어 중지 빈도 측면에서 웨이모가 모두 타사에 비해 크게 앞선 것으로 나타남


Autonomous Vehicle Disengagement Reports 2017 (20개사의 보고서를 볼 수 있는 사이트)


Ø 우선 도로주행 테스트 거리를 보면, 웨이모는 2017년에 총 75대의 자율운전 차량을 테스트했으며, 주행거리는 총 35 2,545 마일( 56만 킬로미터)이었음


Ø 웨이모의 테스트 주행거리는 2016 63 5,868 마일에 비해 절반 가량 줄어든 수치임에도 불구하고, 2017년 시험 주행거리 2위를 차지한 GM에 비해 2.7배 가량 높은 것임


Ø 자율운전 기술력과 관련해 주행거리 보다 주목해야 할 것은 AI(인공지능)이 제어 능력을 잃어 사람에게 운전 권한을 넘기는 분리(Disengagement)의 발생 횟수인데, 웨이모 자율운전 차량은 2017년에 35 2,545 마일을 달리는 사이에 63회의 분리가 발생하였음


Ø 즉 웨이모의 자율운전 AI는 현재 5,596 마일( 9,000 킬로미터) 주행 당 한 번 꼴로 판단 불능 상태에 봉착하고 있는 셈


Ø 웨이모의 과거 분리 횟수 당 주행거리를 보면, 2015년에 1,200 마일( 2,000 킬로미터) 1, 2016년에는 5,000 마일( 8,000 킬로미터) 1회였으므로, 웨이모의 자율운전 AI 성능은 꾸준히 향상되고 있음을 알 수 있음


[1] 2016.12~2017.11 캘리포니아 주 내 자율운전 테스트 기업의 AI 분리 횟수 당 주행거리

기업명

분리 횟수

주행거리(마일)

분리 1회당 주행거리(마일)

Waymo

63

352,544.6

5,596

GM Cruise

105

131,675.9

1,254

Drive.ai

93

6,127.6

255

Baidu

42

1,949.14

217

Nissan

24

5,007

207

Zoox

14

2,244

160

Telenav

50

1,581

32

Delphi Automotive

81

1,810.6

22

NVIDIA

109

505

5

BMW

598

1,595

3

Valeo North America

215

574.1

3

Mercedes Benz

773

1,087.7

1

<자료> Department of Motor Vehicles, State of California


ž 웨이모를 뒤쫓고 있는 곳은 제너럴 모터스(GM)의 자회사인 GM 크루즈(GM Cruise) 2017년에 도로 주행 테스트 거리를 전년도에 비해 10배 이상 늘렸음


Ø GM 크루즈의 AI가 사람에게 권한을 넘기는 빈도는 1,254 마일 당 1회였는데, 이는 웨이모의 2015년 수준인 1,200 마일 당 1회를 따라잡은 것임


Ø 또한 GM 크루즈의 2016년 분리 1회 당 주행거리가 54 마일이었음을 감안하면, GM 1년 사이에 자율운전 AI의 성능을 비약적으로 높였음을 유추할 수 있음


Ø GM 크루즈의 테스트에서 흥미로운 점은 자율운전 차량의 도로 주행을 샌프란시스코에서만 실시하고 있다는 것인데, 이는 웨이모가 샌프란시스코의 교외 지역인 마운틴 뷰에서 도로 테스트를 실시하고 있는 것과 대비되는 부분


Ø 샌프란시스코는 교통량이 많고 도로가 복잡하기 때문에 사람도 운전하기가 쉽지 않은 지역인데, GM 크루즈는 운행 조건이 더 나쁜 환경에서 테스트를 함으로써 웨이모의 기술력을 단기간에 따라 잡으려 하는 것으로 보임


Ø 이와 유사한 전략을 펴고 있는 곳이 샌프란시스코에 본사를 둔 스타트업 즈욱스(Zoox)인데, GM 크루즈와 마찬가지로 샌프란시스코에서만 주행 테스트를 실시하고 있다고 함


ž 캘리포니아 교통당국의 보고서를 보면 자율운전 차량들 사이에 성능의 차이가 크다는 사실을 알 수 있는데, 가장 차이가 두드러지는 것이 사람에게 권한을 넘기는 횟수임


Ø 웨이모의 자율운전 자동차가 5,596 마일 당 1회만 AI가 사람에게 권한을 인계하는 반면 메르세데스 벤츠와 BMW의 자율운전 자동차는 1~3 마일 당 1회 꼴로 AI로부터 사람으로 인계가 발생하고 있음


Ø AI용 반도체와 자율운전 소프트웨어를 조합한 자율운전 플랫폼 제공을 목표로 하고 있는 엔비디아의 시험 성적도 아직은 불안한 수준인데, 505 마일을 주행하는 동안 109회 분리가 발생하여 5 마일 당 1회 꼴로 분리가 발생하고 있음


Ø 엔비디아는 자율운전 플랫폼을 사용해 누구나 자율운전 자동차를 구현할 수 있게 함으로써 자율운전 기술의 일상용품화(Commodity)를 실현하겠다는 포부를 밝히고 있으나, 이 목표가 실현되기까지는 아직 시간이 더 필요할 것으로 보임


ž 캘리포니아 교통당국의 보고서는 자율운전 자동차의 기술 수준을 가늠하는데 매우 유용한 자료이지만, 이런 정보를 취합할 수 있는 것은 2017년이 마지막이 될 것으로 보임


Ø 가장 중요한 기술 개발 업체인 웨이모는 무인택시 시범 서비스의 허가 문제로 캘리포니아 당국과 합의에 이르지 못해 작년 말부터 애리조나로 완전 무인 자율운전 자동차의 도로 주행 테스트를 실시하고 있으며, 올해 캘리포니아에서 도로 주행 여부는 불투명함


Ø 웨이모의 캘리포니아 내 도로 주행 거리가 2016년에 비해 절반 가량으로 줄어든 데에는 이런 배경이 작용한 것인데, 웨이모는 2017년부터 애리조나 외에 워싱턴과 텍사스 주에서도 자율운전 도로 주행 테스트를 실시하고 있음


Ø 웨이모는 2017 12월 현재 자율운전 도로 주행 테스트가 총400만 마일( 645만 킬로미터)이 넘었다고 발표한 바 있는데, 이는 캘리포니아 지역 이외의 도로 테스트도 상당한 거리에 달했음을 시사하는 것임


Ø 포드 자동차 역시 2017년에 자율운전 차량 테스트 지역을 캘리포니아에서 미시간 주로 옮겼는데, 2016년에 캘리포니아에서 590 마일의 도로 테스트를 실시했던 포드였지만 2017년에는 전혀 실시하지 않았음


Ø 따라서 각 사의 자율운전 기술의 성능 차이가 어느 정도인지를 간접적으로나마 비교하려면 2018년에는 기존과 다른 데이터를 사용할 필요가 있을 것임


ž 한편 시장조사기관 내비건트 리서치(Navigant Research)는 자체 분석 툴을 이용해 평가한 결과 GM을 자율주행 종합 기술력 1, 웨이모를 2위로 발표하였음


Ø 내비건트 리서치는 자율운전 시스템을 개발하고 있는 19개 기업을 비전, 시장출시 전략, 파트너, 생산 전략, 기술, 판매 및 유통, 제품 성능, 제품 품질과 신뢰성, 제품 포트폴리오, 유지력 10개 기준으로 평가하였음


<자료> Navigant Research


[그림 1] 자율운전 기술 기업들의 순위표


Ø 그 다음 자체 순위표(leaderboard) 방법론을 이용하여 19개 기업을 선도자(leader)-경쟁자(contender)-도전자(challenger)-추종자(follower) 4개 그룹으로 분류하였음


Ø 선도자 그룹에는 GM, 웨이모, 다임러-보쉬, 포드, 폴크스바겐, BMW-인텔-FCA(피아트 크라이슬러 연합), 앱티브(Aptive, 델파이의 자회사) 7개 기업 및 연합이 포함되었음


Ø 내비건트 리서치 보고서에서 웨이모가 2위로 평가된 것은 자동차 기업이 아니기 때문에 생산 능력에서 GM에 밀렸기 때문이며, 자율주행 기술력 부문만 본다면 캘리포니아 교통당국의 보고서와 마찬가지로 단연 최고 수준으로 평가 받았음


Ø 내비건트 리서치는 2020년경에 제한적 범위지만 주행과 가속 및 제동에는 사람이 신경 쓸 필요가 없을 정도의 자율주행차가 등장할 것으로 전망하는데, 글로벌 완성차 제조업체들이 대부분 이때를 기점으로 자율주행차 양산을 목표로 하고 있기 때문임


ž GM은 자율주행 개발 경쟁에 비교적 뒤늦게 뛰어들었지만 과감한 투자와 빠른 양산화 전략을 추진하면서 작년 평가에서 4위를 기록했으나 이번에 1위로 평가되었음


Ø GM2016년 차량 공유 서비스 업체 리프트(Lyft) 5억 달러를 투자한 바 있고, 자율주행 솔루션 개발 스타트업인 크루즈 오토메이션(Cruise Automation)10억 달러에 인수하는 등 과감한 투자 행보를 보인 바 있음



Ø 2017년에도 레이저 레이더(LiDAR) 기술을 보유한 스타트업 스트로브(Strobe)를 인수했으며, 2018년 들어서자마자 크루즈 오토메이션과 함께 4세대 자율주행차 크루즈 AV(Autonomous Vehicle)를 공개하였음


<자료> TechCrunch


[그림 2] 운전대 없는 GM의 크루즈 AV


Ø 크루즈 AV는 운전대가 없기 때문에 운전석과 조수석의 구분이 없고 브레이크나 액셀러레이터 페달이 아예 없는데, 댄 암만 GM 사장은 2019년에 크루즈 AV가 도로 주행을 할 수 있도록 미 교통 당국에 허가를 신청한 상태라고 밝혔음


ž 테슬라는 몇 년 전까지만 해도 내비건트 리서치의 평가에서 상위권에 올랐지만, 이후 가시적인 기술 발전 전략을 보여주지 못해 이번 조사에서는 최하위로 평가되었음


Ø 내비건트 리서치는 테슬라가 궂은 날씨나 대기가 흐린 환경에서도 카메라와 센서가 이상 없이 작동할 수 있게 해주는 기술이 없기 때문에 사람이 개입하지 않는 완전한 자율주행차를 만들기는 당분간 어렵다고 평가하고 있음


Ø 2016년 테슬라는 자율주행 소프트웨어인 오토파일럿(Auto Pilot) 탑재 차량의 운전자가 사고로 사망하자 자율주행 핵심 기술 제공업체인 모빌아이(Mobileye)와 결별했는데, 이후 기술 개발이 정체되고 있다는 평가가 나오고 있음


Ø 내비건트 리서치는 테슬라가 자율주행차 분야에 높은 비전을 가지고 있지만 그 비전을 지속적으로 실행할 수 있는 능력을 지속적으로 입증하지 못하고 있다며 새로운 전기가 필요할 것으로 분석하고 있음


Ø 한편, 테슬라와 결별한 모빌아이는 2017 3월 인텔이 153억 달러에 인수한 바 있으며, 인텔은 모빌아이 인수를 통해 자율주행 기술 분야에서 새로운 다크호스로 급부상하였음

※ 아래 글은 정보통신기술진흥센터(IITP)가 발간하는 주간기술동향 1835호(2018. 2. 28. 발행)에 기고한 원고입니다.


▶ IITP에서 PDF 포맷으로 퍼블리싱한 파일을 첨부합니다. 가독성이 좋으니 참고하시기 바랍니다.

&lsquo;디지털 트윈&rsquo; 기능 강화하는 PLM(제품생명주기관리) 도구들.pdf



ž 4차 산업혁명의 핵심 개념인 사이버-물리 시스템(CPS)을 실현하기 위한 기술인 디지털 트윈(Digital Twin)의 실행은 크게 3단계로 이루어짐


Ø 4차 산업혁명이 전개되는 스마트 공장에서는 사이버 시뮬레이션 기술을 오프라인의 공장에 적용하는 CPS(Cyber-Physical System)를 통해 공장의 생산 라인을 수시로 교체할 수 있고, 각 부품 및 공정마다 센서들이 연결되어 제품의 완성도를 높일 수 있음


Ø CPS를 구현하는 것이 디지털 트윈 기술인데, 실제 물리적 자산 대신 소프트웨어로 가상화한 자산의 쌍둥이를 가상으로 만들어 시뮬레이션 함으로써 실제 자산의 현재 상태, 생산성, 동작 시나리오 등에 대한 정확한 정보를 얻을 수 있게 해 줌


Ø 디지털 트윈은 GE가 제창한 것으로 현재 에너지, 항공, 헬스케어, 자동차, 국방 등 여러 산업 분야에서 디지털 트윈을 이용하여 설계부터 제조, 서비스에 이르는 모든 과정의 효율성을 향상시켜 자산 최적화, 돌발 사고 최소화, 생산성 증가 등의 효과를 얻고 있음


Ø 디지털 트윈의 실행은 크게 세 단계로 구성되는데, 첫 번째 단계는 실제 정보를 수집하여 가상의 쌍둥이 모델에 반영하는 단계로 여기에서는 센서 및 센서 데이터를 수집하기 위한 IoT 기술이 사용됨


Ø 다음 두 번째 단계는 디지털 세계의 쌍둥이를 분석하는 단계로, 여기에서는 컴퓨터를 활용한 수치 시뮬레이션, 빅데이터 분석, AI(인공지능) 등의 기술이 중요함


Ø 마지막 세 번째 단계는 분석 결과를 장비와 생산 설비의 각종 매개 변수, 유지보수 일정 등을 결정하는 판단 자료로 생성하여 현실 세계에서 활용하는 것인데, 이 때 분석 결과를 사람에게 알기 쉬운 형태로 표시하는 AR(증강현실)/MR(복합현실) 기술이 사용되고 있음


ž 디지털 트윈의 3단계 중 첫 단계에서는 장착 센서가 공간의 제약을 받지 않도록 경량화하는 것이 좋은데, 최근에는 더 나아가 부품 자체를 센서로 만드는 흐름도 등장하고 있음


Ø 만일 첫 번째 단계에서 얻고 싶은 물리량을 기존 센서에서 얻을 수 없는 경우, 기존의 센서가 취득한 물리량에서 원하는 물리량을 유추하거나 센서를 새로 추가 설치하게 됨


Ø 이 때 새로 장착하는 센서는 공간의 제약을 받지 않도록 소형·경량화하는 것이 바람직하며 전원 및 통신 수단도 확보해야 하기 때문에, 최근에는 부품 자체를 센서로 만들어 버리는 움직임도 나타나고 있음



Ø 예를 들어 독일 쉐플러(Schaeffler)가 개발한 센소텍트(Sensotect) 코팅 시스템은 베어링과 브래킷 등의 부품 표면에 배선 패턴을 만들고 거기에 전류를 흘림


Ø 부품의 변형량에 따라 배선을 흐르는 회로의 저항값이 변화하기 때문에 이를 통해 부품에 가해지는 힘과 토크 등을 측정할 수 있게 되는데, 배선 패턴은 부품 표면에 특수 합금을 코팅하고 미리 정해 둔 패턴이 남도록 깎아 제작함


<자료> Schaeffler


[그림 1] 센서가 각인된 베어링과 브래킷


ž 한편 최근 주요 PLM(제품생명주기관리) 도구 공급업체들은 자사 제품이 디지털 트윈 활용의 세 단계를 모두 지원하도록 기능 확장을 추진하고 있음


Ø PLM(Product Lifecycle Management) 도구는 CAD 데이터 등의 제품 설계 정보와 BOM(Bill of Materials, 자재 명세서)를 관리하고 사용자에게 그 정보를 편집· 가공하는 기능을 제공하는데, PTC나 다쏘 시스템 (Dassault Systems) 등이 대표적 PLM 도구임


Ø PTC 2013년에 씽웍스(ThingWorx)라는 솔루션 개발업체를 인수했는데, 씽웍스는 건설 기계와 공작 기계의 가동 정보를 실시간으로 획득하여, 분석 애플리케이션을 직관적으로 개발할 수 있게 해 주는 IoT 플랫폼임


Ø PTC는 씽웍스가 획득한 부품 정보와 PLM 도구의 3D 데이터를 연계시켜 실제 세계와 디지털 가상세계의 융합을 실현하겠다는 목표를 내걸고 있음


Ø 다쏘 시스템은 PLM 도구와 생산 라인을 감시·관리하는 MES(제조실행시스템)를 연계하여 PLM 데이터에 대한 시뮬레이션 결과에 따라 작업을 임기응변으로 변경하는 기능을 제공함으로써 생산 라인의 디지털 트윈 활용을 지원하고 있음


Ø 현재 기술 수준에서 실제 세계의 정보를 획득하여 디지털 트윈에 반영하기까지는 약간의 시간 지연이 발생하며, 수집된 정보 역시 실제 그대로라 말하기는 어려움


Ø 가령 자동차라면 수만 개에 달하는 부품 모두를 반영한 ​​디지털 트윈은 아직 구현이 어렵고, 현실적으로는 우선 타이어 등 소모율이 높고 안전성과 직결되는 부품을 중심으로 부분적인 디지털 트윈을 모델링 하여 유지 관리에 이용하는 수준이라 할 수 있음


Ø 그러나 IoT, AI, 시뮬레이션 분야는 계속 발전하고 있으며 앞으로도 다양한 기술 혁신이 기대되기 때문에, 디지털 트윈은 ‘현실 세계의 쌍둥이’에 대한 완전한 정보를 가지고 그것의 동작을 가상세계에서 충실하게 재현해 내는 이상적인 모습에 근접해 나갈 것임


※ 아래 글은 정보통신기술진흥센터(IITP)가 발간하는 주간기술동향 1834호(2018. 2. 21. 발행)에 기고한 원고입니다.


▶ IITP에서 PDF 포맷으로 퍼블리싱한 파일을 첨부합니다. 가독성이 좋으니 참고하시기 바랍니다.

27개 소형 로켓 사용한 스페이스X, 분산 병렬 처리로 안정성 제고.pdf



ž 2 6일 발사에 성공한 스페이스X(SpaceX )의 초대형 로켓 팰콘 헤비(Falcon Heavy)는 강력한 엔진 대신 27기의 소형 엔진을 사용했다는 점에서 새로운 장을 열었음



Ø 팰콘 헤비는 3개의 부스터를 사용해 지구 중력권 탈출을 위한 추진력을 얻었는데, 1기의 부스터마다 9기의 소형 엔진을 탑재해 총 27기의 엔진을 조정하여 발사를 성공시켰음


Ø 지금까지 로켓 발사의 역사를 되짚어 보면, 팰콘 헤비 외에 10개 이상의 엔진을 탑재한 로켓이 발사에 성공한 적은 없었기 때문에 이번 발사는 전인미답의 기록임을 알 수 있음


Ø 1969~1972년 기간 동안 구 소련에서는 30기의 엔진을 사용한 N-1 로켓 발사를 여러 번 시도했으나 모두 실패로 끝난 사실이 있음


Ø 최근까지 최고 기록은 9기의 엔진을 탑재해 발사에 성공한 것인데, 스페이스X팰콘 9과 로켓 랩(Rocket Lab)일렉트론(Electron) 로켓이 각각 성공한 바 있음


Ø 따라서 팰콘 헤비가 27기의 엔진을 제어해 발사에 성공했다는 것은 향후 로켓 개발이 더 전진하여 과거 N-1이 시도했던 30기 이상의 엔진 이용도 가능해질 것임을 시사함


ž 팰콘 헤비가 일견 복잡해 보이는 로켓 발사 설계 정책을 채택한 이유에 대해 스페이스X CEO 일론 머스크는 분산 병렬처리 방식의 안전성 때문이라 설명하고 있음


Ø N-1 로켓의 실패 사례에 비추어 엔진을 많이 탑재하는 데 대한 우려는 없었느냐는 질문에 대해 일론 머스크는, N-1의 실패는 주로 에이비오닉스(avionics, 항공전자기술)의 문제로 엔진에서 화재가 발생한 것이었다고 설명



Ø 따라서 N-1의 시도가 있은 지 50년의 세월이 지났기 때문에, 현재 시점에서 스페이스X N-1 보다는 잘할 수 있을 것이란 확신이 있었다고 답변


Ø 하나 혹은 소수의 강력한 엔진을 개발하는 대신 엔진의 개수를 늘리기로 결정한 것에 대해 일론 머스크는 컴퓨터 시스템을 예로 들어 보다 안정성이 있기 때문이라 설명


Ø 구글이나 아마존 데이터센터의 경우 일부 컴퓨터가 고장을 일으켜도 서비스의 내용이나 성능, 응답속도에는 거의 영향을 주지 않는데, 이는 수많은 소형 컴퓨터들로 시스템을 구현했기 때문임


Ø 이는 메인프레임 같이 하나의 대형 컴퓨터를 사용하는 기존 방식에서 기계의 고장 = 시스템 정지라는 공식이 성립되는 것에 비하면 안정성 면에서 매우 큰 장점을 제공함


<자료> Gizmodo


[그림 1] 팰콘 헤비의 27개 소형 엔진


ž 일론 머스크는 다수의 소형 컴퓨터를 사용하여 시스템을 만드는 방식은 보다 효율적이고 신속하기 때문에 스마트한 것이며, 이는 로켓 엔진의 경우도 마찬가지라는 입장


Ø 이중화 없이 강력한 엔진 1대를 시간을 들여 만드는 것보다 작은 엔진을 많이 사용하여 이중화가 가능한 안정적인 엔진을 완성하는 편이 비용 효율성이 더 높다는 것인데, 실제로 팰콘 헤비는 6기의 엔진에서 고장이 나도 발사가 가능하도록 설계되어 있다고 함


Ø 팰콘 헤비의 성공으로 스페이스X가 준비하고 있는 초대형 로켓 빅 팰콘 로켓(Big Falcon Rocket, BFR)의 성공 가능성도 높아졌는데, BFR 발사용으로 개발되는 부스터는 팰콘 헤비 보다 4개가 더 많은 총 31기의 엔진이 탑재될 예정임


Ø BFR의 엔진 1기당 해면추력(海面推力)은 팰콘 헤비보다 2배가 높을 것이라고 하는데, 만일 BFR의 발사가 성공한다면 매우 강력하면서도 안정적인 로켓이 등장하게 됨을 의미

※ 아래 글은 정보통신기술진흥센터(IITP)가 발간하는 주간기술동향 1834호(2018. 2. 21. 발행)에 기고한 원고입니다.


▶ IITP에서 PDF 포맷으로 퍼블리싱한 파일을 첨부합니다. 가독성이 좋으니 참고하시기 바랍니다.

기계학습 기반 패션 스타일 추천 서비스 &lsquo;치키시모(Chicisimo)&rsquo;.pdf



ž 전자상거래를 통한 미국의 의류 판매 매출이 2022 1,230억 달러에 이를 것으로 예측되는 가운데, 급성장 중인 패션 추천 앱 치키시모(Chicisimo)에 큰 관심이 쏠리고 있음


Ø 구글이 이미지 검색에 스타일 아이디어(Style Ideas)라는 기능을 추가하는 등 최근 들어 아마존닷컴과 구글은 패션 및 옷 입기 추천 서비스 등에 적극 진출하고 있음


<자료> Android Community


[그림 1] 구글 이미지의 스타일 아이디어


Ø 이는 '옷 입기'가 사람들이 매일 일상적으로 하는 일이기 때문에 관련 서비스로 고정 고객을 확보할 수 있고, 사용자로부터 많은 데이터를 얻을 수 있기 때문으로 알려져 있음


Ø 이런 흐름을 앞서 시작한 서비스로 치키시모(Chicisimo)가 있는데, 사용자가 자신의 패션 코디 사진을 게시하고 다른 사람들의 평가를 받거나, 무엇을 입어야 할 지에 대한 아이디어를 다른 사람 혹은 인공지능(AI)으로부터 받을 수 있도록 한 앱임


ž 치키시모는 2010년에 미국에서 설립되어 처음에는 블로그로 시작된 서비스지만 이후 앱으로 출시되었으며, 2018년 초 현재 약 400만 명의 이용자를 보유하고 있음


Ø 사람이 다른 사람에게 패션 제안을 할 때는 스타일이라는 미묘한 요소가 관여하는데, 사람은 이런 요소들을 이해하고 이미 알고 있는 옷 입기 방식에서 새로운 제안을 할 수 있지만, AI의 경우 우선 스타일을 이해시키는 것으로부터 시작해야 함


Ø 치키시모의 개발팀은 이전에 음악 분야 등에서 을 주제로 한 프로젝트에 기계학습을 도입한 경험이 있으며, 이 경험을 통해 컴퓨터가 을 이해하면 보다 관련성 있는 의미 있는 콘텐츠를 제공 할 수 있어 온라인 패션이 크게 바뀔 것이라 생각했다고 함


Ø 치키시모의 CEO인 가브리엘 알다미즈는 최근 개발팀의 작업이 어떻게 진행되었는지를 공개했는데, 개발팀이 가장 주력한 것은 기계학습을 위해 올바른 데이터 세트를 만드는 것이었으며 이를 토대로 '모바일 앱' '데이터 플랫폼'이라는 핵심 자산을 개발하였음


Ø 치키시모는 현재 머천다이징 업무 인원 4, 엔지니어 4명 등 총 8명으로 구성된 작은 기업이지만, 자체 개발한 AI 기술을 토대로 구글, 아마존 등과 경쟁하며 현재 전세계 400만 명의 이용자를 확보하는 성과를 거두고 있음


ž 치키시모는 3단계 개발 과정을 거쳤는데, 1단계는 사람들이 자신의 욕구를 표현하는 앱을 개발하되 최대한 빨리 기능을 배우도록 작은 반복행위에 초점을 맞추는 것이었음


Ø 과거의 앱 개발 경험을 통해 개발팀은 사람들에게 앱을 사용해 보게 하는 것은 쉽지만 계속 사용하도록 붙잡아 두는 것(retention)은 매우 어렵다는 것을 배웠으며, 문제 해결을 위해 단순한 기능의 반복에 초점을 맞춰 이용자가 가능한 빨리 배울 수 있게 하였음



Ø 치키시모는 단 하나의 핵심 기능 만을 가진 매우 초기의 알파 버전을 치키시모가 아닌 다른 이름으로, 미국이 아닌 다른 나라에서 런칭하였음


Ø 이 초기 버전은 심지어 사용자가 사진을 업로드 하는 기능도 없었지만 이를 통해 개발팀은 실제 데이터 처리를 반복할 수 있었고 다량의 고품질 데이터를 확보할 수 있었다고 함


<자료> wwwhats new


[그림 2] 치키시모 스페인어 버전(2014)

Ø 이후 적정 시점에 제대로 된 치키시모 앱을 런칭하며 이전 알파 버전은 앱스토어에서 삭제하였는데, 이용자들이 가장 중요한 기능의 이용 방법을 습득한 상태이기 때문에 곧바로 치키시모를 사용하는 데 큰 무리가 없었음


ž 치키시모는 사람들이 잔류(retention)를 결정하는 진짜 이유가 무엇인지, 콘텐츠와 사람을 매치하는 데 필요한 알고리즘이 무엇인지 이해하는 데 오랜 시간을 투자했다고 함


Ø 가브리엘 알다미즈 CEO에 따르면 치키시모는 고객의 리텐션을 높이는 데 두 가지 기법의 도움을 받았는데, 우선 행동학적 코호트(behavioral cohorts)를 이용해 리텐션을 높이는 요소를 발견하였음


Ø 코호트는 통계적으로 동일한 특성이나 행동 양식을 공유하는 집단을 의미하는데, 개발팀은 사용자가 어떤 행동을 했는가 뿐만 아니라 어떤 가치를 느꼈는가에 대해서도 믹스패널(Mixpanel)을 이용하여 코호트 분석을 실행하였음


Ø 이는 치키시모와 같은 서비스에서 개념화하기 매우 어려운 일이었지만, 측정 가능한 가치를 찾아내기 위해 분석-테스트-개선의 과정을 반복했다고 하며, 리텐션에 악영향을 미치는 요소들도 식별하여 제거해 나갔다고 함


Ø 리텐션을 결정하는 요소로 식별한 다음 도움을 받은 두 번째 기법은, 온보딩 프로세스(on-boarding process)를 새롭게 사고하는 것이었음


Ø 통상 온보딩 프로세스는 새롭게 조직에 합류한 사람들이 잘 적응할 수 있도록 지원하는 여러 프로그램을 말하는데, 치키시모는 신규 회원이 가능한 빨리 앱의 가치를 발견하도록 하여 고객을 잃어버리지 않게 해주는 프로세스로 재정의하였음


Ø 만일 신규 회원이 그들의 첫 접속에서 처음 7분 동안 어떤 액션을 취하지 않는다면 그들은 돌아오지 않는다는 가정 하에, 7분 안에 무언가 발생하도록 앱의 경험에 계속 변화를 주었다고 함


Ø 또한 서로 다른 유형의 사람들을 대상으로 수 많은 사용자 테스트를 실행하고, 그들이 리텐션 요소를 어떻게 인지하는지 혹은 인지하지 못하는지를 관찰했다고 함


ž 치키시모 개발의 2단계는 사람들의 패션 욕구를 학습하는 데이터 플랫폼을 구축하는 것으로, 사람들의 취향을 이해하여 더 나은 코디 제안을 하는 것이 목표임



Ø 적절한 콘텐츠를 적절한 때에 전달할 수 있다면 간단한 기능이라도 사람들의 감탄을 이끌어 낼 수 있지만, 사실 이런 기능을 구현하기란 매우 어려운 일임


Ø 치키시모의 콘텐츠는 100% 모두 사용자들이 생성한 것(UCC)이어서 몇 가지 문제점을 낳게 되는데, 시스템은 다양한 유형의 콘텐츠를 자동으로 분류할 수 있어야 하며, 적절한 인센티브를 구성해야 하고, 콘텐츠와 욕구의 매칭 방법을 이해해야 함


Ø 실제 치키시모는 처음에 수 많은 데이터가 수집되자 크게 고무되었다가 이내 그 데이터들이 행위를 유발하는 데 혼란스런 데이터는 악몽임을 알게 되었다고 함


Ø 이후 데이터를 일부 구조화 할 것을 결정했으며, 자신들이 소셜 패션 그래프(Social Fashion Graph)라 부르는 도구의 개발을 완료함으로써 양질의 데이터 세트를 만들어 낼 수 있게 되었음


<자료> Medium


[그림 3] 치키시모의 소셜 패션 그래프


Ø 이 도구로 생성된 그래프는 욕구·옷 입기·사람이라는 세 요소가 어떻게 상호 관련성을 갖는지 간결하게 시각화해 주는 것으로, 치키시모의 데이터 플랫폼을 구축하는데 도움을 주었으며 양질의 데이터 세트를 만들어 앱을 학습시키는 데도 도움을 주었다고 함


ž 개발팀에 따르면, 옷의 코디는 음악의 재생 목록과 같은 것으로, 여러 옷가지가 함께 소비되었을 때 의미를 갖게 되는 패션 상품들의 조합이라 할 수 있음


Ø 소셜 패션 그래프를 적용해도 여전히 데이터에 노이즈가 존재하는데, 사람들은 동일한 욕구를 여러 방식으로 표현하기도 하고 반대로 서로 다른 옷 입기 방식이지만 근본 욕구는 같은 경우도 있는데, 이 때문에 콘텐츠와 욕구의 연결을 더욱 어려운 일이 됨


Ø 치키시모는 코디 컨셉을 수집하고, 여러 다양한 방식 중에 가치가 동일한 것들을 찾아내어 동일한 욕구를 다양하게 표현해 줄 수 있는 시스템을 구축함으로써, 다양성을 구현하는 가운데서 구조화를 달성하였음


Ø 이런 과정을 거쳐 치키시모는 전세계인의 공통 고민인 오늘 뭐 입지라는 욕구에 발생하는 상황을 목록화하였으며, 이를 토대로 데이터 세트를 튜닝 하였고 더 나은 서비스 개선이 이루어지도록 하였음


Ø 개발팀에 따르면 사람들이 자유롭게 표현하도록 허용하더라도 그것을 처리할 적절한 시스템이 뒤를 

받쳐준다면, 데이터의 구조화로 제어력을 잃지 않으면서 비구조화된 데이터를 장려하여 지식과 유연성을 확보할 수 있음


Ø 개발팀이 최근 하고 있는 작업은 소셜 패션 그래프에 네 번째 요소인 쇼핑 가능한 상품(shoppable product)을 추가하는 것으로, 입고 있는 옷과 어울리는 상품을 자동적으로 매칭하여 다음 번에 무엇을 구매할 지 도와주는 시스템을 만들고 있음


ž 치키시모 개발의 3단계는 알고리즘을 개발하는 것인데, 음악 서비스에서 추천 기능과 달리 패션 관련 서비스에서 추천 기능은 구현에 몇 가지 도전 과제가 있음


Ø 음악 서비스의 경우, 이용자가 주어진 어떤 노래를 좋아하는지 알기는 쉬운 일이고, 그 노래 다음에 어떤 노래를 듣는지를 파악하는 것도 쉬운 일이며, 따라서 그 노래들 사이의 상호관계를 파악할 수 있고, 이 정보를 통해 많은 일을 할 수 있음


Ø 그러나 패션에서는 고유한 문제가 발생하는데 우선 가지고 있는 옷과 쇼핑할 상품들을 매칭하는 쉬운 방법이 없는 것이 문제로, 그 이유는 사람들은 옷장 속에 가지고 있는 대부분의 옷들과 같거나 비슷한 옷을 사려는 게 아니라 어울리는 옷을 사려고 하기 때문


Ø 또 다른 어려움은 패션 산업은 사람들이 옷을 묘사하는 방법을 표준화하지 않았기 때문에 전자상거래와 그 이용자들 사이에 큰 단절이 존재한다는 것이며, 스타일이라는 것이 기계가 이해하고 분류하기에는 복잡미묘하다는 사실임


<자료> Medium


[그림 4] 치키시모 앱을 이용한 패션 코디 추천 받기 (이미지 클릭)


ž 딥러닝을 이용한 추천 알고리즘은 현재 더욱 더 많은 연구자에 의해 개선되고 있기 때문에 아주 개인적인 스타일이라도 시스템이 이해하게 될 날이 조만간 도래할 것으로 보임



Ø 이런 상황은 딥러닝의 등장에 의해 급변하고 있는데, 올바른 데이터 세트를 가지고 있으면 옷 입기 추천과 관련된 특정한 유스 케이스에 초점을 맞출 수 있고, 데이터를 수집하고 정제하는데 시간을 쏟는 대신 알고리즘을 통해 가치 전달에 초점을 맞출 수 있기 때문


Ø 옷 입기는 날마다 해야 하는 일이기에, 의류 분야가 e-커머스 사이트들이 소비자들의 관심을 끌어 쇼핑을 유도하고, 그들의 데이터를 확보하는데 중요한 자산이 된다는 것은 실적으로 입증되고 있음


Ø 구글이 스타일 아이디어를 발표하자 같은 달에 아마존은 카메라가 달린 인공지능 스피커를 이용한 알렉사 에코 룩(Alexa Echo Look)을 발표해 옷 코디 추천을 시작했으며, 알리바바 역시 AI 개인 스타일리스트를 통해 기록적인 광군제 매출을 기록한 바 있음


Ø 치키시모는 현재의 패션 앱이 2003년 무렵의 음악 서비스와 비슷한 상태에 있다고 보는데, 10여 년이 지나며 음악 서비스가 개별 이용자의 취향에 맞는 음악을 추천하게 된 것처럼, 10년 후에는 옷 입기 추천 앱이 어디까지 발전해 있을 지 아무도 모른다는 것


Ø 10년 후에도 오늘 뭐 입지라는 고민과 어떤 옷을 새로 사야 하나라는 고민은 사라지지 않을 것이나, 고민의 정도는 아마도 지금보다는 훨씬 덜할 것으로 보임

※ 아래 글은 정보통신기술진흥센터(IITP)가 발간하는 주간기술동향 1834호(2018. 2. 21. 발행)에 기고한 원고입니다.


▶ IITP에서 PDF 포맷으로 퍼블리싱한 파일을 첨부합니다. 가독성이 좋으니 참고하시기 바랍니다.

제2의 안드로이드를 꿈꾸는 바이두의 자율주행 플랫폼 &lsquo;아폴로&rsquo;.pdf



[ 요 약 ]


바이두는 오픈소스 자율운전 플랫폼 아폴로(Apollo) 프로젝트를 진행 중이며 2020년 말까지 고속도로와 복잡한 시내 환경에서 자율주행을 목표로 하고 있음아폴로 플랫폼에는 중국 업체들 외에도 MS, 포드엔비디아보쉬 등 해외 기업 포함 총 90개 기업이 참여하고 있음아폴로 플랫폼의 현재 상태는 2005년 구글에 인수될 당시 안드로이드와 비슷하다는 평가이며바이두의 오픈소스 플랫폼이 자율운전 시스템의 안드로이드가 될 지 관심이 모아지고 있음



[ 본 문 ]


ž 바이두(Baidu)는 올해 CES에서 오픈소스 자율운전 플랫폼 아폴로(Apollo)2.0 버전을 공개하고, 아폴로를 탑재한 자율운전차의 시험 주행 모습을 선보였음


Ø 2017 7월 바이두는 아폴로 플랫폼 버전 1.0의 소프트웨어와 데이터를 공개하며 자율운전 기술 개발업체 및 차량 제조업체 누구나 다운로드 받아 활용할 수 있는 오픈소스 플랫폼으로 운영하겠다는 계획을 발표한 바 있음


<자료> TechCrunch


[그림 1] 바이두의 아폴로 플랫폼 발표


Ø 자율운전차 개발자들에게 바이두가 아폴로 플랫폼 관련 데이터, API, 오픈소스 코드 등을 제공하고, 하드웨어를 직접 개발해 출시할 수 있도록 레퍼런스 하드웨어도 제공하겠다는 포부를 밝힌 것


Ø 발표 당시 아폴로 자율주행차 프로그램에 참여하는 파트너 기업이 이미 50개에 달했는데, 이후 짧은 시간 안에 아폴로는 자율운전차의 안드로이드로 자리매김하는 데 성공하였음


Ø 바이두는 올해 CES에서 라스베이거스와 베이징을 연결해 아폴로를 탑재한 자율운전 자동차들의 시범 주행 모습을 중계하였는데, 주행 장소는 베이징의 바이두 본사였고 새벽 어둠 속에서 자율운전차들이 대열을 이루어 주행하였음


Ø 아폴로 2.0은 도로 정비가 잘 되어 있는 도시 환경에서의 자율운전을 목표로 하고 있으며, 바이두의 로드맵에 따르면 고속도로와 복잡한 도로 환경에서 주행이 가능한 3.0 버전은 2020년 말까지 개발 완료될 예정


ž 바이두는 사내 시범 주행 모습 외에도, 현재 자신들이 개발하고 있는 인공지능 도시(AI City)에서 아폴로를 탑재한 자율주행차가 주행하는 데모 영상도 공개하였음


Ø 바이두는 현재 허베이(河北)성의 시옹안(雄安)에서 지방정부와 공동으로 AI 시티를 개발하고 있는데, 도시 일부를 특별 신구(New Area)로 지정해 차세대 스마트 시티의 프로토타입을 구축하고 있음


Ø 구체적으로 살펴 보면 이 신구를 AI를 활용한 상업 지역으로 만든다는 목표 아래, 지능형 운송(Intelligent Transportation), 대화형 인공지능(Conversational AI), 클라우드 컴퓨팅을 도입하여 지능형 미래 도시를 건설하고 있음


Ø 바이두가 공개한, AI 시티 내에서 아폴로 탑재 자율운전차의 시범 주행 영상을 보면 다양한 모델의 차종들이 시내 도로를 주행하고 있으며, 특히 중앙 분리대가 없는 왕복 차선의 도로 등에서도 문제없이 다닐 수 있음을 확인해 주고 있음


Ø 또한 복잡한 교차로에서 신호와 보행자를 인식하여 안전한 주행 경로를 결정하고, 교차로에서 U턴을 할 수도 있으며, 마주 오던 차량이 중앙선을 넘어 차선에 들어올 경우에도 안전하게 정지하는 등의 모습이 담겨 있음



<자료> Baidu


[그림 2] 시옹안 AI 시티 내에서 아폴로 탑재 차량의 주행 모습


Ø 통상 중앙 분리대가 없고, 도로 폭이 좁을 경우 보다 고도의 자율주행 기술이 필요하다고 알려져 있기 때문에, 바이두의 자율운전 기술은 어느 정도는 궤도에 올라선 것으로 보임


ž 아폴로 플랫폼은 소프트웨어와 하드웨어로 구성되며, 일반 차량도 이 플랫폼을 탑재하면 자율운전 차량으로 변신이 가능함


Ø 아폴로 플랫폼의 센서로는 라이더(Lidar, 레이저 센서), 카메라, 레이더가 사용되며, 이 세 종류의 센서를 표준 장비로 일반 차량에 탑재하면 취합된 정보를 AI센서 융합(Sensor Fusion) 기술로 분석하여 자율운전을 실현함


Ø 실제 미국의 자율시스템 개발 스타트업인 오토노머스터프(AutonomouStuff)는 아폴로 1.0을 탑재한 자동차를 사흘 만에 제작해 선보여 화제가 된 바 있음


Ø 아폴로 탑재 자율운전차는 테슬라 전기차처럼 태블릿 형태의 디스플레이를 대쉬보드로 사용하는데, 자율운전 기능을 시각화하여 운행 상태를 디스플레이에 표시해주기 때문에, AI 알고리즘이 무엇을 보고 어떻게 판단했는지 알 수 있음


<자료> Baidu

[그림 3] 태블릿 형태의 디스플레이


Ø 예를 들어 아폴로 API(자율운전 라이브러리)인지(Perception) 기능은 차량 주변의 개체를 파악하고 그 유형을 식별하며, 설계(Planning) 기능은 파악된 개체를 고려하여 안전한 주행 경로를 산정하는 역할을 맡고 있음


Ø 알고리즘의 연산 결과를 디스플레이에 표시해 주기 때문에 자동차의 움직임을 이해할 수 있으며, 자동차의 주행 데이터가 기록되는 기능도 있어 알고리즘 디버깅에 도움을 줌


ž 바이두는 아폴로 플랫폼을 독자 개발하지 않고 오픈소스 방식으로 기술을 공개한 후 파트너들이 제품을 개발하도록 하고 있는데, 현재 90개 기업이 여기에 참여하고 있음


Ø 중국의 자동차 업체인 FAW그룹, 체리자동차, 장성자동차 등 65개의 중국 기업들이 생태계의 중심을 이루고 있기는 하지만, 포드, 다임러, 현대자동차 등 외국 완성차 업체들도 아폴로 플랫폼에 높은 관심을 갖고 참여하고 있음


Ø 해외 공급업체는 하드웨어 부문에서 보쉬, 컨티넨탈, 델파이, 벨로다인 등이, 소프트웨어 부문에서는 마이크로소프트 클라우드, 톰톰 등이, 서비스 부문에서는 그랩 택시, 유카 등이, 반도체 부문에서는 엔비디아, 인텔, NXP, 르네사스 등이 참여하고 있음


Ø 이 중 마이크로소프트의 참여가 눈에 띄는데, MS는 아폴로 플랫폼에 클라우드 서비스인 애저(Azure)를 제공하고 자율운전 차량 시뮬레이터 드림뷰(Dreamview)의 운용을 지원함


<자료> Baidu


[그림 4] 자율운전 시뮬레이터 드림뷰


Ø 또한 아폴로 기반 자율운전차의 상용 판매가 시작되고 시가지에서 운행을 시작하게 되면 MS는 자동차와 클라우드를 연결하는 커넥티드 카 기능을 제공할 계획이며, 현재 중국에서 전개 중인 아폴로 프로젝트가 미국과 유럽으로 확장되도록 지원할 계획임


ž 아폴로 플랫폼은 오픈소스 방식으로 개발되고 있으며, 개발된 소프트웨어는 깃허브(GitHub)에 공개되는데, 자율운전차 기술에 새로 나서는 후발주자들에게 유용할 전망


Ø 아폴로는 누구나 이용할 수 있으며 공개 소프트웨어 이용에 참여한 기업들은 가신들이 개발한 소프트웨어를 아폴로에 피드백 할 수 있으며, 바이두는 이런 과정을 반복함으로써 아폴로의 완성도가 향상되는 시나리오를 그리고 있음


Ø 바이두가 아폴로의 시운전 영상도 공개했지만, 전문가들은 아폴로의 기능이 아직은 제한적이어서 복잡한 시가지 주행이 가능한 것은 아니라고 보는데, 현재 아폴로가 제공하는 기능은 간선 도로에서 직진, 좌회전, 우회전, U턴 등 기본 조작 중심임


Ø , 아폴로의 기능은 아직 미완성으로 지금 당장 웨이모(Waymo)처럼 무인 택시로 사용할 수 있을 정도는 아니기 때문에, 이미 어느 정도 자율운전차 기술 개발을 이룬 선도기업들이라면 굳이 아폴로 프로젝트에 참여할 인센티브는 없다고 할 수 있음


Ø 그러나 새롭게 뛰어드는 기업 입장에서 보면 아폴로 프로젝트에 참여함으로써 단기간에 자율운전차를 상용화할 수 있어 새로운 사업기회를 발견할 수 있음


Ø 포드 등 자체 기술 개발을 하고 있는 대형 업체도 아폴로에 참여하고 있는데, 이들은 자체 개발과 함께 거대 중국 시장을 배경으로 하는 아폴로 프로젝트 병행을 통해 구글이나 테슬라 등이 선도하는 시장 상황을 일거에 역전시킨다는 계획을 갖고 있을 지 모름


Ø 한편 바이두는 아폴로의 오픈소스 정책의 최대 장벽으로 각 국가들이 보안을 이유로 자율주행차 관련 법규를 자국 기업에 유리하게 통제할 가능성을 꼽고 있는데, 국가기관의 입장에서 보면 자율주행차는 그 자체로 무기가 될 수 있기 때문


ž 현재 아폴로 플랫폼의 상태는 구글이 스마트폰 운영체제 안드로이드를 인수했던 2005년경과 비슷하다는 평을 받고 있는데, 아폴로가 제2의 안드로이드가 될 지 귀추가 주목됨


Ø 아폴로 프로젝트의 참여 기업 대부분은 중국 자동차 메이커이긴 하지만 현재 아폴로를 탑재한 자율운전 자동차들이 속속 선보이고 있으며, 승용차뿐만 아니라 아폴로 탑재 버스, 도로청소용 차량, 운송 로봇 등도 등장하고 있음


<자료> Baidu


[그림 5] 아폴로를 탑재한 다양한 차량들


Ø 현 상태는 구글이 안드로이드를 천만 달러에 인수한 2005년 경의 모습과 흡사한데, 당시만해도 애플 iOS에 비해 미성숙한 운영체제였지만 구글이 오픈소스 방식으로 개발하면서 안드로이드는 빠르게 완성도를 높여가기 시작했음


Ø 안드로이드가 볼륨 면에서 iOS를 제치고 스마트폰 운영체제를 석권한 것처럼, 아폴로로 비슷한 궤적을 그릴 수 있을지 관심이 모이는데, 중국이라는 또 하나의 세계 시장을 배후로 하고 있다는 점 하나 만으로도 가능성은 이미 충분함


Ø 한편, 아폴로 플랫폼의 성장 가능성은 향후 자율운전의 기초 기술은 스마트폰 운영체제처럼 공통적으로 사용할 수 있는 방향으로 진행한다는 것을 시사함


Ø 이는 누구나 손쉽게 자율운전차를 개발할 수 있는 시대가 된다는 것으로, 자동차 제조업체들은 차별화 요인을 어디에 두어야 할 지를 최우선 과제로 고민하게 될 것으로 보임


Ø 스마트폰을 외면했던 노키아가 삼성전자에 자리를 내준 것처럼, 자체 자율운전 기술이 없는 새로운 신생기업도 완성차 업체를 위협할 가능성이 열린 것이기 때문에, 기존 대기업들로서는 어떻게 자율운전 시장의 애플로 자리매김할 것인지가 핵심 목표가 될 것임

※ 아래 글은 정보통신기술진흥센터(IITP)가 발간하는 주간기술동향 1833호(2018. 2. 14. 발행)에 기고한 원고입니다.


▶ IITP에서 PDF 포맷으로 퍼블리싱한 파일을 첨부합니다. 가독성이 좋으니 참고하시기 바랍니다.

AI로 AI를 개발하는 기술의 진전, 성당에서 시장으로 나오는 AI.pdf



[ 요 약 ]


현재의 범용 신경망이 제공하는 기능이 불충분하다고 느낄 경우 특정 용도의 고도 신경망을 개발할 필요성이 대두되나신경망을 새롭게 최적화하는 작업을 수행할 수 있는 AI 연구자는 극소수이고 개발 기간도 오래 걸리는 문제가 있음최근 구글은 사람이 아닌 AI가 신경망 고도화 작업을 수행하도록 하는 기술을 클라우드 서비스 형태로 공개하였는데누구나 쉽게 특정 용도의 AI를 개발할 수 있게 됨에 따라 더욱 혁신적인 AI가 출현할 가능성이 높아지고 있음


[ 본 문 ] 


ž 미국의 오크 릿지 국립 연구소(Oak Ridge National Laboratory)는 기존 범용 신경망을 이용한 연구에 한계가 있음을 느끼고 과학 연구 전용의 고도 신경망 개발에 나서게 있음

Ø 오크 릿지 연구소는 미국 에너지부 산하 기관으로 과학의 수수께끼 규명을 목표로 하고 있는데, 세계 최고 수준의 수퍼 컴퓨터인 타이탄(Titan)을 운용하는 곳으로도 유명함



<자료> Wikimedia Commons

[그림 1] 수퍼 컴퓨터 타이탄


Ø 타이탄은 크레이(Cray) 사가 개발했으며, 18,688개 노드로 구성된 병렬 머신으로 각 노드에 CPU(AMD 옵테론) GPU(엔비디아 케플러)를 탑재한 세계 최대 규모의 수퍼 컴퓨터임


Ø 이 연구소는 몇 년 전부터 최근 급속히 발전한 이미지 인식과 음성 인식 신경망을 이용한 연구를 진행해 왔으나, 상용화된 범용 신경망을 기초과학 연구에 적용한 결과 기대한 만큼의 성과는 얻을 수 없었다고 함


Ø 그 이유는 과학 연구에서 다루는 데이터의 특수성과 신경망 교육에 사용할 수 있는 데이터의 수가 제한되어 있기 때문이었으며, 따라서 오크 리지 연구소는 과학 연구를 위한 전용 신경망 개발의 필요성에 직면하게 되었음


Ø 이에 따라 오크 릿지 연구소는 타이탄을 이용해 과학 연구에 적합한 고정밀 신경망을 개발하게 되었으며, 현재 이를 활용해 물질과학 및 입자 물리학의 연구를 진행하고 있음


ž 오크 릿지 연구소가 과학 전용의 신경망 개발에 있어 수퍼 컴퓨터를 이용한 부분은 신경망 최적화 단계로, 이전까지 인간이 담당하던 작업을 AI를 이용해 실행한 것이 특징


Ø 연구진은 특정 데이터 세트에 대해 최적의 신경망이 존재한다는 전제에서 그 구조를 탐구 해 왔는데, 이 연구는 소위 하이퍼 파라미터 최적화(Hyper-Parameter Optimization, HPO)의 문제로 귀결됨


Ø 하이퍼 파라미터는 신경망의 기본 모델, 즉 신경망 각층의 종류와 그 순서, 네트워크의 층수 등을 의미하며, HPO는 이들 기본 요소를 조합하여 네트워크를 최적화하는 작업임


Ø 달리 표현하면, 대부분의 기계학습 알고리즘에서는 연구자들이 지정해 두어야 할 설정들이 많은데 이런 다양한 튜닝 옵션들을 하이퍼 파라미터라 부르며, 성능을 최적화하거나 편향과 분산 사이의 균형을 맞출 때 알고리즘을 조절하기 위해 HPO를 수행함


Ø 성능 최적화를 위해 하이퍼 파라미터를 튜닝 하는 것은 연구자들 사이에서는 예술이라 불릴 만큼 어렵고 정교한 작업이며, 어떤 데이터 세트에서 최고의 성능을 보장하는 쉽고 빠른 튜닝 작업 방법은 없는 것으로 알려져 있음


<자료> IBM

[그림 2] 하이퍼 파라미터 최적화


Ø 하이퍼 파라미터 최적화는 기존 딥러닝 소프트웨어(Caffe, Torch, Theano )를 사용하여 수작업으로 실시되며, 표준 소프트웨어를 개조하여 신경망 각 층의 종류와 순서, 네트워크 층수 등 신경망의 토폴로지(망 구성)를 결정하게 됨



Ø 그 다음으로는 생성된 신경망을 교육하고 그 성능을 검증하는데, 이 과정을 여러 번 반복하여 최적의 신경망의 형태를 얻게 되며, 이 과정은 연구자가 경험과 감에 전적으로 의존하여 진행되기 때문에 통상 새로운 신경망을 생성하는 데 몇 달씩 소요되기도 함


Ø 그런데 오크 릿지 연구소는 이 튜닝 작업을 AI로 설계하고 이를 수퍼 컴퓨터로 실행함으로써 큰 ​​성과를 올렸는데, 즉 특정 연구에 최적화 된 신경망을 연구자의 수작업이 아니라 AI로 생성시킨 것


Ø 이 방식을 통해 오크 릿지 연구소는 과학연구 전용 신경망을 단 몇 시간 만에 생성하는 데 성공했으며, 이렇게 AI가 만든 신경망이 현재 중성미립자(Neutrino) 연구에 크게 기여하고 있다고 함


ž 오크 릿지 연구소가 신경망 생성에 이용한 AI MENNDL(Multinode Evolutionary Neural Networks for Deep Learning)이라 부르는데, 생물이 진화하는 방식을 모방한 것이라고 함


Ø 사람이 HPO를 하는 것과 마찬가지로, MENNDL 우선 특정 데이터 세트, 가령 중성미립자 실험 데이터의 처리에 특화된 신경망을 생성한 다음 신경망을 교육시키고 그 성능을 평가하며, 그 평가 결과에 따라 신경망 구조를 변화시킴으로써 성능 향상을 도모함


Ø 이 과정을 반복하여 고급 신경망을 생성하게 되는데, 이 기법은 생물의 DNA가 배합과 변이를 반복하며 진화하는 방식을 모방하고 있기 때문에 진화적 알고리즘(Evolutionary Algorithm)이라 불림


<자료> Oak Ridge National Laboratory


[그림 3] MENNDL의 진화적 알고리즘


Ø MENNDL은 생성된 신경망의 교육과 성능 평가를 타이탄 수퍼 컴퓨터의 노드를 이용해 수행하는데, 마스터(master) 노드에서 진화의 프로세스를 실행해 신경망을 생성하면, 워커(worker) 노드는 생성된 네트워크를 교육하고 그 성능을 평가하게 됨


Ø 딥러닝 알고리즘을 포함하고 있는 수정 가능한 소프트웨어 프레임워크로는 카페(caffe) 를 사용하여 워커 노드에서 대규모 병렬 실행을 하며, 마스터 노드와 워커 노드 사이의 통신은 Message Passing Interface라는 프로토콜을 사용하고 있음


ž MENNDL을 활용하고 있는 것은 오크 릿지 연구소뿐 만이 아니며, 현재 여러 연구기관에서 의료 연구나 우주 탄생 연구 등에 적합한 신경망 생성에 활용하고 있음


Ø 소아암 연구로 유명한 세인트 주드 소아 병원(St. Jude Children 's Research Hospital)MENNDL을 이용해 생성한 신경망을 의료 연구에 사용하고 있는데, 3D 전자 현미경으로 촬영한 이미지에서 미토콘드리아를 식별하는 신경망을 생성하였음


Ø 미토콘드리아는 발견할 수 있기는 하지만 존재하는 위치가 다양하며 모양과 크기가 달라 사람이 식별하기는 어렵기 때문에, 세인트 주드 병원은 MENNDL을 이용해 미토콘드리아를 식별하기 위한 의료 전용 신경망을 생성한 것임


Ø 페르미 국립 가속기 연구소(Fermi National Accelerator Laboratory) 역시 MENNDL을 이용해 중성미립자 검출을 위한 전용 신경망을 생성하였음


<자료> Fermi National Accelerator Laboratory


[그림 4] 페르미 연구소의 뉴트리노 관측기기


Ø 중성미립자는 입자 중에서 페르미온(Fermion)으로 분류되면 질량은 매우 작고 다른 입자와 상호 작용이 거의 없으며 투과성이 높아서 감지해 내기가 매우 어려움


Ø 중성미립자 연구는 초기 우주의 규명과 물질 구조의 규명으로 이어질 것으로 기대되어 각국에서 경쟁적으로 연구가 진행되고 있는 분야임


Ø 페르미 연구소는 관측 장치를 개발해 중성미립자를 대량으로 생성한 후 그 상호작용을 연구하고 있는데, 중성미립자 검출에 특화된 구조를 가진 신경망을 이용하고 있음


Ø 신경망은 관측 사진을 분석해 중성미립자가 장치 내 어디에서 상호작용을 일으킨 것인지를 정확히 파악하는데, 사진에는 다른 입자들이 일으킨 상호작용도 무수히 기록되기 때문에 일반적인 신경망을 통해 중성미립자를 골라 내는 것은 매우 어려운 일이었음


Ø 그러나 MENNDL을 통해 전용 신경망을 만들 수 있게 됨에 따라, 아주 드물게 발생하는 중성미립자의 상호 작용을 정밀하게 식별할 수 있게 된 것임


Ø 페르미 연구소에서는 MENNDL 50만 종류의 신경망을 생성하고 이를 교육한 후 성능을 평가했는데, 교육 데이터로 중성미립자의 상호작용을 기록한 이미지 80만 장을 사용했으며, 평가를 통해 가장 판정이 정확한 신경망을 선정해 연구에 활용하고 있음


Ø 이러한 일련의 과정은 오크 릿지 연구소의 경우와 마찬가지로 타이탄의 18,688개 노드에서 병렬로 실행되었는데, 과학 전용 신경망의 개발과 이를 이용한 과학 연구는 AI 수퍼 컴퓨터의 도입으로 비로소 가능해졌다고도 볼 수 있음


ž 한편 특정 용도의 신경망을 AI로 생성하는 것이 수퍼 컴퓨터 이용이 가능한 대형 연구소에서만 가능한 것은 아니며 일반 기업도 가능해졌는데 여기에는 구글이 기여한 바가 큼


Ø 구글은 이미 AI를 이용해 고급 기계학습 알고리즘을 생성하는 오토(Auto)ML 기술을 사내 에서 자체적으로 이용하고 있었는데, 최근 이 기술을 클라우드 오토ML이라는 클라우드 서비스 형태로 공개하였음


Ø 오크 릿지 연구소의 전용 AI 개발은 세계 최고급의 수퍼 컴퓨터가 있기에 가능한 측면이 있었고, 그러한 고도의 컴퓨팅 자원을 보통의 기업이 갖추기는 현실적으로 어려운 것인데, 구글이 클라우드 오토ML을 공개함에 따라 전용 AI 개발에 대한 접근성이 높아진 것임


Ø 구글이 오토ML을 개발하고 또 공개한 이유는 오크 릿지 연구소의 경우와 동일한데, 일반 AI가 다양한 기능이 있기는 하지만 고급 판정 능력이 필요한 특정 업무에는 사용할 수 없어 전용 AI를 개발해야 하며, 이 작업을 할 수 있는 AI 연구자는 극소수이기 때문


Ø 아마존이나 마이크로소프트와 마찬가지로도 이미 구글은 클라우드 ML 엔진이라는 서비스를 통해 일반 AI를 클라우드로 제공하고 있었으며, 이 서비스를 이용하는 기업들은 구글이 제공하는 클라우드 비전 API를 통해 이미지 인식 처리를 실행할 수 있음


Ø 클라우드 비전 API를 이용하며 쉽게 사진을 분류할 수 있는데, 가령 하늘의 구름 사진을 입력하면 시스템은 skycloud라고 정확히 분석 결과를 보여주며, 인물 사진을 입력하면 사람의 얼굴 형태임을 인지하고 그 표정을 분류하는 기능도 제공하고 있음


Ø 그러나 기상 전문가들에게는 이러한 클라우드 비전 API를 이용한 이미지 판정 기능이 충분하지 않은데, skycloud 정도만을 판정하는 기능으로는 권운(cirrus), 권적운(Cumulus humilis) 등과 같이 구름의 종류를 판정할 수 없기 때문


<자료> Gigazine


[그림 5] 기상 전용 AI의 구름 유형 식별


Ø 따라서 구름의 종류를 판별 할 수 있는 기계학습 알고리즘을 개발하는 것이 요구되지만, 이 작업을 할 수 있는 연구자의 수는 많지 않으며 개발 작업에도 많은 기간이 소요되는 문제점이 있었으며, 이러한 수요에 부응해 구글이 내놓은 것이 클라우드 오토ML


Ø 클라우드 오토ML을 이용하면 AI가 연구자 대신 전용 AI를 짧은 시간 안에 개발해 주기 때문에, 기상 전문가들은 구름의 종류를 판정 할 수 있는 기계학습 알고리즘을 클라우드 오토ML을 이용해 자동으로 생성할 수 있음


ž 구글에 따르면 클라우드 오토ML로 생성한 알고리즘의 인식률은 일반적인 신경망보다 정확도가 높아 활용가치가 더 높으며, 이미 다양한 분야에서 성공 사례가 나오고 있음


Ø 오토ML을 이용하면 우선 신경망 개발 기간을 크게 단축 할 수 있는 것이 장점으로, 파일럿 모델이라면 몇 분 안에 가능하고 프로덕션 모델이라도 하루 정도면 개발이 가능한데, 이렇게 금세 만든 신경망이라도 인식률은 기존 일반 AI보다 높다고 함


Ø 구글은 클라우드 오토ML을 비즈니스에 응용한 사례도 공개하고 있는데, 패션 브랜드인 어번 아웃피터(Urban Outfitters)는 상품에 태그를 붙이는 과정을 클라우드 오토ML 서비스를 이용해 자동화하고 있음



Ø 어번 아웃피터는 상품에 부여된 태그를 키 값으로 사용해 소비자들에게 제품을 추천하고 있으며, 상품 검색과 제품 필터링에서도 태그가 사용하는데, 이 태깅 작업에 클라우드 오토ML 을 이용해 상품 이미지를 분석하고 제품의 특징량을 추출하고 있음


Ø 가령 옷을 분류할 때 클라우드 오토ML로 만든 알고리즘은 가슴 부위의 형태에 따라 상품을 V-, 스쿱(Scoop) , 크루(Crew) 등으로 판정하는데, 이는 알고리즘이 디자인 패턴과 목선 등을 키 값으로 태그를 생성할 수 있기 때문


<자료> Google Cloud Platform

[그림 6] 어번 아웃피터의 패션 전용 AI


Ø 동물의 생태를 보호하는 활동을 전개하고 있는 국제 환경보호단체 Zoological Society of London(ZSL) 역시 클라우드 오토ML을 적극 활용하고 있음


Ø 이 단체는 동물의 생태를 이해하기 위해 서식지에 카메라를 설치하고 동물의 행동을 관찰하고 있는데, 범용 알고리즘이 사진을 보고 동물의 종류를 정확히 판정할 수 없기 때문에 사람이 이 과정에 관여하다 보니 태기 작업에 통상 9개월이 소요되었음


Ø 9개월이 지나고 나면 이미 야생동물의 이동이 크게 이루어지고 난 다음이기 때문에 보호 전략을 세워봐야 무용지물인 경우가 많았고, 밀렵꾼에 대한 대응도 뒷북이기 일쑤였는데, ZSL은 이 과정을 클라우드 오토ML을 이용해 자동화함으로써 문제를 해결하였음


Ø 9개월이 걸리던 태깅 작업을 순식간에, 또한 정확하게 처리할 수 있게 됨에 따라 ZSL은은 효과적인 동물보호 활동을 되었으며, 운영 비용 또한 크게 낮출 수 있게 되었는데, 단체 내에 AI 전문가 없이도 클라우드 오토ML 이용을 통해 이 모든 것이 가능하게 된 것임



ž AI를 만드는 AI의 이용 접근성이 높아짐에 따라 올해는 특정 업무 전용의 고급 AI 개발이 급증할 것으로 예상되며, AI의 개발의 대중화로 획기적인 AI가 출현할 가능성이 높음


Ø 에릭 레이먼드는 1997성당과 시장이란 글을 통해 중세시대 소수 성직자들이 지식을 독점한 것처럼 소수의 프로그래머들 소스코드를 독점해 프로그램을 개발하는 데서 벗어나 시장처럼 여러 사람이 모여 오픈소스로 공동 개발하는 것이 더 우월함을 주장한 바 있음


<자료> Network World

[그림 7] AI의 민주화


Ø 구글은 클라우드 오토ML 서비스를 공개하며 AI의 민주화를 기치로 내걸었는데, 여기에는 누구나 고도의 AI를 용이하게 개발할 수 있는 환경을 제공함으로써 소수가 개발할 때보다 훨씬 획기적인 AI가 개발되는 환경을 조성하겠다는 의미가 내포되어 있음


Ø 물론 구글의 클라우드 오토ML 서비스는 이제 막 시작된 것이고, 현재는 이미지 인식(Convolutional Neural Network) 관련 AI만 개발할 수 있는 한계가 있어 클라우드 오토ML을 통해 만든 신경망이 필요한 수준의 기능을 제공해주지 못할 수 있음


Ø 그러나 향후에는 음성 인식(Recurrent Neural Network) 관련 AI를 개발할 수 있는 기능도 제공될 것으로 예상되며, AI를 개발하는 AI의 기술이 발전할수록 클라우드 오토ML로 생성하는 신경망은 보다 고도화되며 동시에 보다 만들기 쉬워질 것임


Ø 그 시점이 도래한다면 AI의 민주화라는 구글의 비전이 현실화될 수 있을 것이며, 현재의 모바일 앱 개발처럼 수 많은 사람이 AI의 개발과 교육에 직접 참여하고 협업하는 과정에서 AI는 질적 도약을 이뤄낼 수 있을 것임


Ø 누구나 자신에게 필요한 AI를 누구나 개발할 수 있는 환경이 도래함에 따라 올해는 업무에 특화된 AI 알고리즘 개발이 확산될 것으로 예상되며, 더 나은 AI가 개발되고 확산되는 과정을 통해 인공지능은 우리 삶에 보다 급격히 접목되어 나갈 수 있을 것임