※ 아래 글은 정보통신기술진흥센터(IITP)가 발간하는 주간기술동향 1850호(2018. 6. 13. 발행)에 기고한 원고입니다.


▶ IITP에서 PDF 포맷으로 퍼블리싱한 파일을 첨부합니다. 가독성이 좋으니 참고하시기 바랍니다.

모빌아이 최신 칩 ‘EyeQ4’, 중국 전기자동차에 최초로 탑재.pdf



자동차 이미지 처리 칩 개발업체인 모빌아이(Mobileye)의 최신 칩 ‘EyeQ4’가 중국의 전기자동차 벤처기업 NIOES8 모델에 세계 최초로 탑재되었음


모빌아이는 2017년말 현재 전세계 27개 자동차 업체 313개 차종에 이미지 처리 칩 ‘EyeQ’ 시리즈를 공급하고 있는데, 이전 모델인 ‘EyeQ3’까지는 유럽의 자동차 제조업체에 세계 최초 채택이라는 수식어를 안겨주었음


4 세대 모델인 EyeQ4에서 관행이 깨진 것인데, 전세계 자동차 시장에서 중국의 위상 변화를 보여주는 상징적 사건이라는 평가가 나오고 있음


EyeQ3가 단안 카메라용이었다면, 최신 모델인 EyeQ4 칩은 3안 카메라를 지원하기 때문에 어느 때 보다 성능 향상에 대한 기대감이 컸음


자동 브레이크와 자율운전을 위한 센서는 그동안 단안 카메라 또는 스테레오 카메라를 사용하는 것이 상식이었지만, ES8 전기차에 EyeQ4 모델이 탑재된 것을 계기로 앞으로는 ‘3안 카메라가 대세가 될 것으로 예상되고 있음


<자료> YouTube

[그림 1] NIO의 신형 전기차 모델 ES8


중국의 EV 업체가 가장 먼저 EyeQ4 칩을 채택한 것에 대해서는, 중국 시장이 이미 최신 기술을 도입하지 않고는 경쟁하기 어려운 곳이 되었기 때문이란 분석이 나오고 있음


NIOES8 모델의 가격은 448천 위안으로 중국에서는 테슬라 모델 X’의 반값에 구입할 수 있는데, 2014년에 창업한 신생기업이기는 해도 NIO는 자동차 업계에서 높은 평가를 받고 있음


중국의 자동차 제조업체는 차근차근 실력을 양성해 왔고 자동차를 평가하는 중국 소비자의 눈도 엄격해졌기 때문에, 예전에는 이전 세대의 기능을 소개하는 것만으로도 좋았으나 이제는 최신 기술을 투입해 나가지 않으면 중국에서 어렵다는 말이 나오고 있음


중국 자동차 시장 전문가들은 이러한 변화의 흐름을 단적으로, 상징적으로 보여주는 건이 이번 NIO의 세계 최초 EyeQ4 채용이 될 것이라 보고 있음


ES8 전기차는 3안 카메라를 탑재하고 있는데, 모빌아이의 EyeQ4가 이전 모델에 비해 8배의 처리 능력을 가지고 있기 때문에 성능 지원이 가능한 것임


EyeQ4의 연산 능력은 2.5 TOPS(1초당 25천억 회 연산 가능)로 아주 높은데, 아우디의 A8 모델에 채택된 EyeQ3에 비해 8배의 처리 능력을 가진다고 함


이처럼 높은 처리 능력을 살릴 수 있는 용도가 ES8에 탑재된 3안 카메라인데, 중거리 용 표준 렌즈 외에, 장거리 및 단거리용 등 세 가지 렌즈를 탑재하고 있음


단거리 감시용 어안 렌즈의 시야각은 약 150도로 초광각이기 때문에 특히 교차로에서 좌우 회전시에 효과를 발휘함


전세계 자동차의 안전성 수준을 높이는 데 기여하고 있는 유럽의 'EuroNCAP'2020 년을 목표로 교차로에서 자동 브레이크 시험의 도입을 계획하고 있는데, 모빌아이의 EyeQ4는 바로 교차로 사고 감소 효과와 직결되는 것임


탑재한 CMOS 이미지 센서는 200만 화소급이어서 데이터 양이 커진다면 EyeQ3에서는 처리가 지연될 가능성도 있었으나, EyeQ4는 세 카메라의 정보의 연산을 20 밀리초 이하에 완료할 수 있어 고속도로와 정체시 자동 운전 기능을 구현할 수 있음


<자료> NIO

[그림 2] ES8 전면에 설치된 3안 카메라


모빌아이와 NIO의 이번 제휴는 향후 중국에서 숙성된 기술이 선진국으로 보급되는 사례가 증가할 수 있음을 시사한다는 점에서 업계의 비상한 주목을 받고 있음


ES8는 무선 통신을 통해 소프트웨어를 업데이트하는 'OTA(Over The Air)' 기능도 갖추고 있는데, NIO는 이를 운전 지원 시스템의 개선에 사용할 계획이며, 향후 '레벨 3' 자율운전 자동차로 끌어 올린다는 목표를 갖고 있음


SAE(미국자동차기술자협회)에 따르면 레벨 3 자율운전은 가감속과 조향 등의 작업을 특정 조건에서 시스템이 실시하며, 긴급 시에 운전자에게 작업 권한을 넘기는 것임


NIO는 자동차 센서가 취득한 데이터와 차량 정보 등을 클라우드로 송신하고 이를 바탕으로 운전 지원 시스템의 개선에 활용해 간다는 계획임


한편 EyeQ4는 자율운전에 필요한 지도 데이터를 생성 기능도 갖추고 있는데, 모빌아니는 달리는 차량이 인식한 표지판 등의 정보를 데이터 센터에 보내 이를 지도 데이터에 자동 업데이트하는 기술인 ‘REM(Road Experience Management)’를 개발한 바 있음


REMBMW, 닛산 등의 자동차 업체도 향후 도입할 예정인데, 중국에서 NIO 등의 전기차를 통해 검증된 기술이 선진국에 보급되는 사례가 향후 증가할 것으로 예상됨


※ 아래 글은 정보통신기술진흥센터(IITP)가 발간하는 주간기술동향 1850호(2018. 6. 13. 발행)에 기고한 원고입니다.


▶ IITP에서 PDF 포맷으로 퍼블리싱한 파일을 첨부합니다. 가독성이 좋으니 참고하시기 바랍니다.

미 국방부에 AI 기술 제공한 구글, 직원 항의로 계약 연장 포기.pdf



지난 5월 중순 구글 직원들은 미 국방부의 드론을 이용한 이슬람 국가 정찰에 구글의 AI 기술이 사용되고 있다며, 이 사업에서 구글이 철수할 것을 요청하며 항의한 바 있음


미 국방부는 드론을 이용한 정찰 임무를 수행하고 있는데, 여기에 AI(인공지능)를 도입하여 정찰 프로세스 자동화를 시도하였음


프로젝트 메이븐(Project Maven)’이라 명명된 이 시스템은 이슬람 국가(IS)와 시리아 등지에서 무인 항공기가 촬영한 영상에 찍혀있는 차량이나 인물 등의 객체를 AI가 이미지 분석을 통해 판정하도록 한 것임


그런데 구글이 메이븐 프로젝트에 AI 기술을 제공하고 있는 것으로 밝혀지면서 구글 직원들은 이에 항의하며, 순다르 피차이 CEO에게 국방부와 즉각적인 계약 해지를 요구하는 공개서한을 보냈음


공개서한에는 구글이 그 동안 군사 산업에 어떻게, 어느 범위로 관여해 왔는지, 그리고 회사의 방침이 정확히 무엇인지 밝힐 것을 요구하는 내용도 들어 있는데, 이 서한에는 4천 명의 구글 직원이 서명했고 12명의 엔지니어들은 항의의 뜻으로 퇴사하였음


<자료> Google

[그림 1] 구글 직원들의 항의 서한


이에 대해 구글 측은 국방부에 제공한 AI 기술은 드론을 비행시키거나 무기를 발사하는 데 사용되는 것은 아니며, 어디까지나 일반적인 임무에 사용되는 것이라 해명하였음


구글의 클라우드 사업부 총괄 책임자인 다이앤 그린은 구글이 공여한 것은 오픈소스인 텐서플로우(TensorFlow) API’이며, 무인 항공기로 촬영한 이미지를 분석하고 개체를 파악하기 위한 용도로 사용되고 있다고 밝혔음


프로젝트 메이븐에 공여된 기술은 전투력을 행사하는 전투 행위에 적용되는 것이 아니라, 입수한 데이터를 분석하는 일반적인 정보 행위에 사용되었다는 것임


따라서 구글이 제공한 기술은 소위 자율 병기(Autonomous Weapons)’에 사용되는 것이 아니며, 공격을 수반하지 않는 일상적인 정찰 활동에만 사용되었음을 강조하였음


자율 병기는 AI가 공격 목표를 파악하고, AI가 트리거를 시작하는 병기를 가리키는데, 인간의 판단을 거치지 않고 AI가 목표를 선택, 공격하므로 살인 로봇이라고도 불림


프로젝트 메이븐에서 적의 행동을 파악하는 데에만 AI를 사용한다는 구글의 해명에도 불구, 구글 직원들은 이 기술을 응용하면 얼마든 자율 병기로 이어질 우려가 있기 때문에 기술 공여에 반대한다는 입장을 더욱 거세게 표명하였음


미 국방부가 보도자료 형태로 공개한 프로젝트 메이븐의 개요를 보면, 국방부는 AI와 기계학습의 도입을 미션으로 하는 조직의 신설과 시스템 개발을 추진하고 있음


보도자료에 따르면 이 프로젝트 수행을 위해 국방부 내에 알고리즘 전쟁 교차 기능 팀(Algorithmic Warfare Cross-Functional Team)’이라는 부문이 신설되며, 프로젝트를 관할하는 시스템도 개발하게 됨


<자료> Wired

[그림 2] 신설된 알고리즘 전쟁 교차기능 팀


신설 부문은 국방부 조직 전반에 걸친 AI와 기계학습의 도입을 미션으로 하고 있으며, 그 첫 사업이 바로 프로젝트 메이븐임


미 국방부는 이슬람 국가(IS)가 지배하고 있는 지역과 시리아에서 무인 항공기를 비행시켜 정찰 활동을 전개하고 있는데, 무인 항공기에 탑재된 카메라로 지상을 촬영하면 애널리스트가 동영상과 사진을 보고 찍혀 있는 객체의 종류를 판정해 왔음


이 정찰 임무는 현재 전략 드론인 ‘ScanEagle’과 전술 무인 항공기인 ‘MQ-1C Gray Eagle’ ‘MQ-9 Reaper’이 맡고 있음


그런데 촬영된 이미지가 대용량이기 때문에 애널리스트가 수작업으로 처리하기에 한계가 있어, 이 과정을 AI로 자동화하는 것을 목적으로 메이븐 프로젝트를 시작하였음


알고리즘이 객체를 38개 종류(차량, 사람, 행동 등)로 특정한 후, 문제라고 생각되는 정보를 추출해 내면 이를 애널리스트가 정밀 분석하는 프로세스로 변경한 것임


◾ 구글 직원들의 반대 항의에 대해서는 과민반응이라는 의견과, 세계 최고 수준인 구글의 AI 기술력을 감안할 때 문제 소지를 사전에 차단해야 한다는 옹호론이 엇갈리고 있음


현재 구글만 미 국방부에 AI 기술을 공여하고 있는 것은 아니어서, 아마존과 마이크로소프트도 클라우드 서비스를 통해 이미지 분석 기술 등을 제공하고 있으며, 데이터 과학에서 톱을 달리는 팔란티어(Palantir) 역시 국방부에 정보 서비스를 제공하고 있음


이들 기업에서는 AI가 군사 목적으로 사용되는 것에 대해 반대 운동은 일어나지 않고 있는데, 이를 두고 타 산업과 마찬가지로 국방부도 정부 분석에 AI를 이용하는 것뿐인데 구글 직원들이 너무 이상향을 쫓는 것 아니냐고 불편해하는 시각도 있음


반면, 세계 최첨단의 AI 기술을 가진 구글이기 때문에 그 기술을 군사 시스템에 제공 한 것에 대한 반대의 목소리가 높아지고 있는데, 특히 악해지지 말자는 구글의 미션을 거론하며 비판하는 목소리가 많음


대학 교수를 중심으로 하는 AI 연구자 1천여 명은 구글 창업자이자 알파벳의 CEO인 래리 페이지에게 프로젝트 메이븐에서 손을 떼고, 앞으로도 AI를 군사 목적으로 사용하지 않는 것을 명확히 하라는 요구를 전달하기도 하였음


◾ 기업 안팎에서 항의가 거세지자 구글은 국방부와 계약을 연장하지 않겠다고 밝히며, AI 기술의 활용과 관련한 윤리 가이드라인을 만들어 발표하겠다는 계획을 밝혔음


사태가 발생하자 초기에 구글은 직원들의 항의에도 불구하고, 일반적인 정보 분석에 AI 기술이 적용된 것이라면 별 문제 없다는 입장을 고수하였음


그러나 직원들이 항의의 표시로 퇴사까지 하는 상황에서도 꿈쩍않는 구글에 대한 비난이 거세지면서 61일 다이앤 그린 클라우드 총괄 책임자는 직원과의 미팅을 통해 20193월 만료되는 메이븐 프로젝트의 계약을 연장하지 않겠다고 밝혔음


이 자리에서는 또한 AI 기술 활용과 관련한 윤리 가이드라인 작성 계획도 밝혔는데, 여기에 메이븐 프로젝트와 같이 군사 임무에 사용되는 경우도 포함할 지에 대해서는 정확히 알려지지 않았음


◾ 이번 문제는 비즈니스 철학에 대한 것이기도 하지만, 근본적으로는 국방에서 AI를 어느 범위까지 응용할 것인가에 대한 사회적 협의가 이루어지지 않은 데서 기인한 면이 큼


이번에 문제가 된 구글의 텐서플로우는 오픈소스로 공개되어 있기 때문에 누구나 자유롭게 사용할 수 있고, 구글이 계약을 연장하지 않는다고 해도 국방부의 프로젝트 메이븐에서는 텐서플로우를 계속해서 사용할 수 있음


텐서플로우 외에도 시장에는 수많은 오픈소스 AI 기술들이 공개되어 있으며 이들이 군사 목적으로 사용되고 있을 가능성을 배제할 수 없기에, 이번 구글 직원들에 의한 문제 제기는 AI 오픈소스를 어떻게 관리해야 하는가라는 본질적인 질문을 포함하고 있음


한편 AI의 군사 이용에 대해서는 일찍부터 그 위험성이 지적되었고, 전세계 차원에서 운용 지침의 제정이 요구되어 왔으나, 각국의 군사 시스템에서는 이미 고급 AI가 도입 되어 있고 통일된 규칙이 없는 채 개발이 선행되고 있는 상황임


이런 상황에서 구글이라는 AI의 강자가 언급되자 그 파급력에 대한 사회의 우려가 단번에 높아지면서 이슈화 된 것으로 볼 수 있는데, 이번 일을 계기로 하이테크 기업들은 AI의 군사 이용에 관한 명확한 정책 수립을 요구받게 될 것으로 보임


아울러 군사 프로젝트에 AI를 활용하는 것 외에 일반적인 AI 활용에 있어서도 더욱 엄격한 윤리적 지침을 마련해야 한다는 시민사회의 요구가 높아질 가능성도 제기되고 있음


※ 아래 글은 정보통신기술진흥센터(IITP)가 발간하는 주간기술동향 1850호(2018. 6. 13. 발행)에 기고한 원고입니다.


▶ IITP에서 PDF 포맷으로 퍼블리싱한 파일을 첨부합니다. 가독성이 좋으니 참고하시기 바랍니다.

진화하는 &lsquo;수퍼 라이더&rsquo;, 2세대 자율운전차의 통합 센서.pdf



[ 요 약 ]


현재 개발 중이거나 시범사업 중인 자율운전 자동차들은 모두 카메라, 라이더, 레이더 등 다양한 센서의 장단점을 종합하여 사용하는 센서 퓨전방식으로 개발되고 있는데, 이는 비효율성을 감수하고서라도 안전성을 확보하기 위한 자동차 업계의 전략적 판단에 따른 것임. 그러나 자동차 업계에서는 안전성만큼 비용절감이 중요한 목표가 되어 왔으며, 자율운전차 분야에서도 주요 센서들의 기능을 하나로 결합한 통합 센서의 개발은 필연적 흐름이며, 라이더를 개선한 수퍼 라이더의 개발 경쟁 흐름으로 가시화되기 시작하고 있음



[ 본 문 ]


자율운전 차량의 주위를 인식하는 센서 기술이 새로운 국면을 맞이하고 있는데, 최근 1년 새 미국과 이스라엘의 벤처기업들은 혁신적인 탐지 기술 개발 경쟁을 벌이고 있음


차세대 주변 인식 센서는 카메라(CMOS 이미지 센서), LiDAR(라이더, Light Detection and Ranging), 밀리파 레이더 등 기존 센서들의 감지 방식 중 장점만을 한군데 모아놓은 것이라 할 수 있음


대부분의 신형 센서 개발 기업들은 자신들의 제품이 레이더 혹은 라이더의 일종이라 말하고 있지만다양한 센서 기능을 통합한 완전한 신형이기 때문에, 감지 원리를 놓고 보면 기존 분류 체계에 부합하지 않음.


통합형의 신형 센서는 기존의 카메라, 라이더, 레이더 등을 시장에서 도태시키고 모든 자동차 제조업체가 필요로 하고 있는 센서 플랫폼의 자리를 노리고 있다는 점에서, 기술기업 및 생태계 전반에 미치는 영향을 클 것으로 예상됨


현재 자동차 업계는 자율운전차용 센서 개발은 센서 퓨전(Sensor Fusion)’을 기본 방침으로 한다는 것에 공감대(consensus)를 형성하고 있음


센서 퓨전은 카메라(CMOS 이미지 센서), LiDAR(라이더, Light Detection and Ranging), 밀리파 레이더 등의 필수 센서와 기타 센서를 결합하는 방식을 말함


각 센서 별로 역할과 장단점이 있기 때문에 각 센서 데이터들을 종합, 상호보완하여 사용하겠다는 것이 센서 퓨전의 기본 아이디어임


자율운전은 무엇보다 안전을 최우선으로 해야 하기 때문에, 설사 센서들의 감지 범위가 겹치더라도 일부러 중복 및 조합하여 사용함으로써 우천, 역광 등 주변 인식이 어려운 조건에서도 확실히 인식하는 것을 목표로 해야 한다는 것임


여러 센서에서 획득된 정보는 자동차의 컴퓨터에 동시에 전달되어 조합된 후 융합 정보가 되며, 이를 통해 차량 외부의 상황을 종합적으로 인식하게 됨


예를 들어 악천후 상황이어서 만일 카메라의 정보가 부적절할 한 경우라면 라이더의 정보로 보충하고, 반대로 라이더 정보가 부족한 경우 레이더의 정보를 이용해 안전 확보에 필요한 최소한의 판단 근거 자료를 제공하는 식임


[1] 자율운전차량 필수 센서들의 장단점 비교

자동차의 센서

장점

단점

카메라

- 색상과 고해상도의 형상 인식에 적합

- 객체와 거리 및 속도의 직접 측정 불가

- 우천이나 안개 등 악천후 인식 능력 낮음

라이더

- 객체와 거리 이미지를 형상 인식이 가능한 분해능(두 점이나 두 선을 분리된 것으로 인식)으로 얻을 수 있음

- 속도를 직접 측정할 수 없음

- 악천후, 강한 햇볕 등 열악한 환경에서 원거리 인식 능력 저하 우려

레이더

- 거리와 속도를 직접 감지할 수 있음

- 열악한 환경에서 라이더와 카메라보다 원거리 인식 가능

- 분해능이 떨어짐

- 대상물이 사람 또는 차량일 경우 부적합

<자료> IITP 정리


2020년을 전후에 본격 상용화가 시작될 1세대 자율운전차의 대부분은 센서 퓨전을 기반으로 할 것으로 보이는데, 그렇게 되면 약 20여 개의 센서를 탑재하게 되는 셈


처음 선보일 자율운전차들은 웨이모와 GM 등을 비롯 현재 개발업체들이 테스트 및 시범사업을 전개하는 차량이 베이스가 될 것인데, 이들 실험용 차량의 사양을 보면 카메라, 라이더, 레이더 등 필수 센서만 해도 20개 안팎을 탑재하고 있음


여기에 경우에 따라 근거리용 초음파 센서, 카메라와 원거리 레이더가 커버 할 수 없는 먼 곳의 방위 측정용으로 사용하는 원적외선카메라(열화상 카메라)도 사용하게 됨


또한 이들 센서 정보와 함께 차량간 통신을 통해 얻은 다른 차량의 정보, 도로-차량간 통신에 의한 획득한 도로 인프라의 정보도 활용하게 됨


도로에서 실제 주행 실적이 적은 초기의 자율운전차들이 일부러 중복을 허용하고 신뢰성에 중점을 두는 센서 퓨전 기반을 채택하는 것은 타당한 측면이 있음


센서 퓨전의 개념은 자동차 제조업체는 물론 전장 시스템 제조업체인 티어(Tier) 1'과 전자부품 제조업체인 티어 2‘에도 깊숙이 스며들어 있음


특히 자동차 업계에서 업력이 오래된 관계자들일수록 중복하더라도 높은 신뢰성을 확보 할 수 있는 센서 퓨전 방식의 개발이 앞으로도 필요하다고 입을 모으고 있음


그러나 센서 퓨전으로 모든 문제가 해결되는 것도 아니며, 차량의 비용, 외형의 크기, 중량, 소비전력이 모두 증대하는 등 최근 자동차 개발 흐름과 배치되는 문제가 발생함


특히 다수의 센서를 탑재함으로써 비용이 많이 들어 차량 가격이 100만 달러를 넘어서는 문제가 가장 이슈가 되는데, 이로 인해 초기 자율운전차는 고급차와 공유 서비스용 차량이 중심이 될 것이라 전망되고 있음


이러한 센서 퓨전 방식의 문제를 해결하기 위해 신형 센서들이 개발되고 있는데 그 중 대표적인 것이 수퍼 라이더


수퍼 라이더는 감지 원리까지 일신하고 있는데, 이 때문에 라이더라는 이름이 붙어 있기는 하지만, 더 이상 전통적 의미의 라이더는 아니라 보는 관계자들도 있음


라이더의 진화는 두 단계로 전개되어 왔는데, 처음에는 큰 부피와 높은 비용의 주원인이 되는 미캐닉(mechanic, 기계학적) 구조를 개선하여, MEMS(미세전자기계시스템) 등으로 기계화를 최소화하는 방향으로 개발이 진행되었음(1의 진화)


최근에는 라이더의 대표적인 작동원리 그 자체를 재검토하여 기존 라이더의 원리로 인해 야기된 한계를 타파하려는 개발(2의 진화)이 진행되고 있는데, 이를 통해 고해상도화, 장거리화, 고속화를 도모하고 있음


<자료> xTech

[그림 1] 자율주행차 센서 기술의 진화


수퍼 라이더는 라이더의 일반적인 거리 측정 기법들을 반드시 사용하는 것은 아니기 때문에 라이더가 아니라는 평도 나오는 것이며, 기술 혁신도 여러 방향에서 도모되고 있음


라이더는 기본적으로 근적외광(파장 900~1100nm1500nm 부근의 빛)의 펄스를 내리쬐어 대상물로부터 반사되어 오는 시간(ToF, Time of Flight, 비과시간)으로 거리를 추정함


그러나 근적외광은 태양의 파장과 겹치는데다 짧은 펄스의 잡음에 약하고, 악천후에서 장거리 측정이 어렵다는 문제가 있음


이의 해결을 위해 레이더에 채택된 FMCW(Frequency Modulated Continuous Wave, 주파수 변조 연속파 레이더)를 적용하여 라이더를 개발하는 사례가 나오고 있음


근적외광의 수광부를 변경하여 개발하는 사례도 있는데, 대부분의 라이더는 포토 다이오드(PD)를 사용하며, 감도를 높이기 위해 단일 광자의 입사에서 대량의 전자를 발생시키는 애벌란시 포토 다이오드(APD)’를 채택하는 경우가 많음


그러나 APD는 악천후에서 측정을 장거리화하기에 한계가 있는데, 수퍼 라이더 중에는 근적외광보다 긴 파장의 적외광을 사용하여 빛을 파동으로 인식해 안테나에서 빛을 받는 사례가 있으며, 이는 근적외광의 전파에 따른 문제를 해결하기 위한 것임


한편 해상도를 카메라 수준으로 높이기 위해 일반 CMOS 이미지 센서를 사용하는 수퍼 라이더도 등장하는 등 신형 라이더 개발은 경쟁 양상도 보이고 있음


일반 CMOS 이미지 센서를 사용하여 카메라 수준의 고해상도 거리 이미지를 얻을 수 있는 수퍼 라이더를 개발하고 있는 곳은 미국의 벤처기업인 테트라뷰(TetraVue)’


테트라뷰는 이미지 센서의 수광부에 범용 CMOS 센서를 사용할 수 있는 라이더를 개발 중인데, 단 거리 측정에는 일반적인 라이더와 같이 ToF 방식을 사용함


테트라뷰의 수퍼 라이더는 약 200만 화소의 CMOS 이미지 센서를 사용하고 있어, 거리 이미지의 해상도는 카메라와 견주어 손색이 없는 수준임


초당 25 프레임 촬영이 가능하여 거의 실시간으로 거리 이미지를 얻을 수 있으며, 촬영 가능한 거리는 최대 80m로 나와 있지만 실제로는 130m까지 감지할 수 있으며, 향후 200m까지 장거리화 할 계획이라고 함


테트라뷰의 기술은 파장이 800nm ​​대로 가시광선에 가까운 근적외광 펄스를 기존의 플래시형 라이더와 마찬가지로 감지 범위에 내리쪼인 후 반사파를 이미지 센서에서 수광


이때 화소마다 반사파의 도달 시간을 측정하여 거리 이미지를 얻는데, 도달 시간은 자체 개발한 광학기구를 조합하여 측정하고 있음


<자료> Nikkei Electronics

[그림 2] CES 2018에서 테트라뷰의 시연 장면


테트라뷰의 수퍼 라이더는 저비용화가 가능하다는 장점이 있지만, 펄스를 사용하기 때문에 잡음에 약한 라이더의 과제는 여전히 안고 있음


반사파의 도달 시간 측정 방법에 대해 테트라뷰가 자세히 밝히고 있지는 않지만, 특허 출원 내용에 따르면 반사광의 강도를 통해 추정하는 것으로 보임


이미지 센서의 전면에 2개의 편광판을 겹친 광학 필터를 두며, 그 편광 특성을 전기적으로 제어하여 광학 필터의 투과율을 한 프레임 내에서 시간으로 바꾸는데, 가령 투과성을 90%에서 10%까지 직선적으로 낮추면 투과성은 수신 시간과 11로 대응하게 됨


따라서 이미지 센서의 각 화소가 받은 신호의 진폭을 통해 각 화소에 반사파가 도달한 시간을 알 수 있는데, 반사파의 진폭은 물체의 반사율에 따라 변화하므로 필터로 감쇄시키지 않고 수광한 신호로 정규화 하며, 정규화 된 신호 강도가 수신 시간에 대응하므로 거리를 추정할 수 있음


테트라뷰의 이 기술은 거리 정확도를 결정하는 시간의 측정을 ns(나노초) 순서로 실행할 필요가 없기 때문에 거리 방향의 분해능을 쉽게 높일 수 있을 것으로 보임


또한 일반 CMOS 이미지 센서와 수지 필름만으로 가동부 없이 구성할 수 있기 때문에 저비용화하기도 쉽다는 장점이 있음


다만 근적외광을 사용하기 때문에 안개 등에 흡수되기가 쉽고, 펄스를 사용하므로 잡음에 약하다는 라이더의 과제는 여전히 남아 있음


근적외광 펄스에서 기인하는 문제의 해결책이 될 수 있는 센서를 개발하고 있는 곳은 이스라엘의 벤처기업인 오릭스 비전(Oryx Vision)’


오릭스 비전은 장거리 레이더에 견줄 만한 측정 범위(150m 이상)를 고분해능으로 센싱이 가능한 라이더를 개발 중임


레이저 빛을 섬광처럼 쪼인다는 점에서 기존 라이더와 같지만 레이더의 무선통신 방식 (FMCW)과 무선 수신 기술(MIM 안테나)을 조합한 것이 특징


적외광 중 장파장으로 분류되는 파장 10μm의 레이저 광을 사용하므로, 파장 1μm 전후의 근적외광을 사용하는 기존 라이더보다 안개 등의 환경에서 투과성이 높음


또한 펄스의 반사파가 아니라 레이더와 같은 연속파에 의한 FMCW 방식을 채택하고 있고 감지 범위의 전방향에 빛을 방사하는 플래시 타입이며, 반사 신호는 포토 다이오드가 아니라 안테나로 수신하고 초당 1500만 화소로 이미지 촬영이 가능함


오릭스 비전의 센서는 150m 떨어진 곳에서 10cm의 거리 분해능을 제공하는데, 5μm2 크기의 다수의 안테나 소자를 넣어 분해능을 확보하고 있음


<자료> Nikkei Electronics

[그림 3] 무선통신 기술을 이용한 라이더


특허 출원 내용에 따르면 오릭스 비전은 MIM 소자를 사용하는 것으로 보이는데, MIM 소자에 빛을 전력으로 변환하는 렉테나(rectenna)'를 구성하며, 렉테나는 일반적으로 포토 다이오드보다 감도가 높음


FMCW 방식의 레이더와 마찬가지로 낮은 값에서 높은 값까지 선형적으로 변하는 주파수를 갖는 처프(chirp)신호로 변조된 적외선을 송출하고 반사파와 믹싱하는데, 믹싱에서 얻을 수 있는 송신파와 수신파의 차이는 지연시간과 거리에 비례한 주파수가 됨


믹싱하여 발생하는 신호는 실리콘 반도체와 호환되는 주파수가 되도록 설계 할 수 있으나, 10μm의 파장은 20전후의 물체에서 나오는 복사파의 파장에 가깝기 때문에 주위 환경이 잡음의 원천이 될 수 있는 단점이 있음


레이더와 같은 FMCW를 사용하는 수퍼 라이더를 개발 중인 벤처기업은 스테라비전(SteraVision)’인데, 500m 등 장거리 대응 레이더가 불필요하게 될 것이라 보고 있음


독자적으로 개발을 진행하고 있는 스테라비전은 신호를 ToF 방식보다 40배의 고감도로 받을 수 있고, 비나 안개 등 악천후에도 강하며, 파장이나 위상이 있는 레이저 광원을 사용하지 않고도 디지털 신호 처리를 통해 보정할 수 있는 기술을 조합하였음


스테라비전의 센서는 레이저 빔을 주사(스티어링)하는 방법에 특징이 있는데, 임의의 지점에 산발적으로 빔을 조사할 수 있으며, 굴절률을 제어 할 수 있는 액정 등으로 구성된 필름을 사용함


1쌍의 필름으로 빔을 두 방향 중 하나에 굴절시키므로 가령 8쌍을 겹치면 28(256)개 방향 중 어느 한 방향을 선택할 수 있고, 2개축을 준비하면 256×256 의 스캔이 가능하게 되는데, 전환 시간은 14μ~20μs 정도임


스테라비전은 빔 소자의 프로토타입을 제작하였으며, 이 부분만 2018년 내에 출시할 예정이며, FMCW 방식의 동작 여부를 2018년 내에 실증한다는 계획


<자료> xTech

[그림 4] 레이더 방식을 이용한 스테라비전


자동차 업계에서 안전성 확보를 위해 중복이 허용되던 센서의 통합은 필연적이며, 따라서 자율주행차의 3개 필수 센서를 넘어설 센서의 개발 경쟁도 이제 막 본격화되고 있음


자동차 업계는 안전이 제일이기는 하지만 비용절감 의식도 매우 강하기 때문에, 새로운 기술의 투입 초기에는 중복이 허용되다가 시장에서 검증되고 실적이 쌓이게 되면 안전성 보다 비용절감에 초점을 맞추는 경향이 있음


자동차 산업의 역사를 되돌아보면 ABS(Antilock Brake System)가 그랬고, 차량 마이크로컴퓨터 등의 전자 시스템이 그랬음


그렇게 보면 자율운전차의 보급이 시작되고, 추가적인 기능의 개발에 들어서는 단계에서는 중복이나 여유가 없어질 것이고, 그 과정에서 필연적으로 다양한 센서의 통합이 진행될 것이라 예상할 수 있음


카메라, 라이더, 레이더라는 자율운전차의 3대 센서 영역을 넘어선 통합 센터 개발의 큰 경쟁이 시작되었으며, 초기 양상은 기존 라이더에 카메라와 레이더 기능을 통합하는 수퍼 라이더 개발 경쟁으로 드러나고 있음


현재 회자되고 있는 1세대 자율운전차들이 센서 융합 방식 기반으로 개발된 것이라면, 새로운 통합 센서 개발의 경쟁은 자율운전차 초기 시장이 형성되고 난 후 본격적으로 산업을 형성할 2세대 자율운전차 시장을 겨냥하고 있음


자율운전차 개발의 후발주자들은 이러한 흐름을 잘 파악하여, 자율운전차 시장 경쟁에서 계속 뒤처지지 않기 위해 통합 센싱 기술의 개발을 병행하는 등 전략적인 기술 개발 및 시장 진입 계획을 수립하고 실행해 나갈 필요가 있음