※ 아래 글은 정보통신기술진흥센터(IITP)가 발간하는 주간기술동향 1850호(2018. 6. 13. 발행)에 기고한 원고입니다.


▶ IITP에서 PDF 포맷으로 퍼블리싱한 파일을 첨부합니다. 가독성이 좋으니 참고하시기 바랍니다.

진화하는 ‘수퍼 라이더’, 2세대 자율운전차의 통합 센서.pdf



[ 요 약 ]


현재 개발 중이거나 시범사업 중인 자율운전 자동차들은 모두 카메라, 라이더, 레이더 등 다양한 센서의 장단점을 종합하여 사용하는 센서 퓨전방식으로 개발되고 있는데, 이는 비효율성을 감수하고서라도 안전성을 확보하기 위한 자동차 업계의 전략적 판단에 따른 것임. 그러나 자동차 업계에서는 안전성만큼 비용절감이 중요한 목표가 되어 왔으며, 자율운전차 분야에서도 주요 센서들의 기능을 하나로 결합한 통합 센서의 개발은 필연적 흐름이며, 라이더를 개선한 수퍼 라이더의 개발 경쟁 흐름으로 가시화되기 시작하고 있음



[ 본 문 ]


자율운전 차량의 주위를 인식하는 센서 기술이 새로운 국면을 맞이하고 있는데, 최근 1년 새 미국과 이스라엘의 벤처기업들은 혁신적인 탐지 기술 개발 경쟁을 벌이고 있음


차세대 주변 인식 센서는 카메라(CMOS 이미지 센서), LiDAR(라이더, Light Detection and Ranging), 밀리파 레이더 등 기존 센서들의 감지 방식 중 장점만을 한군데 모아놓은 것이라 할 수 있음


대부분의 신형 센서 개발 기업들은 자신들의 제품이 레이더 혹은 라이더의 일종이라 말하고 있지만다양한 센서 기능을 통합한 완전한 신형이기 때문에, 감지 원리를 놓고 보면 기존 분류 체계에 부합하지 않음.


통합형의 신형 센서는 기존의 카메라, 라이더, 레이더 등을 시장에서 도태시키고 모든 자동차 제조업체가 필요로 하고 있는 센서 플랫폼의 자리를 노리고 있다는 점에서, 기술기업 및 생태계 전반에 미치는 영향을 클 것으로 예상됨


현재 자동차 업계는 자율운전차용 센서 개발은 센서 퓨전(Sensor Fusion)’을 기본 방침으로 한다는 것에 공감대(consensus)를 형성하고 있음


센서 퓨전은 카메라(CMOS 이미지 센서), LiDAR(라이더, Light Detection and Ranging), 밀리파 레이더 등의 필수 센서와 기타 센서를 결합하는 방식을 말함


각 센서 별로 역할과 장단점이 있기 때문에 각 센서 데이터들을 종합, 상호보완하여 사용하겠다는 것이 센서 퓨전의 기본 아이디어임


자율운전은 무엇보다 안전을 최우선으로 해야 하기 때문에, 설사 센서들의 감지 범위가 겹치더라도 일부러 중복 및 조합하여 사용함으로써 우천, 역광 등 주변 인식이 어려운 조건에서도 확실히 인식하는 것을 목표로 해야 한다는 것임


여러 센서에서 획득된 정보는 자동차의 컴퓨터에 동시에 전달되어 조합된 후 융합 정보가 되며, 이를 통해 차량 외부의 상황을 종합적으로 인식하게 됨


예를 들어 악천후 상황이어서 만일 카메라의 정보가 부적절할 한 경우라면 라이더의 정보로 보충하고, 반대로 라이더 정보가 부족한 경우 레이더의 정보를 이용해 안전 확보에 필요한 최소한의 판단 근거 자료를 제공하는 식임


[1] 자율운전차량 필수 센서들의 장단점 비교

자동차의 센서

장점

단점

카메라

- 색상과 고해상도의 형상 인식에 적합

- 객체와 거리 및 속도의 직접 측정 불가

- 우천이나 안개 등 악천후 인식 능력 낮음

라이더

- 객체와 거리 이미지를 형상 인식이 가능한 분해능(두 점이나 두 선을 분리된 것으로 인식)으로 얻을 수 있음

- 속도를 직접 측정할 수 없음

- 악천후, 강한 햇볕 등 열악한 환경에서 원거리 인식 능력 저하 우려

레이더

- 거리와 속도를 직접 감지할 수 있음

- 열악한 환경에서 라이더와 카메라보다 원거리 인식 가능

- 분해능이 떨어짐

- 대상물이 사람 또는 차량일 경우 부적합

<자료> IITP 정리


2020년을 전후에 본격 상용화가 시작될 1세대 자율운전차의 대부분은 센서 퓨전을 기반으로 할 것으로 보이는데, 그렇게 되면 약 20여 개의 센서를 탑재하게 되는 셈


처음 선보일 자율운전차들은 웨이모와 GM 등을 비롯 현재 개발업체들이 테스트 및 시범사업을 전개하는 차량이 베이스가 될 것인데, 이들 실험용 차량의 사양을 보면 카메라, 라이더, 레이더 등 필수 센서만 해도 20개 안팎을 탑재하고 있음


여기에 경우에 따라 근거리용 초음파 센서, 카메라와 원거리 레이더가 커버 할 수 없는 먼 곳의 방위 측정용으로 사용하는 원적외선카메라(열화상 카메라)도 사용하게 됨


또한 이들 센서 정보와 함께 차량간 통신을 통해 얻은 다른 차량의 정보, 도로-차량간 통신에 의한 획득한 도로 인프라의 정보도 활용하게 됨


도로에서 실제 주행 실적이 적은 초기의 자율운전차들이 일부러 중복을 허용하고 신뢰성에 중점을 두는 센서 퓨전 기반을 채택하는 것은 타당한 측면이 있음


센서 퓨전의 개념은 자동차 제조업체는 물론 전장 시스템 제조업체인 티어(Tier) 1'과 전자부품 제조업체인 티어 2‘에도 깊숙이 스며들어 있음


특히 자동차 업계에서 업력이 오래된 관계자들일수록 중복하더라도 높은 신뢰성을 확보 할 수 있는 센서 퓨전 방식의 개발이 앞으로도 필요하다고 입을 모으고 있음


그러나 센서 퓨전으로 모든 문제가 해결되는 것도 아니며, 차량의 비용, 외형의 크기, 중량, 소비전력이 모두 증대하는 등 최근 자동차 개발 흐름과 배치되는 문제가 발생함


특히 다수의 센서를 탑재함으로써 비용이 많이 들어 차량 가격이 100만 달러를 넘어서는 문제가 가장 이슈가 되는데, 이로 인해 초기 자율운전차는 고급차와 공유 서비스용 차량이 중심이 될 것이라 전망되고 있음


이러한 센서 퓨전 방식의 문제를 해결하기 위해 신형 센서들이 개발되고 있는데 그 중 대표적인 것이 수퍼 라이더


수퍼 라이더는 감지 원리까지 일신하고 있는데, 이 때문에 라이더라는 이름이 붙어 있기는 하지만, 더 이상 전통적 의미의 라이더는 아니라 보는 관계자들도 있음


라이더의 진화는 두 단계로 전개되어 왔는데, 처음에는 큰 부피와 높은 비용의 주원인이 되는 미캐닉(mechanic, 기계학적) 구조를 개선하여, MEMS(미세전자기계시스템) 등으로 기계화를 최소화하는 방향으로 개발이 진행되었음(1의 진화)


최근에는 라이더의 대표적인 작동원리 그 자체를 재검토하여 기존 라이더의 원리로 인해 야기된 한계를 타파하려는 개발(2의 진화)이 진행되고 있는데, 이를 통해 고해상도화, 장거리화, 고속화를 도모하고 있음


<자료> xTech

[그림 1] 자율주행차 센서 기술의 진화


수퍼 라이더는 라이더의 일반적인 거리 측정 기법들을 반드시 사용하는 것은 아니기 때문에 라이더가 아니라는 평도 나오는 것이며, 기술 혁신도 여러 방향에서 도모되고 있음


라이더는 기본적으로 근적외광(파장 900~1100nm1500nm 부근의 빛)의 펄스를 내리쬐어 대상물로부터 반사되어 오는 시간(ToF, Time of Flight, 비과시간)으로 거리를 추정함


그러나 근적외광은 태양의 파장과 겹치는데다 짧은 펄스의 잡음에 약하고, 악천후에서 장거리 측정이 어렵다는 문제가 있음


이의 해결을 위해 레이더에 채택된 FMCW(Frequency Modulated Continuous Wave, 주파수 변조 연속파 레이더)를 적용하여 라이더를 개발하는 사례가 나오고 있음


근적외광의 수광부를 변경하여 개발하는 사례도 있는데, 대부분의 라이더는 포토 다이오드(PD)를 사용하며, 감도를 높이기 위해 단일 광자의 입사에서 대량의 전자를 발생시키는 애벌란시 포토 다이오드(APD)’를 채택하는 경우가 많음


그러나 APD는 악천후에서 측정을 장거리화하기에 한계가 있는데, 수퍼 라이더 중에는 근적외광보다 긴 파장의 적외광을 사용하여 빛을 파동으로 인식해 안테나에서 빛을 받는 사례가 있으며, 이는 근적외광의 전파에 따른 문제를 해결하기 위한 것임


한편 해상도를 카메라 수준으로 높이기 위해 일반 CMOS 이미지 센서를 사용하는 수퍼 라이더도 등장하는 등 신형 라이더 개발은 경쟁 양상도 보이고 있음


일반 CMOS 이미지 센서를 사용하여 카메라 수준의 고해상도 거리 이미지를 얻을 수 있는 수퍼 라이더를 개발하고 있는 곳은 미국의 벤처기업인 테트라뷰(TetraVue)’


테트라뷰는 이미지 센서의 수광부에 범용 CMOS 센서를 사용할 수 있는 라이더를 개발 중인데, 단 거리 측정에는 일반적인 라이더와 같이 ToF 방식을 사용함


테트라뷰의 수퍼 라이더는 약 200만 화소의 CMOS 이미지 센서를 사용하고 있어, 거리 이미지의 해상도는 카메라와 견주어 손색이 없는 수준임


초당 25 프레임 촬영이 가능하여 거의 실시간으로 거리 이미지를 얻을 수 있으며, 촬영 가능한 거리는 최대 80m로 나와 있지만 실제로는 130m까지 감지할 수 있으며, 향후 200m까지 장거리화 할 계획이라고 함


테트라뷰의 기술은 파장이 800nm ​​대로 가시광선에 가까운 근적외광 펄스를 기존의 플래시형 라이더와 마찬가지로 감지 범위에 내리쪼인 후 반사파를 이미지 센서에서 수광


이때 화소마다 반사파의 도달 시간을 측정하여 거리 이미지를 얻는데, 도달 시간은 자체 개발한 광학기구를 조합하여 측정하고 있음


<자료> Nikkei Electronics

[그림 2] CES 2018에서 테트라뷰의 시연 장면


테트라뷰의 수퍼 라이더는 저비용화가 가능하다는 장점이 있지만, 펄스를 사용하기 때문에 잡음에 약한 라이더의 과제는 여전히 안고 있음


반사파의 도달 시간 측정 방법에 대해 테트라뷰가 자세히 밝히고 있지는 않지만, 특허 출원 내용에 따르면 반사광의 강도를 통해 추정하는 것으로 보임


이미지 센서의 전면에 2개의 편광판을 겹친 광학 필터를 두며, 그 편광 특성을 전기적으로 제어하여 광학 필터의 투과율을 한 프레임 내에서 시간으로 바꾸는데, 가령 투과성을 90%에서 10%까지 직선적으로 낮추면 투과성은 수신 시간과 11로 대응하게 됨


따라서 이미지 센서의 각 화소가 받은 신호의 진폭을 통해 각 화소에 반사파가 도달한 시간을 알 수 있는데, 반사파의 진폭은 물체의 반사율에 따라 변화하므로 필터로 감쇄시키지 않고 수광한 신호로 정규화 하며, 정규화 된 신호 강도가 수신 시간에 대응하므로 거리를 추정할 수 있음


테트라뷰의 이 기술은 거리 정확도를 결정하는 시간의 측정을 ns(나노초) 순서로 실행할 필요가 없기 때문에 거리 방향의 분해능을 쉽게 높일 수 있을 것으로 보임


또한 일반 CMOS 이미지 센서와 수지 필름만으로 가동부 없이 구성할 수 있기 때문에 저비용화하기도 쉽다는 장점이 있음


다만 근적외광을 사용하기 때문에 안개 등에 흡수되기가 쉽고, 펄스를 사용하므로 잡음에 약하다는 라이더의 과제는 여전히 남아 있음


근적외광 펄스에서 기인하는 문제의 해결책이 될 수 있는 센서를 개발하고 있는 곳은 이스라엘의 벤처기업인 오릭스 비전(Oryx Vision)’


오릭스 비전은 장거리 레이더에 견줄 만한 측정 범위(150m 이상)를 고분해능으로 센싱이 가능한 라이더를 개발 중임


레이저 빛을 섬광처럼 쪼인다는 점에서 기존 라이더와 같지만 레이더의 무선통신 방식 (FMCW)과 무선 수신 기술(MIM 안테나)을 조합한 것이 특징


적외광 중 장파장으로 분류되는 파장 10μm의 레이저 광을 사용하므로, 파장 1μm 전후의 근적외광을 사용하는 기존 라이더보다 안개 등의 환경에서 투과성이 높음


또한 펄스의 반사파가 아니라 레이더와 같은 연속파에 의한 FMCW 방식을 채택하고 있고 감지 범위의 전방향에 빛을 방사하는 플래시 타입이며, 반사 신호는 포토 다이오드가 아니라 안테나로 수신하고 초당 1500만 화소로 이미지 촬영이 가능함


오릭스 비전의 센서는 150m 떨어진 곳에서 10cm의 거리 분해능을 제공하는데, 5μm2 크기의 다수의 안테나 소자를 넣어 분해능을 확보하고 있음


<자료> Nikkei Electronics

[그림 3] 무선통신 기술을 이용한 라이더


특허 출원 내용에 따르면 오릭스 비전은 MIM 소자를 사용하는 것으로 보이는데, MIM 소자에 빛을 전력으로 변환하는 렉테나(rectenna)'를 구성하며, 렉테나는 일반적으로 포토 다이오드보다 감도가 높음


FMCW 방식의 레이더와 마찬가지로 낮은 값에서 높은 값까지 선형적으로 변하는 주파수를 갖는 처프(chirp)신호로 변조된 적외선을 송출하고 반사파와 믹싱하는데, 믹싱에서 얻을 수 있는 송신파와 수신파의 차이는 지연시간과 거리에 비례한 주파수가 됨


믹싱하여 발생하는 신호는 실리콘 반도체와 호환되는 주파수가 되도록 설계 할 수 있으나, 10μm의 파장은 20전후의 물체에서 나오는 복사파의 파장에 가깝기 때문에 주위 환경이 잡음의 원천이 될 수 있는 단점이 있음


레이더와 같은 FMCW를 사용하는 수퍼 라이더를 개발 중인 벤처기업은 스테라비전(SteraVision)’인데, 500m 등 장거리 대응 레이더가 불필요하게 될 것이라 보고 있음


독자적으로 개발을 진행하고 있는 스테라비전은 신호를 ToF 방식보다 40배의 고감도로 받을 수 있고, 비나 안개 등 악천후에도 강하며, 파장이나 위상이 있는 레이저 광원을 사용하지 않고도 디지털 신호 처리를 통해 보정할 수 있는 기술을 조합하였음


스테라비전의 센서는 레이저 빔을 주사(스티어링)하는 방법에 특징이 있는데, 임의의 지점에 산발적으로 빔을 조사할 수 있으며, 굴절률을 제어 할 수 있는 액정 등으로 구성된 필름을 사용함


1쌍의 필름으로 빔을 두 방향 중 하나에 굴절시키므로 가령 8쌍을 겹치면 28(256)개 방향 중 어느 한 방향을 선택할 수 있고, 2개축을 준비하면 256×256 의 스캔이 가능하게 되는데, 전환 시간은 14μ~20μs 정도임


스테라비전은 빔 소자의 프로토타입을 제작하였으며, 이 부분만 2018년 내에 출시할 예정이며, FMCW 방식의 동작 여부를 2018년 내에 실증한다는 계획


<자료> xTech

[그림 4] 레이더 방식을 이용한 스테라비전


자동차 업계에서 안전성 확보를 위해 중복이 허용되던 센서의 통합은 필연적이며, 따라서 자율주행차의 3개 필수 센서를 넘어설 센서의 개발 경쟁도 이제 막 본격화되고 있음


자동차 업계는 안전이 제일이기는 하지만 비용절감 의식도 매우 강하기 때문에, 새로운 기술의 투입 초기에는 중복이 허용되다가 시장에서 검증되고 실적이 쌓이게 되면 안전성 보다 비용절감에 초점을 맞추는 경향이 있음


자동차 산업의 역사를 되돌아보면 ABS(Antilock Brake System)가 그랬고, 차량 마이크로컴퓨터 등의 전자 시스템이 그랬음


그렇게 보면 자율운전차의 보급이 시작되고, 추가적인 기능의 개발에 들어서는 단계에서는 중복이나 여유가 없어질 것이고, 그 과정에서 필연적으로 다양한 센서의 통합이 진행될 것이라 예상할 수 있음


카메라, 라이더, 레이더라는 자율운전차의 3대 센서 영역을 넘어선 통합 센터 개발의 큰 경쟁이 시작되었으며, 초기 양상은 기존 라이더에 카메라와 레이더 기능을 통합하는 수퍼 라이더 개발 경쟁으로 드러나고 있음


현재 회자되고 있는 1세대 자율운전차들이 센서 융합 방식 기반으로 개발된 것이라면, 새로운 통합 센서 개발의 경쟁은 자율운전차 초기 시장이 형성되고 난 후 본격적으로 산업을 형성할 2세대 자율운전차 시장을 겨냥하고 있음


자율운전차 개발의 후발주자들은 이러한 흐름을 잘 파악하여, 자율운전차 시장 경쟁에서 계속 뒤처지지 않기 위해 통합 센싱 기술의 개발을 병행하는 등 전략적인 기술 개발 및 시장 진입 계획을 수립하고 실행해 나갈 필요가 있음