※ 아래 글은 정보통신기술진흥센터(IITP)가 발간하는 주간기술동향 1824호(2017. 11. 29. 발행)에 기고한 원고입니다.


▶ IITP에서 PDF 포맷으로 퍼블리싱한 파일을 첨부합니다. 가독성이 좋으니 참고하시기 바랍니다.

스스로 학습하는 인공지능 GAN, 현재 200여 개 파생기술 연구 중.pdf



[ 요 약 ]


구글의 인공지능(AI) 연구 부문인 구글 브레인의 이언 굿펠로우가 2014년 발표한 GAN(Generative Adversarial Networks)은 최근 10년간 AI 연구에서 가장 뛰어난 성과로 평가받고 있으며현재 약 200여 개의 변형된 기술들이 연구되고 있음. GAN은 딥러닝과 달리 인간의 개입 없이도 그리고 학습할 데이터가 없어도 신경망 스스로 학습해 나갈 수 있음을 보여주고 있다는 점에서 큰 기대를 받고 있으며그 잠재력만큼 동시에 큰 위험도 내포하고 있어 우려의 목소리도 높아지고 있음



[ 본 문 ]


ž 알파고 이후 인공지능(AI)이 대체할 수 없는 창의성을 키워야 한다는 주장이 더욱 커졌지만, 기실 알파고 쇼크의 본질은 창작도 AI가 인간보다 잘 할 수 있음을 보여준 데 있음


Ø 지나 10월 알파고를 개발한 딥마인드(DeepMind)인간의 지식 없이 바둑 게임 정복하기라는 논문을 발표하며, 새롭게 알파고 제로(Zero)를 소개하였음


Ø 제로라는 코드네임이 붙은 이유는, 이전 버전의 알파고 개발에서는 최초 학습 데이터로 사람의 기보 약 16만 건을 사용한 반면, 알파고 제로는 사람의 기보나 바둑에 대한 기본 규칙을 전혀 입력하지 않고 AI 스스로 바둑을 두면서 실력을 배양하도록 했기 때문


Ø 논문에 따르면 알파고 제로는 72시간 만에 이세돌을 꺾은 알파고 리 버전을 넘어섰고, 4개월 후에는 커제를 꺾은 알파고 마스터 버전을 넘어섰다고 함.


Ø 기존 AI가 방대한 데이터 분석과 강화학습 등을 통해 인간의 지혜를 배우는 데 초점을 두고 인간이 이미 잘 할 수 있는 것들을 자동화는 수준이었다면, 알파고 제로는 인간 전문가의 개입이나 인간의 관점 입력 없이 이루어졌다는 데 중대한 함의가 있음


Ø 알파고 제로의 바둑을 보면서 바둑계에서 나온 반응은 그래도 사람이 수천 년 동안 발전시켜 온 소위 바둑의 정석이란 것이 틀리지 않았음이 확인되어 다행이다라는 것이었는데, 최소한 바둑계에서는 이제 아무도 AI를 그저 엄청난 속도로 연산을 하는 기계로만 바라보지 않음


ž 실제 디자인, 회화, 음악, 문학, 영화 등 예술과 창작 영역에 AI의 침투 소식은 이제 더 이상 낯설지 않은데, 이들 소식에서 언급되는 AI는 수십 가지로 변형되고 있는 GAN 기술임


Ø 지난 5엔비디아 GTC 2017 컨퍼런스에서 구글 리서치의 이언 굿펠로우는 청중들에게 각양각색의 고양이 사진을 보여주며, 이중 실제 고양이 사진이 아닌 AI가 임의로 합성해 낸 이미지를 찾아보라고 질문을 던졌음


Ø 청중들은 좀처럼 찾아낼 수 없었는데, 사실 그 사진들 중 실제 고양이 사진은 단 한 장도 없었고 모두 AI가 무작위로 합성해 낸 것이었으며, 사람들은 진짜 사진과 가짜 사진의 구분이 무너지고 있다며 감탄과 탄식을 동시에 쏟아 냈음


<자료> NVIDA


[그림 1] GAN을 개발한 이언 굿펠로우


Ø 고양이 사진 합성에 사용된 인공지능 기술은 생성적 대립쌍 신경망(GAN, Generative Adversarial Network)이라 불리는 것인데, 이언 굿펠로우가 지난 2014년에 논문을 통해 발표했을 때 컴퓨터 사이언스 학계에서 찬사가 쏟아졌음


Ø 딥러닝의 창시자로 불리는 제프리 힌튼 교수는 (GAN)에 대해 최근 10년 간 가장 매력적인 이론이라 평가했는데, 인간의 가이드라인에 따라 수동적으로 학습하는 기존 AI와 달리 능동적으로 학습하고 행동하는 AI 개발을 위한 토대가 될 것이라 보았기 때문임


Ø 갠 신경망은 대립쌍을 이루는(Adversarial) 두 개의 네트워크, 즉 이미지를 만드는 생성자(Generator)와 이미지가 진짜인지 가짜인지 감별하는 감식자(Discriminator)를 서로 경쟁시켜 생성자가 감별자가 구분하기 어려운 진짜 같은 가짜를 만들게 하는 것임


Ø 2014년 이후 매주 새로운 갠(GAN) 논문들이 쏟아지고 있으며 최근에는 190편 이상이 보고되고 있는데, 전문가들도 모두 추적하기 힘들 정도로 다양한 응용기법들이 등장하고 있음


Ø 그 이름도 다양해 DCGAN, SRGAN, StackGAN, 3D-GAN, CycleGAN 200여 개의 서로 다른 기법이 GAN으로부터 개발되고 있어 GAN 기술은 앞으로 더욱 발전속도가 가속화될 전망


ž 가장 대표적인 GAN 기법은 DCGAN(Deep Convolutional Generative Adversarial Networks)으로로 엔비디아는 이를 이용해 유명 연예인의 이미지를 생성하는 기술을 공개하였음


Ø 엔비디아의 DCGAN은 유명 연예인뿐만 아니라 침실, 화분, , 소파, 버스 등 어떤 객체라도 AI가 개념만 듣고 현실과 똑같이 그려낼 수 있음을 보여주었음



Ø DCGAN에서 생성자(Generator)는 매개변수에서 원래 이미지를 찾아 처리하는 디컨볼루션 네트워크(De-Convolution Network)로 구성되며, 입력된 노이즈(랜덤 신호)로부터 이미지를 생성함


<자료> Amazon.


[그림 2] DCGAN을 이루는 생성자와 감식자


Ø 감식자(Discriminator)는 매개별수를 응축 처리하는 컨볼루션 네트워크(Convolution Network)로 구성되며, 여기에 위조 이미지(Fake) 또는 실제 이미지(Real)을 입력함


Ø 감식자는 입력된 이미지를 처리하고 그것이 위조(Fake)인지 또는 실제(Real)인지 여부를 로지스틱 회귀분석법으로 판정하며, 이 과정에서 감식자가 역전파 알고리즘(Backpropagation)으로 진짜와 가짜의 차이값(Gradient)을 얻게 됨


Ø 이 차이값을 다시 생성자에 입력하여 진짜와 똑 같은 가짜를 생성하는 기술을 향상시키는데, 양측이 모두 향상되는 구조로 이 프로세스를 몇 번이고 되풀이 하여 감식자가 구분할 수 없는 진짜 같은 가짜 이미지를 생성하게 됨


Ø DCGAN의 생성자는 가짜 이미지를 생성할 뿐만 아니라 생성된 이미지를 연산 조작하는 기능을 가지고 있는데, 예를 들어 안경을 쓴 남자 - 안경을 쓰지 않은 남자 + 안경을 쓰지 않은 여자 = 안경을 쓴 여자와 같은 연산을 처리함


<자료> Radford et al.


[그림 3] DCGAN 생성자의 이미지 연산 조작


Ø 연산의 결과 안경 쓴 여성의 이미지를 9개 생성하는데, 맨 중앙 이미지가 구하려는 답으로 주위의 8개 이미지를 외삽법(extrapolation)으로 추론하여 중앙의 이미지를 생성한 것이며, 이런 연산 조작 기법을 이용하면 금발을 흑발로 바꿀 수도 있음


Ø 외삽법이란 어떤 주어진 구간의 밖에 존재하는 값을 추정하는 것으로 보외법(補外法 )이라고도 하며, 반대로 주어진 구간 내에 존재할 수 있는 값을 추정하는 것은 보간법(補間法)이라고 함


ž 회화 그림 관련 응용프로그램에 적용되고 있는 SRGAN(Super-Resolution Generative Adversarial Networks)은 저해상도 이미지를 고해상도 이미지로 변환하는 기법임


<자료> Ledig et al.


[그림 4] SRGAN으로 해상도 높이기


Ø [그림 4]의 맨 오른쪽이 원본 이미지인데, 예를 들어 이 이미지의 해상도를 4배로 늘리는 작업을 한다고 할 때 다양한 방법으로 시도가 가능함


Ø 맨 왼쪽 이미지는 기존에 주로 많이 사용하던 바이큐빅(bicubic)이라는 2차원 외삽법에 의해 해상도를 높인 것임


Ø 왼쪽에서 두번째는 이미지 수준을 예측하는 심층 레지듀얼 네트워크(Deep Residual Network)로서 딥러닝의 손실함수인 평균제곱오차(Mean Squared Error)에 최적화 되어 있는 SRResNet 기법을 이용해 해상도를 높인 것임


Ø 왼쪽에서 세 번째가 SRGAN으로 생성한 이미지인데, 물리적으로는 손실 압축에서 화질 손실 정보를 수치로 표현한 최대 신호 대비 잡음비(peak signal-to-noise ratio)가 높아 노이즈가 있지만, 외견상 구조적 유사성(Structural Similarity)는 원본 이미지에 가장 가까움


Ø SRGAN 기법은 이미지 초해상도(Image Super-Resolution)라고도 불리며 저해상도 이미지를 8K 모니터 등 고해상도 디스플레이에 표시하는 기술로서 주목받고 있음


ž 스택GAN(StackGAN, Stacked Generative Adversarial Networks)는 입력된 문장과 단어를 해석해 이미지를 생성하는 인공지능 기법임


Ø 예를 들어, 이 새는 파란색에 흰색이 섞인 짧은 부리를 가지고 있다라는 텍스트를 입력하면 StackGAN이 이를 이해하여 그에 맞는 이미지를 생성함


<자료> Zhang et al.


[그림 5] StackGAN


Ø GAN이 생성자와 감식자의 대립 네트워크를 생성하듯, StackGAN은 저해상도 이미지를 생성하는 Stage-I과 고해상도 이미지를 생성하는 Stage-II 2단계 네트워크 구성을 갖추고 있음


Ø DCGAN과 마찬가지로 StackGAN에서 생성된 이미지는 실제 조류가 아닌 StackGAN이 상상으로 생성한 것이며, 사진처럼 보이지만 그러한 새는 세상에 존재하지 않음


ž 3D-GANMIT AI 연구팀이 공개한 입체 모델 생성 네트워크로 가령 가구 사진을 통해 교육시키면 3D-GAN은 가구를 3차원으로 그릴 수 있게 됨


Ø 연구팀의 논문을 보면 이케아의 가구 사진을 3D-GAN에 입력하면 그 가구를 3D로 묘사하는데, 입력된 사진은 가구 전체를 담고 있지 않지만 3D-GAN은 이것을 상상에서 보충하여 3D 이미지를 생성해 내고 있음


Ø 3D-GAN 역시 3D 모델 이미지를 연산 조작할 수 있는데, 가령 선반 있는 낮은 테이블 - 선반 없는 높은 테이블 + 높은 테이블 = 선반이 있는 높은 테이블'과 같은 연산을 수행해 이미지를 생성함


<자료> Wu et al.


[그림 6] 3D-GAN을 이용한 3D 이미지 생성


Ø [그림 6]3D-GAN이 학습한 성과를 가시적으로 보여주기 위한 것이며, GAN이 학습한 성과를 매개 변수로 네트워크에 저장하는 것을 실제로 볼 수는 없음


Ø MIT는 현재 숨겨진 영역(Latent Space)의 매개 변수를 출력하는 3D-GAN의 학습 메커니즘을 검증하기 위한 연구를 수행하고 있음.


ž 사이클GAN(CycleGAN)은 인공지능이 자율적으로 학습하여 이미지의 스타일을 다른 스타일로 변환시킬 수 있는 기술임


Ø 입력된 이미지의 스타일을 다른 스타일로 변환하는 방법을 일반적으로 스타일 변환(Style Transfer)이라고 하는데, 이미지 사이의 스타일을 매핑하기 위해 최근 들어 심층신경망을 이용하는 경우가 많음


Ø 가령 심층신경망이 화가의 스타일을 습득하여 그 화풍으로 그림을 그리는 기술이 다수 발표되고 있는데, 사진을 입력하면 AI가 이를 모네 스타일 혹은 피카소 스타일의 유화로 변환해 주는 애플리케이션들이 대표적임


Ø 그러나 이 방식은 화가의 작품이나 풍경 사진 데이터 중 어느 한쪽 혹은 양쪽의 데이터가 거의 없는 경우, 작품과 사진이 짝을 짓게 하는 교육(Paired Training)을 어떻게 실행할 수 있을 것인가가 큰 과제가 됨


Ø 이에 비해 사이클GAN(Cycle-Consistent Adversarial Networks) 기술은 쌍을 이루는 교육 데이터가 필요 없는, 즉 작품-사진의 쌍을 지을 필요 없이, 모네의 유화나 풍경 사진을 각각 독자적으로 사용하여 네트워크를 교육시키는 짝 지우지 않는 교육(Unpaired Training) 기법임


Ø 교육된 사이클GAN은 예를 들어 모네의 작품을 입력하면 이를 사진으로 변환하거나 반대로 사진을 입력하면 모네의 유화로 변환시킬 수 있음


Ø 또한 얼룩말의 사진을 말의 사진으로, 말의 사진을 얼룩말의 사진으로 변환할 수 있는데 이를 객체 변형(object transfiguration)이라 하며, 또한 산의 여름 사진을 입력하면 눈 쌓인 겨울 산의 사진으로 변환할 수도 있는데 이는 계절 변환(season transfer)이라고 함


<자료> Zhang et al.


[그림 7] CycleGAN을 이용한 스타일 변환


Ø 사이클GAN은 네트워크가 자율적으로 학습하는 아키텍처로서 교사 없는 학습(Unsupervised Learning)으로 이어질 수 있는 기법으로 기대되고 있음


Ø 사이클GAN 기법은 버클리 인공지능 연구실이 주축이 되어 개발하고 있는데, 주 책임자인 중국인 주준이엔 외에 한국인 박사과정 학생 박태성이 참여하고 있기도 함


ž 디스코GAN(DiscoGAN)은 인공지능이 자율적으로 서로 다른 객체 그룹 사이의 특성을 파악하여 양자 사이의 관계를 파악할 수 있는 기술임


Ø 사람은 하나의 그룹과 다른 그룹의 관계, 예를 들어 가방 그룹과 신발 그룹의 관계를 경험적 혹은 직관적으로 파악할 수 있는데, 신경망이 이 관계를 파악하도록 하기 위해서는 태그가 붙어 있는 이미지를 대량으로 입력해 알고리즘을 교육할 필요가 있음


Ø 이에 비해 디스코GAN은 알고리즘이 양자의 관계를 자율적으로 이해하는데, 먼저 디스코GAN에 가방과 신발이라는 두 그룹의 이미지를 각각 입력해 각자의 특성을 가르치고 나면 이미지에 태그(가방이나 신발 등의 이름)가 붙지 않아도 알고리즘이 양자의 관계를 스스로 파악함


Ø 교육된 디스코GAN을 예를 들면, 가방 이미지를 입력하면 신발 이미지를 생성하거나, 파란색 가방 이미지에서 파란색 신발 이미지를 생성하고, 남성의 사진을 입력하면 여성의 이미지를 생성 할 수도 있음


<자료> Kim et al.


[그림 8] DiscoGAN을 이용한 스타일 변환


Ø 디스코GAN 역시 사이클GAN과 마찬가지로 양자의 관계를 정의한 짝 지운 데이터(Paired Data)가 불필요하고 각자의 특성 이미지만 교육시키면 네트워크가 자율적으로 학습하는 구조이기 때문에, 교사 없는 학습의 길을 여는 기술로 주목받고 있음


ž GAN은 기초 연구뿐만 아니라 비즈니스에 응용도 시작되고 있는데, 아마존이 GAN을 이용한 패션 사업의 구상을 밝힌 것이 대표적임


Ø 아마존은 산하 연구소인 Lab126에서 GAN의 개발을 진행하고 있는데, GAN이 유행 중인 패션을 통해 스스로 스타일을 학습하고 자신만의 패션을 생성하도록 하고 있는데, GAN이 패션 디자이너가 되어 인간을 대신해 새로운 디자인을 창조하게 하는 것임



Ø 패션 트렌드는 페이스북이나 인스타그램 등에 올라온 사진으로 학습하는데, 이 사진들을 GAN에 입력하면 GAN이 트렌드를 배워 독자적인 패션을 디자인하게 됨


Ø 또한 아마존은 인공지능 스피커 에코의 변형 버전인 에코 룩(Echo Look)을 통해 이용자를 촬영한 다음 패션에 대한 조언을 하는 서비스를 제공하고 있음


Ø 아마존은 에코 룩을 통해 이용자의 패션 취향을 이해한 다음, GAN이 개인에 특화된 디자인을 만들게 하는 계획을 갖고 있는데, GA이 생성한 디자인으로 만든 주문형 옷(On-Demand Clothing)이 이용자에게 배달되게 하는 사업 구조임


<자료> Amazon


[그림 9] GAN을 이용한 아마존의 에코 룩


ž 이처럼 200여 개에 달하는 GAN의 변형 기술 연구가 폭넓게 진행되고 있는 이유는 GAN이 현재 딥러닝이 안고 있는 많은 문제를 해결해 줄 강력한 무기를 제고할 수 있기 때문임


Ø 특히 교사 없는 학습(Unsupervised Learning)과 태그 없는 데이터(Unlabeled Data) 교육 분야에서 연구를 크게 진전시킬 단서를 제공할 것으로 전망되고 있는데, 사이클CAN이나 디스코GAN이 그러한 가능성을 잘 보여주고 있음


Ø 또한 엔비디아의 연구팀 역시 DCGAN 기술을 이용해 촬영한 것처럼 선명한 가상의 유명 연예인 이미지를 생성하고 있지만, 신경망 교육에는 태그가 붙어 있지 않은 연예인 사진을 사용하는 등 알고리즘이 자율적으로 배우는 기술은 빠르게 진화하고 있음


Ø 과학자들은 상상하는 모습을 모두 이미지로 만들어 낼 수 있는 이런 시스템들을 보며 인공지능 신경망이 세상을 해석하는 통찰력을 제공해 줄 것이라 기대하고 있음


Ø 비록 인공지능이 어떤 원리로 이미지를 저장하고 해석하는지 명확하지는 않더라도, 바둑 기사들이 알파고가 바둑의 본질을 보다 잘 이해한다고 인정하듯이, 과학자들 역시 컴퓨터가 생성해 내는 이미지가 실제 세상에서도 통할 수 있다고 생각하는 것임


ž GAN에 대한 기대가 높아지는 만큼 그 위험성에 대한 지적도 나오고 있는데, AI 뿐만 아니라 모든 기술이 그렇듯 이 기술을 어떻게 사용할 것인지는 결국 인간이 결정에 달려 있음


Ø 페이스북의 AI 연구소장인 얀 르쿤은 GAN과 그 파생 기술들은 지난 10년의 기계학습 연구에서 가장 뛰어난 성과라고 높이 평가하고 있음


Ø 한편, GAN의 위험성을 지적하는 목소리도 높아지고 있는데, 지금까지도 페이스북 가짜 사진이 문제가 됐지만 GAN의 등장으로 그 위험성이 더욱 높아짐에 따라 이제 뉴스에 게재되는 사진이나 비디오를 신뢰할 수 있는가 하는 질문이 제기되고 있음


Ø 소셜 미디어에 게재된 이미지가 증거 사진으로 사용되는 경우가 많지만, 이제 앞으로 무엇이 진실인지 알 수 없는 시대가 되면 그럴 수 있겠느냐는 것이며, 수년 내로 GAN을 통해 진짜 같은 가짜 비디오를 생성할 수 있게 된다면 혼란은 더욱 가중될 것이라는 경고임


Ø 이는 엄밀한 근거에 기반을 두어야 하는 과학에서 더욱 불거질 수 있는 문제인데, 그럴듯한 이미지나 동영상과 함께 이런저런 학술이론을 제시하면 한마디 반박조차 못하고 감쪽같이 설득 당할 수밖에 없는 위험이 생긴 것임


Ø 삶을 풍요롭게 하는 데 사용될 지 아니면 삶을 위험에 빠뜨리게 될 지, AI가 그러하듯 GAN이라는 혁신 기술 역시 양날의 검을 가지고 있다는 점을 항시 염두에 두고 바라볼 필요가 있음

댓글을 달아 주세요

※ 아래 글은 정보통신기술진흥센터(IITP)가 발간하는 주간기술동향 1822호(2017. 11. 15. 발행)에 기고한 원고입니다.


▶ IITP에서 PDF 포맷으로 퍼블리싱한 파일을 첨부합니다. 가독성이 좋으니 참고하시기 바랍니다.

사람 중심으로 상황에 맞게 변하는 인공지능 횡단보도 ‘스탈링 크로싱’.pdf



ž 영국의 스타트업 엄브렐리움(Umbrellium)은 차량 중심으로 만들어 진 기존 횡단보도 대신 상황에 맞게 횡단보도가 가변적으로 변하는 지능형 횡단보도를 개발하고 있음


Ø 엄브렐리움은 도로 곳곳에 흰색 도료로 칠해진 횡단보도 대신 도로를 건너는 사람이나 차량 통행량에 따라 LED를 이용해 가변적으로 표시되는 횡단보도 스탈링 크로싱(Starling Crossing)을 개발하고 있음


Ø 스탈링(Starling)행동신호 적응형 반응 학습((STigmergic Adaptive Responsive LearnING)의 줄임 말인데, 스티그머지(Stigmergy)는 개미와 같은 사회적 곤충의 독특한 행동방식으로, 개체는 각기 다른 행동을 취하지만 결과적으로 집단 전체의 목표를 달성케 만드는 메커니즘을 말함


Ø 스탈링 크로싱은 보행자 안전은 우선 순위에 놓고 보행자의 잠재적 위험 요소를 파악해 신호를 변경하는 반응형 도로 시스템으로, 보행자 교차로의 패턴, 레이아웃, 구성, 크기와 방향을 상황에 맞게 변경함


Ø 사람이 길을 건널 수 있는 모든 지역의 노면은 카메라로 모니터링 되며, 노면에는 주야간 상관없이 모든 각도에서 볼 수 있는 컴퓨터 제어 LED가 내장되어 있어 상황에 맞는 횡단보도를 구성하게 됨


Ø 예를 들어 도로를 횡단하는 사람이 감지되면 노면에 횡단보도가 표시되고 차량 앞에는 정지선이 표시되며, 더 이상 건너는 사람이 없으면 횡단보도는 사라지고 다시 차선이 노면에 표시됨



<자료> Umbrellium


[그림 1] 보행자 감지에 따라 횡단보도를 가변적으로 표시해 주는 스탈링 크로싱


Ø 저녁 퇴근시간 때나 영화가 끝나서 사람들이 일시적으로 많이 몰려 건너는 사람이 많을 경우에는 노면에 횡단보도의 너비가 넓게 표시되어 모든 보행자들이 횡단보도 안으로 건널 수 있도록 가이드 해 줌




ž 스탈링 크로싱은 사람이 도로 횡단에 신경 쓰지 않아도 고도의 인공지능(AI) 기술을 통해 안전을 보장한다는 점에서 자율주행차의 컨셉과 맞닿아 있다고 할 수 있음


Ø 최근에는 스마트폰을 보면서 무심코 횡단하다 사고를 당하는 경우가 빈번히 발생하고, 운전자가 여러 이유로 보행자를 발견하지 못해 사고가 발생하기도 하는데, 스탈링 크로싱은 인공지능을 통해 이런 사고를 미연에 예방하고자 함


Ø 카메라에서 수집된 영상을 컴퓨터 신경망 학습으로 분석한 뒤, 횡단할 것 같은 사람이 나타났을 때 자동으로 표시를 조정해 사람이 신경 써서 걷는 것보다 더 안전한 환경을 구축하려는 것


Ø 엄브렐리움은 현재 사우스 런던에 실제 도로와 같은 세트를 만들고 스탈링 크로싱의 프로토타입을 테스트하고 있음

댓글을 달아 주세요

※ 아래 글은 정보통신기술진흥센터(IITP)가 발간하는 주간기술동향 1819호(2017. 10. 25. 발행)에 기고한 원고입니다.


▶ IITP에서 PDF 포맷으로 퍼블리싱한 파일을 첨부합니다. 가독성이 좋으니 참고하시기 바랍니다.

화이트 칼라 업무 생산성 향상 도구 ‘RPA’, AI 붐 타고 도입 급증.pdf



[ 요 약 ]


장시간 노동의 억제가 사회적 이슈로 부상하면서또한 저출산 고령화에 따른 노동 인력 감소 문제에 장기적으로 대응할 필요성이 제기되면서 사무 업무의 노동 생산성 향상을 위한 RPA(로보틱 프로세스 자동화도입이 기업의 화두로 떠오르고 있음. RPA는 최근 인공지능(AI) 기술 등과 접목되며 단순 사무업무뿐 아니라 전문 지식에 기반한 고도의 의사결정까지 지원을 목표로 하고 있는데로봇이 그랬던 것처럼 RPA는 사무 현장의 노동 인력 구조에 중대한 변화를 가져올 것으로 예상됨



[ 본 문 ] 


ž 사무직 노동자의 업무를 자동화 해주는 로보틱 프로세스 자동화(Robotic Process Automation, RPA) 도구를 업무처리 방식의 혁신 수단으로 도입하는 기업이 급증하고 있음


<자료> Roboyo


[그림 1] RPA와 기존 업무시스템의 비교


Ø RPA는 사람이 반복적으로 처리하는 업무를 로봇 소프트웨어를 통해 자동화하는 솔루션으로 많은 인력과 시간을 들여야 하는 단순 업무를 획기적으로 줄일 수 있는 시스템임


Ø 로봇이 점차 지능화되고 있기는 하지만 원래 제조 현장에서 로봇의 역할은 단순 반복 업무를 수행하는 것이며, 로봇 같다는 표현은 종종 주어진 일을 지치지 않고 해낸다는 뜻으로 쓰임


Ø RPA에서 로보틱 프로세스란 반복적인 업무 절차라는 뜻에 가까우며, RPA는 실제 물리적인 로봇이나 기계장치가 아니라 소프트웨어를 통해 사무 현장의 반복업무를 자동화하는 것임


Ø 솔루션 벤더들의 주장에 따르면 화이트 칼라의 사무 작업을 RPA로 자동화할 경우 작업 시간을 80% 가량 줄일 수 있다고 하며, 이런 이유로 RPA를 가상 지식 노동자(Digital Employee)로 부를 수 있다고 함


Ø 화이트 칼라의 업무에도 다양한 종류가 있지만 현재 RPA가 주된 대상으로하고 있는 것은 PC로 수행하는 반복적 일상 작업으로, 한 시스템에서 처리한 결과를 다른 시스템으로 입력함으로써 시스템간 연계를 하는 업무가 대표적임


Ø 초기에 RPA는 보험업을 비롯한 금융기관에서 주로 도입이 진행되었는데, 일상적인 대량의 문서 처리 업무가 많아 도입 효과가 좋았기 때문이며, 현재는 금융업 이외에 제조업 등 다양한 산업으로 확산되고 있는 추세임


Ø 시장조사기관 리서치 앤 마켓에 따르면 향후 5년간 RPA 도입이 급증해 2022년 전세계 RPA 시장규모는 50억 달러를 넘어설 것으로 예상됨


ž RPA 자체는 어디까지나 개념일 뿐이며, 기업이 RPA를 도입하려면 RPA 도구가 필요한데, 자체적으로 개발할 수도 있지만 대부분 기업은 벤더들의 RPA 솔루션을 이용하고 있음


Ø RPA 도구의 주요 역할은 대상 업무의 스크립트(Script)실행(Execution)으로 먼저 업무 담당자가 일반적으로 수행하는 PC 작업의 절차를 정의해야 하는데, 이는 RPA 도구에게 지시할 대본(스크립트)을 만드는 과정이라 보면 됨


Ø 스크립트는 가령 웹 브라우저로 특정 사이트에 접속하여 어떤 데이터를 엑셀로 복사하라는 식으로 여러 소프트웨어에 걸치는 것이 보통이며, 스크립트가 완료되면 그 대본에 따라 RPA 도구가 담당자의 작업을 자동으로 실행하게 도고, 스크립트는 필요에 따라 수시 편집도 가능함


Ø 간단히 이해하자면 엑셀 매크로 기능을 여러 소프트웨어에 걸쳐 실행할 수 있다고 생각하면 되고, 시스템 개발에 사용되는 기능 테스트 자동화 도구와 유사하다고 보면 됨


Ø RPA 도구들은 주로 규칙 엔진을 이용하여 스크립트를 자동화 하며 규칙 엔진 외에도 HTML 분석 기술이나 이미지 인식 기술 등도 이용하는데, 요소 기술들이 새롭거나 특이한 것은 아니어서 기존 기술들을 잘 조합하여 저비용으로 고효율을 얻게 해주는 쪽에 가까움


ž 전세계적으로 RPA 도입이 급증하고 있는 이유는 기업의 규모와 업종, 업무 유형을 불문하고 장시간 노동의 억제가 중요한 사화적 이슈로 부상하고 있기 때문임


Ø RPA 도입에 대한 관심은 2015년경부터 유럽의 금융 기관들을 중심으로 높아졌는데, BPO(비즈니스 프로세스 아웃소싱) 사업자들이 위탁 받은 업무를 효율화하기 위해 RPA 도구를 적용하기 시작한 것이 계기가 되었음


Ø 또한 선진국을 중심으로 현재 기업들은 일하는 방식을 바꾸어야 한다는 사회적 압력에 직면하고 있으며 이에 대한 대응이 급선무가 되었는데 그 해결책의 하나로 RPA가 주목 받게 되었음


Ø 우선 일과 노동의 균형(Work-Life Balance)이 강조되며 장시간 노동의 억제가 기업이 외면할 수 없는 주요 사회적 아젠다가 되고 있음


Ø 다른 한편으로 고령화와 저출산에 따른 노동인구 감소와 부족의 문제가 점차 부각되고 있는데, 이는 시간이 흐ㅁ를수록 장기적으로 더욱 악화될 것으로 예상되는 문제이기 때문에 기업들은 생존을 위해서라도 현재와 다른 업무 방식을 고민할 수밖에 없는 상황임


Ø 이런 과제 극복을 위해 주요하게 대두되는 문제가 화이트 칼라의 생산성 향상이기 때문에, 사무 업무의 자동화를 통해 생산성을 향상시켜 주는 RPA의 도입이 적극적으로 검토되고 있음


Ø RPA 소프트웨어는 기업 입장에서 이상적인 노동 자원으로 볼 수 있는데, 로봇이므로 노동시간을 신경 쓸 필요는 없어 야간이든 휴일이든 작업지시를 할 수 있고, 게다가 기계적으로 작업을 확실하게 해내기 때문에 작업 속도와 오류율 면에서 사람보다 나은 성과를 보여주기 때문


Ø 여기에 벤더들의 노력으로 RPA 도구가 더 사용하기 쉽게 된 것도 도입을 가속화하는 요인이 되고 있는데, 인터페이스와 조작 방법이 개선되며 PC 작업을 대체하기 위한 스크립트 작성과 실행이 용이하게 되었음


ž 최근 고조되는 인공지능(AI) 붐도 도입 배경으로 꼽히는데, 벤더들은 RPAAI를 활용한 사무 고도화의 첫 걸음으로 자리매김하며 주목도를 높이고 있음


Ø PC 작업을 자동화하는 RPA는 응용 범위가 넓고, 다른 기술과 제품에 비해 상대적으로 도입하기가 쉽기 때문에, 지금까지 IT화의 대상이 되지 않았던 업무와 IT화를 했을 때 투자 대비 효과가 나오지 않는다고 간주되었던 업무에도 적용할 수 있는 것이 장점임


Ø 투자 대비 효과의 측정이 가능하고 단기간에 투자를 회수할 수 있음이 도입 사례들을 통해 지표로 제시되고 있다는 점도 기업 경영진들의 주목을 끄는 배경이 되고 있음


Ø 또한 최근 AI 붐을 타고 조만간 RPA와 인공지능을 조합한 시스템이 등장할 것이라는 전망이 나오는 것도 RPA 도입 결정에 긍정적인 요인이 되고 있는데, 루틴한 작업뿐만 아니라 중장기적으로 고비용의 전문직 인력이 해오던 고급 의사 결정까지 대행을 맡길 수 있기 때문


Ø 이에 따라 RPA를 도입하려는 기업은 RPA 도구들을 정확히 비교, 평가하고 자신들에게 적합한 도구를 선택하는 것이 매우 중요하게 되었는데, 단순 업무 처리에 그치지 않고 고도의 전문성을 요하는 업무까지 RPA로 처리하게 될 경우 이는 기업의 경쟁력과 직결되는 일이기 때문


ž 기업이 제대로 된 RPA 도구를 선택하려면 사람으로 치면 --에 해당하는 기술 요소들을 잘 이해해야 하는데, 우선 눈에 해당하는 기술 중에는 구조 분석 기술이 가장 중요함


Ø 구조 분석 기술은 RPA 도구가 조작 대상으로 삼는 응용프로그램의 화면들이 어떤 요소로 구성되어 있는지를 해석하는 것으로, 구성 요소에는 메뉴, 입력 영역, 버튼, 선택 항목(라디오 버튼, 드롭다운 리스트) 등이 포함됨


Ø 구조 분석 기술을 사용할 수 있어야 보다 확실하게 조작 대상을 특정 할 수 있게 되는데, 구조를 분석할 수 없는 응용프로그램의 업무를 자동화하려면 작업 대상을 이미지로 인식해야 하고 이럴 경우 작동하는 PC의 해상도 차이 등에 영향을 받기 때문


Ø 어떤 응용프로그램을 구조 분석의 대상으로 할 수 있는지는 RPA 도구에 따라 다르기 때문에 벤더별 차별화 요소가 되며 기업이 벤더의 도구를 선택할 때 중요 포인트가 됨


<자료> UiPath Studio


[그림 2] 웹 페이지 구조 분석 기술


Ø 구조 분석 기술에서는 웹 사이트에서 정보를 추출하기 위해 웹 스크레이프(scrape) 기술을 많이 사용하는데, 이 기술은 가령 웹 페이지로 퍼블리싱 되는 주가 및 부동산 정보 등의 정보를 추출하고 이를 가공·분석하여 보고서를 작성하는 업무를 자동화하는 경우 아주 유용함


Ø RPA 도구가 추출 대상으로 하는 웹 사이트의 정보 중 일부는 표 형식의 데이터로 존재하는 경우도 많은데, 이런 표 형식의 데이터를 그대로 가져오는 구조를 가진 도구들도 있음


Ø RPA 도구의 스크립트 작성은 시나리오 기반으로 이루어지는데, 소프트웨어 로봇의 작업 흐름을 정의한 시나리오 대로 실제 구현이 되게 하기 위해서는 정보의 용이한 취득을 지원하는 구조 분석 기술 요소가 매우 중요함


ž 사람의 눈에 해당하는 기술 요소로 구조 분석 기술을 보완하는 것으로는 이미지 인식 기술과 OCR(광학문자판독) 등이 있음


Ø 이미지의 특징을 분석하여 작업 범위를 특정하는 것이 이미지 인식 기술인데 앞서 말한 것처럼 PC의 해상도를 비롯 RPA의 실행 환경에 따라 작동이 다를 수 있고, 구조 분석 기술에 비해 조작 대상을 특정하는 정확도는 떨어지지만 많은 RPA 도구들이 이미지 인식을 채택하고 있음


Ø RPA 도구가 조작 대상 화면을 이미지로 인식할 수밖에 없는 상황이 있기 때문인데, 가령 원격 데스크톱으로 접속하여 다른 PC의 응용프로그램을 작동시키거나 가상화 기술로 배포된 응용프로그램을 조작하는 등의 경우를 들 수 있는데, 최근에는 이런 방식의 이용 사례가 늘고 있음


Ø OCR 엔진을 포함하고 있는 RPA 도구도 있는데, 원격 데스크톱으로 접속한 화면에서 정보를 검색할 때 이미지 정보를 텍스트화로 변환할 필요가 있는 경우 등에 이용됨


Ø RPA 도구로 정보를 추출해야 할 대상이 종이 장표 밖에 없는 경우는 당연히 OCR이 도움이 필요하며, 정보를 디지털로 변환하여 RPA 도구로 처리할 수 있도록 할 필요성이 클수록 OCR 엔진을 활용하게 될 경우가 늘어날 것임


ž RPA 도구의 기술 요소 중 사람의 뇌에 해당하는 기술은 업무 절차와 규칙에 따라 작업이 진행될 수 있도록 하는 역할을 하며, 워크플로우와 규칙 엔진이 대표적임.


Ø 화이트 칼라의 일상적인 업무는 일반적으로 정해진 절차와 규칙에 입각해 진행되는 경우가 많기 때문에 RPA 도구는 작업자의 일련의 처리 흐름을 설계하고 실행하는 워크플로우(workflow) 기능을 갖추고 있어야 함


Ø 처리 흐름이란 가령 ①수신 메일에서 입력할 데이터를 얻는다 à ②입력 데이터를 확인한다 à 데이터를 시스템에 입력한다 à 처리 결과를 메일로 통보한다 등이 될 수 있음


Ø 여러 사람이 협업해 업무를 수행하는 경우는 RPA 도구에 있는 워크플로우 기능을 사용하는 대신 사내에서 사용 증인 워크플로우 시스템에서 제공하는 승인 절차와 연계하는 방식을 취하는 것이 더 효과적일 수 있음


<자료> Network Automation


[그림 3] SAP와 세일즈포스닷컴 연계를 위한 워크플로우


Ø RPA가 제공하는 규칙 엔진은 처리 대상 상품의 할인율을 바꾼다거나, 신청 유형에 따라 심사 대상을 바꾸는 등 미리 정한 규칙에 따라 작업을 실행할 수 있게 해주는 기술 요소임


Ø 업무 규칙은 다양한 상황 변화에 ​​따라 수시로 변경되는 것이 일반적인데, 규칙 엔진을 사용하면 시스템에 미치는 영향을 최소화하면서 규칙을 추가, 변경할 수 있게 됨


ž RPA의 기술 요소 중 사람 손에 해당하는 것은 주로 응용프로그램에 정보의 입출력을 담당하며, 마우스나 키보드의 모방과 응용프로그램 작업 라이브러리 등이 있음


Ø 대부분의 사무 업무는 데이터의 입력과 작성으로 마무리 되므로, RPA 도구는 사람이 마우스 나 키보드를 사용하여 작업하는 것을 모방하여 그대로 수행할 수 있게 해주는 기술이 필요함


Ø RPA 도구를 윈도 환경에서 실행하는 경우 윈도 API가 제공하는 인터페이스를 활용한 프로그램을 이용하여 마우스와 키보드의 조작을 모방하는 것이 일반적임


Ø 벤더들이 내놓은 RPA 도구 대부분은 자주 사용되는 응용프로그램으로 수행되는 작업에 특화된 라이브러리를 제공하고 있는데, 가령 윈도 환경이라면 엑셀에서 셀 편집, 엑셀의 행과 열 추가 및 삭제, 아웃룩에서 메일 송수신 등의 작업이 라이브러리로 제공됨


ž RPA에 대한 관심이 높아질수록 벤더들은 AI 등을 이용해 기능을 더 고도활 할 것이기 때문에, 도입을 고려 중인 기업은 기능 최적화 및 확장성 등을 면밀히 비교할 필요가 있음


Ø RPA는 기술적 측면에서 새롭거나 혁신적인 요소가 있는 것은 아니고, 이미 부분적으로 기업들이 도입하고 있는 기술 요소들도 있기 때문에, 벤더들로서도 RPA 판매를 위해서라면 차별화 된 가치 제공을 위해 최신 기술 트렌드 접목을 시도할 수밖에 없는 측면이 있음


Ø 따라서 RPA 도구의 기능은 계속 고도화되고 발전할 것인데, 예를 들어 에 해당하는 기능이라면 AI를 활용해 고도의 업무 판단 능력을 장착하려 할 것임은 누구나 쉽게 예상할 수 있는 것이었고, 실제로 이미 벤더들은 AI 기능 장착을 마케팅 포인트로 잡고 있음


Ø AI 기반의 RPA 도구들은 가령 다양한 장표의 포맷을 기계학습 시킨 알고리즘을 담고 있기 때문에, 장표를 입력하면 레이아웃을 자동으로 인식해, 이름, 주소, 회원번호 등의 항목을 자동으로 추출하는 등의 기능을 구현하고 있음


Ø OCR AI를 조합하여 인식률을 향상시킨 AI-OCR 기술의 활용도 시작되고 있기 때문에 RPA 도구와의 연계도 진행될 것으로 예상됨


Ø RPA 도입을 고려중인 기업이라면 자신들에게 가장 필요한 기술 요소가 뛰어난 솔루션이 어느 것인지, 또한 AI 등 향후 기술 고도화나 확장성까지 기대할 수 있는 것이 무엇인지, 기존에 도입한 IT 시스템과 연계가 용이한 것이 무엇인지 다면적으로 검토할 필요가 있음


ž 또한 RPA의 기능이 고도화되고 도입이 확산된다면 생산성 향상의 순기능뿐 아니라 인간 노동력의 재배치 이슈도 발생할 것이므로 섬세한 도입 로드맵 마련이 필요할 것임


Ø IBM에 따르면 기업 업무 중 약 33%를 차지하는 데이터 수집과 처리 영역에 RPA를 우선 도입할 수 있으며, 30%를 차지하는 전문 지식이 필요하고 인력간 상호작용이 필요한 업무에도 고도화된 RPA의 도입이 가능하다고 함


<자료> LinkedIn


[그림 4] RPA의 결과: 생산성 향상 또는 해고


Ø 이는 RPA의 도입에 따라 기업에 미치는 영향이 다층적일 수 있음을 시사하는데, AI 기반의 RPA가 제시하는 고급 의사결정 지원까지 이루어질 경우, 사무 업무의 생산성 향상이라는 당초 RPA 도입 목적 달성을 넘어 기업 인력구조 전반의 거대한 변화로 이어질 수 있음


Ø 제조 현장에서 로봇의 도입에 의해 노동 인력의 구성이 크게 변화한 것처럼, 사무 현장도 RPA라는 로봇 소프트웨어에 의해 노동 인력의 대폭 구조 조정이 가능해질 것이기 때문


Ø 따라서 기업은 RPA의 도입이 AI에 의한 대량 실업의 우려 이슈로 이어지지 않도록 RPA 도입 시 인력전환 및 재교육 계획도 함께 수립해야 할 필요가 있음


Ø 기업의 RPA 도구 도입을 계기로 이제 기업 경영진을 의미하는 C 레벨에 AI 책임자를 두어야 할 필요성, 즉 최고 AI 책임자(CAIO, Chief AI Officer)를 두어야 할 필요성도 고조되고 있음

댓글을 달아 주세요

※ 아래 글은 정보통신기술진흥센터(IITP)가 발간하는 주간기술동향 1817호(2017. 10. 11. 발행)에 기고한 원고입니다.


▶ IITP에서 PDF 포맷으로 퍼블리싱한 파일을 첨부합니다. 가독성이 좋으니 참고하시기 바랍니다.

100만 명의 DNA와 건강정보 분석, 생명과학 강국으로 도약한 중국.pdf



[ 요 약 ]


병원에서 혹은 개인 차원에서 의뢰한 DNA 분석이 실제로 이루어지는 곳은 세계의 DNA 시퀀싱 공장으로 불리는 중국임중국의 유전자 분석 기업들은 DNA 분석 만으로는 유전자와 질병의 관계를 규명할 수 없다고 보고유전자-의료-건강 데이터를 종합하여 AI로 분석하여 질병의 원인을 규명하려는 시도를 시작하였음중국 정부의 제도적 지원개인의 유전정보 활용에 관대한 사회 분위기막대한 자금력이 결부되며중국은 이제 글로벌 생명과학 강국으로 발돋움 하려 하고 있음




[ 본 문 ]


ž 세계의 공장인 중국은 또한 세계의 DNA 시퀀싱 공장이기도 하여 최근 사람이나 동물 및 식물의 유전자 서열 규명 연구를 주도해 오고 있음


Ø 지난 2014년 서부 아프리카에서 에볼라 바이러스가 급속도로 퍼질 당시, 중국 보건당국은 에볼라 바이러스에 대한 항체의 유전자 분석을 완료했다고 발표하며, 중국은 미국 못지 않은 다원적인 항체 생산능력을 갖추고 있다고 자평하였음


Ø 당시 중국질병통제센터 전염병연구소는 중국이 2008년부터 9개의 과학기술 중대 프로젝트를 진해해 왔고, 그 과정에서 10개의 국가급 연구기관이 백신과 치료제 개발을 포함한 에볼라 바이러스 연구를 진행해 왔다고 소개한 항체의 유전자 분석을 완료했다고 소개한 바 있음


Ø 2015년 한국에서 메르스 사태가 발생했을 때도 중국질병통제센터 전염병연구소는 한국 국립보건연구원의 발표에 앞서, 광둥성에서 메르스 확진 판정을 받은 한국인 환자에 대해 유전자 분석을 실시한 결과 전염성 강화 등의 변이는 발견되지 않았다고 보도한 바도 있음


Ø 2016년에는 중국 과학자들이 인간의 배아에서 특정 유전자를 바꿔치기하는 유전자 조작을 시도해 전세계 과학계를 큰 충격에 빠뜨린 적이 있는데, 이처럼 유전자 분석에 대한 규제가 미비한 중국에서는 이미 많은 유전자 연구가 진행되고 있음


Ø 세계 최대 규모의 염기서열 판독설비를 갖춘 곳 역시 중국의 베이징지놈연구소(BGI)로 중국개발은행이 15억 달러를 투자해 한해 1 5천 명의 유전자를 분석할 수 있는 인프라를 보유하고 있으며 전세계 개인 유전자 분석 서비스 업체들로부터 일감을 따내고 있음


Ø BGI 2012년 당시 세계 최고 유전자 분석기술을 보유했던 미국의 컴플리트 지노믹스(Complete Genomics) 1 1,760만 달러에 인수한 이후 유전자 분석 수준을 단숨에 높여 시장 점유율을 끌어 올리며 세계의 DNA 시퀀싱 공장으로 부상하였음


[1] 세계 최대 DNA 시퀀싱 센터 BGI(베이징 지놈 연구소)의 설비 용량

 

프로세서 수

메모리 용량

스토리지 용량

최대 성능

선전

9,722

21 TB

7.8 PB

101 T flops

홍콩

4,496

11 TB

4.2 PB

52 T flops

베이징

300

500  GB

110 TB

1.5 T flops

우한

192

500 GB

500 TB

2.0 T flops

항저우

64

300 GB

13 TB

0.5 T flops

전체

14,774

33.3 TB

12.6 PB

157 T flops

<자료> Genomics


Ø 현재 중국은 유전자 배열을 읽어낼 뿐만 아니라 그 결과를 인공지능(AI)으로 해석하고 생명과학 분야를 선도하려 하고 있는데, IBM과 구글 등 미국 대기업들이 천착하고 있는 연구 분야이지만 중국은 규제 없이 대규모로 연구를 전개할 수 있다는 점에서 상당한 이점을 누리고 있음


ž 현재 중국 유전자 분석의 최첨단을 이끌고 있는 기업은 BGI의 전임 CEO가 선전에 본사를 두고 창업한 바이오 벤처기업 아이카본엑스(iCarbonX, 碳云智能)


Ø 아이카본엑스는 중국 지놈 과학의 선구자였던 준 왕(June Wang)이 인공지능과 의료 빅데이터를 기반으로 유전자 정보 및 진료정보와 개인 라이프 로그를 통합해 질병을 예측하는 개인 맞춤형 의료정보 플랫폼 서비스를 제공하기 위해 2015년에 설립한 기업임


Ø 준 왕은 16살에 북경대학에 입학하여 인공지능, 컴퓨터 과학, 생물윤리학을 전공한 후 중국 휴먼 지놈 프로젝트에 참여하여 큰 기여를 하였고, 세계 최대 규모 지놈 회사인 BGI 설립 멤버로 후에 CEO가 되었음


Ø 유전자만으로 생명현상을 모두 해독할 수 없다고 느낀 준 왕은 단백질, 대사체, 신체적 특징 및 행동 등의 다양한 정보를 기반으로 생명을 이해하기 위한 비즈니스 모델을 구축하기 위해 BGI를 떠나 아이카본엑스를 설립하였음


Ø 아이카본엑스는 현재 건강검진센터, 약국, 병원, 보험사들을 통해 타액, 단백질, DNA, 미생물 데이터 등 유전체 정보를 수집한 후, 고급 데이터 마이닝 및 기계학습 기술을 통해 개별 건강상태를 분석 및 예측하여 맞춤형 웰빙 프로그램, 식이요법, 처방 의약품 등을 추천해 주고 있음


Ø 또한 개인별 피부 상태에 따라 제품을 권장하는 스킨케어 서비스를 필두로 영양, 건강, 의료 분야로 확대할 계획을 갖고 있으며, 사용자를 건강한 삶의 방향으로 안내 할 수 있는 디지털 아바타를 만들고 디지털 라이프 생태계를 구축하는 것을 장기 목표로 설정하고 있음


<자료> iCarbonX


[그림 1] 아이카본엑스 창업자 준 왕



Ø 아이카본엑스는 설립 6개월 만에 텐센트로부터 2억 달러의 투자를 유치하는 등 지금까지 총 6억 달러의 투자를 받았으며 올해 가장 주목받고 있는 벤처기업으로 선정되기도 하였음


Ø 또한 미국의 개인 의뢰 유전자 분석 서비스 업체인 23andMe와 더불어 기업가치가 10억 달러 이상인 유전자 분야의 대표적 유니콘 기업이기도 한데, 특히 전체 유니콘 기업들 중 가장 역사가 짧은 젊은 기업으로 꼽히고 있음


ž 아이카본엑스에 투자와 관심이 쏠리는 이유는 그 스케일에 있는데, 최소 100만 명 이상의 건강 데이터 분석을 통해 AI로 유전자와 질병의 관계를 규명하려 하기 때문


Ø IBM과 구글 등 미국의 AI 주도 기업들이 유전자 분석의 임상 시험을 전개하고 있지만 기대했던 성과는 얻지 못하고 있는데, 질병 발병 유전자 변이를 밝혀 내지 못하고 있어 유전자 변이와 질병 발병 사이의 상관 관계를 찾는 데 어려움을 겪고 있음


Ø 이런 문제를 반복하지 않기 위해 아이카본엑스는 기존 방식 외에 피험자의 생체 검사 결과를 토대로 정확한 정보를 얻겠다는 계획을 세웠는데, 걸림돌이 된 것은 중국의 의료 시스템 전산화 수준이 낮아 연구에 활용할 수 있는 빅데이터가 매우 부족한 상황이라는 점


Ø 문제의 해결을 위해 아이카본엑스는 두 가지 방안을 모색하고 있는데, 첫번째는 병원을 통해서가 아니라 메시징 프로그램인 위챗(WeChat)을 이용하여 소셜 미디어에 기록된 개인 의료 정보들을 확보한다는 계획임


Ø 위챗은 텐센트가 운영하는 소셜 메시징 서비스로 텐센트가 아이카본엑스에 2억 달러를 투자한 데에는 이런 배경이 있는 것이며, 양사는 향후 5년 내에 최소 100만 명, 최대 300만 명 이상의 사람들로부터 의료 빅데이터의 데이터베이스를 구축할 것이라고 발표하였음


Ø 이는 개인정보보호 이용에 관대한 중국인들의 특성을 이용한 것인데, 향후 개인의 유전자 데이터를 소셜 데이터와 조합하여 AI로 분석하면 분석의 정밀도가 향상될 것으로 기대하고 있음


Ø 두번째 방안은 피험자의 생체 검사를 직접 실시하는 것인데, 구체적으로 피험자 혈액의 단백질량 변화와 신진대사를 측정하고 뇌 영상 데이터를 이용하며, 웨어러블 바이오 센서로 혈당치를 모니터링 하는 한편 스마트 화장실에서 소변과 대변에 포함된 바이오 마커를 수집하려고 함


Ø 이렇게 모은 유전자 정보, 의료 정보, 생체 검사 데이터 정보를 조합한 후 AI로 분석하여 건강 관리에 도움이 되는 정보를 추출하고, 개인맞춤형 AI 헬스케어 서비스를 제공하겠다는 것이 아이카본엑스의 궁극적인 계획임


ž 아이카본엑스는 최근 자신들의 최종 목표인 AI 기반 디지털 건강관리 플랫폼의 개념을 담은 초기 서비스로 미엄(Meum)이라는 건강관리 앱을 선보였음


Ø 이용자들이 미엄 앱에 섭취한 음식이나 운동에 대한 정보와 함께 신체 정보와 생체 신호를 입력하면, AI는 이렇게 입력된 정보를 유전자 정보 및 생체 정보와 함께 분석한 후 앱 화면에 건강 및 질병에 관련된 정보를 보여주고 필요한 액션을 추천해 줌


<자료> iCarbonX


[그림 2] 미엄(Meum) 앱 발표회


Ø 구체적으로 살펴보면, 식사의 내용물, 취침 시간, 필요한 운동 등 건강한 생활을 위해 도움이 될 수 있는 조언을 표시해 줌


Ø 아이카본엑스는 개인의 건강과 관련된 다양한 요소들을 모두 포함하여 분석함으로써 모든 개인이 자신의 삶을 더 잘 이해하고 관리할 수 있게 돕는 앱을 개발하는 것을 목표로 하고 있음


Ø 궁극적으로는 위챗 메신저 앱 사용자 9억 명을 대상으로 스마트한 방식으로 디지털 미(Digital Me)를 만들 수 있는 디지털 플랫폼 개발을 목표로 하고 있음


Ø 디지털 미 전략의 논리 흐름은 ①모든 형태의 삶이 디지털화될 수 있다 à ②모든 디지털화된 삶은 모델링 될 수 있다 à ③ 모든 디지털화된 삶은 네트워크로 연결될 수 있다로 요약됨


Ø 모델링을 통해 탄소 기반의 인체는 디지털 형태의 실리콘 기반으로 변환이 되는데, 그러면 음료 한 잔이라도 내 몸에 들어오면 어떻게 반응할 지 시각화해서 볼 수 있게 되고, 상호 연결된 디지털 미들이 커뮤니케이션 하면 예상할 수 없는 일들이 벌일 것이라 기대하는 것임


Ø 이러한 시도는 처음이기에 시장이 새로우니만큼 제품도 달라야 할 것이고, 그래서 아이카본엑스는 AI를 포함한 모든 기술을 새롭게 개발돼야 할 것으로 보고 있음


Ø 아이카본엑스는 디지털 미 서비스를 누구나 이용할 수 있는 초저가 상품과 비싸지만 모든 데이터를 분석하는 초고가 상품으로 구성한다는 계획인데, 하이엔드 상품 개발을 위해 이미 텐센트, 화웨이 등과 협력해 데이터 보안 시스템을 개발 중이라고 함


ž 아이카본엑스에 더욱 주목해야 하는 이유는 중국을 넘어 글로벌 차원에서 의료-유전자-건강 데이터 분석 기술의 중심이 되기 위한 적극 행보를 이미 시작하고 있기 때문


Ø 아이카본엑스가 최근 개인으로부터 헬스케어 데이터를 대량으로, 비용효율적으로 수집하고 분석할 수 있는 기술력을 확보한 글로벌 기업들과 연대를 형성하였음


Ø HealthLoop, SomaLogic, HealthTell, Pa-tientsLikeMe, AOBiome, GALT 7개 미국 기업과 이스라엘의 Imagu Vision, 중국의 Tianjin Robustnique 7개 기업에 4억 달러를 전략적으로 투자하고, 자신들을 중심으로 한 디지털 라이프 얼라이언스(Digital Life Alliance)를 결성한 것임


<자료> iCarbonX


[그림 3] 디지털 라이프 얼라이언스


Ø 얼라이언스에 참여한 기업들의 면면을 보면 유전체, 단백체, 대사체, 항체, 재조합 효소, 박테리아, 의료, 헬스케어 데이터 수집 분야에서 비교우위 기술을 이미 확보하고 있는 곳들임


Ø 이들 기업은 개인의 건강과 질병의 상태를 파악하는 지표를 아이카본엑스에 제공하게 되며, 아이카본엑스는 이 지표를 활용해 빅데이터에서 잡음을 제거하고 정밀하고 유용한 정보를 감지 할 수 있는 시스템을 개발하게 됨


Ø 디지털 라이프 얼라이언스는 의료 데이터를 유전자 분석과 결합해 건강에 관한 새로운 지식을 얻으려 하는 글로벌 기업들의 협회로서 기능할 것으로 보이는데, 이들 기업을 끌어들임으로써 아이카본엑스는 글로벌 정밀 의학의 중심 기업이 되기 위한 준비를 해나가려는 것으로 보임


ž 고도의 기술력에 정부의 강력한 지원까지 더해져 중국은 이제 세계의 DNA 시퀀싱 공장에서 생명과학 글로벌 강국으로 또 한번 변신과 도약을 준비하고 있음


Ø 구글의 생명과학 부문 베릴리(Verily)는 건강한 인체를 정의하기 위한 베이스라인 프로젝트(Baseline Project)를 시작했으며, 1만 명 참가자의 개인 신체 정보와 의료 정보를 수집하고, 수집된 정보와 유전자 정보를 AI로 해석하여 건강한 인체의 상태가 무엇인지 규명하고 있음


Ø 이에 비해 아이카본엑스는 최소 100만 명 이상의 규모로 실증 실험을 전개할 계획인데, 유전자 배열 등 데이터 양이 훨씬 큰 정보를 분석하기 위해서는 AI 알고리즘 교육에서 대량의 데이터가 필요하다는 점을 고려할 때, 베릴리에 비해 아이카본엑스가 압도적으로 유리함


Ø 아이카본엑스의 가장 강력한 경쟁자로 꼽히는 기업 역시 미국이나 유럽의 기업이 아닌 중국의의 유전자 기업인 우시 넥스트코드(WuXi NextCode), 이 기업 역시 3억 달러의 투자를 유치해 AI와 지놈 기술 기반의 디지털 헬스케어 서비스를 준비하고 있음


Ø 이런 기업들의 노력에 유전자 정보가 사용되는 것에 대한 거부감이 적은 사회 문화, 중국 정부의 제도적 지원, 중국이라는 거대한 시장과 자본력까지 생각해 보면, 어렵지 않게 중국이 생명과학 분야의 글로벌 헤드쿼터가 될 것을 그려볼 수 있음


Ø 중국은 이미 세계의 DNA 시퀀싱 공장으로 작동하고 있으며, 지금 계획 중인 기술이 개발되고 서비스가 제공된다면 전세계인들의 건강을 관리하는 세계의 헬스케어 센터가 될 수도 있음


Ø 생명과학 분야 글로벌 강국으로 도약을 준비 중인 중국 정부와 중국 기업들의 움직임을 눈 여겨 보고, 이들과 협업 전략을 모색해야 할 필요성이 점점 더 뚜렷해 지고 있음

댓글을 달아 주세요

※ 아래 글은 정보통신기술진흥센터(IITP)가 발간하는 주간기술동향 1816호(2017. 9. 29. 발행)에 기고한 원고입니다.


▶ IITP에서 PDF 포맷으로 퍼블리싱한 파일을 첨부합니다. 가독성이 좋으니 참고하시기 바랍니다.

AI 칩을 이용한 아이폰 Ⅹ 얼굴 인증 AI를 악용한 공격 대응이 관건.pdf



[ 요 약 ]


애플이 차세대 하이엔드 모델인 아이폰 ()에서 지문 인증을 빼고 얼굴 인증 기술인 페이스 ID(Face ID)를 발표하였음카메라를 향해 얼굴을 보이는 것 만으로 인증을 하는 기술은 지문 인증보다 안전성이 높고 편리한 방법으로 평가받고 있는데이번에 애플이 도입함에 따라 단번에 보급 확산이 진행될 수 있는 교두보를 마련하였음페이스 ID는 인공지능(AI)프로세서를 이용해 이미지 인식 기능을 강화했는데같은 맥락에서 AI를 악용한 고도의 공격에 대응할 것을 요구 받고 있음



[ 본 문 ]


ž 애플의 차세대 아이폰 모델 3 기종 발표회에서 가장 관심을 모은 것은 최상위 모델인 아이폰 Ⅹ(10)의 얼굴인식 기능을 이용한  페이스 ID(Face ID)였음


Ø 주 모델은 기기의 전면을 모두 수퍼 레티나 HD 디스플레이(Super Retina HD Display)로 채워 홈 버튼을 없앤 아이폰 Ⅹ(10)이었고, 아이폰 7 7 플러스의 후속 모델로는 시리즈 순서에 맞게 아이폰 88 플러스가 발표되었음



Ø 이 중 아이폰 Ⅹ은 페이스 ID(Face ID) 기능을 갖추고 있어 카메라로 얼굴을 비춰 장치 잠금 해제를 할 수 있는데, 아이폰 8과 달리 지문인식 장치를 아예 없애 애플 페이로 지불을 할 때도 기존의 터치 ID(Touch ID) 대신 페이스 ID 기능을 이용해야 함


<자료> CNET


[동영상아이폰 Ⅹ의 얼굴 인증 페이스 ID


Ø 최신 스마트폰의 추세는 전면 디스플레이를 극대화하는 것이며 아이폰 Ⅹ도 이 흐름을 수용했는데, 이렇게 하려면 홈 버튼에 담았던 지문 인식 스캐너의 위치를 옮겨야 할 필요가 있었음


Ø 발표회 전에는 터치 ID 기능을 디스플레이 안에 포함한다거나 삼성전자 갤럭시 S8처럼 스마트폰 후면으로 이동시킨다는 루머가 있었으나, 애플은 터치 ID 기능을 아예 빼는 선택을 하였음


Ø 삼성전자가 제품 매뉴얼에 얼굴 인증은 지문이나 PIN 등에 비해 안전성이 낮다고 기재함으로써 얼굴 인증을 보안이 아니라 편의성과 재미를 위해 설계한 것임을 드러낸 반면, 애플은 지문 인식 없이 페이스 ID 만으로 애플 페이를 이용하게 하여 보다 과감한 입장을 취한 것임


Ø 이는 얼굴 인식 기능이 시장에서 아직 대세가 아닌 상황에서 애플이 기술력과 자신감을 바탕으로 과감한 결단을 내린 것으로 볼 수 있는데, 대신 아이폰 8 8 플러스에는 기존 터치 ID를 그대로 유지시켜 페이스 ID에 거부감이 있는 소비자를 위한 선택지도 남겨 두었음


ž 얼굴 인증 기술은 기본적으로 이용자의 형상 변화에도 대응해야 하는 과제를 안고 있는데 이를 위해 애플은 기계학습(Machine Learning)을 이용한 이미지 비교 방식을 채택했음


Ø 페이스 ID를 사용하기 위해서는 사전에 얼굴을 등록해야 하는데, 터치 ID가 사용자의 여러 손가락 지문을 등록하거나 다른 사람의 지문을 등록할 수 있었던 것에 비해 페이스 ID는 오직 하나의 얼굴만 등록할 수 있고, 다른 얼굴을 등록하려면 이전에 등록된 얼굴을 삭제해야 함


Ø 아이폰 Ⅹ은 트루뎁스 카메라(TrueDepth Camera)라는 특수 카메라를 탑재하고 있는데, 얼굴을 등록 할 때 트루뎁스 카메라의 도트 프로젝터(Dot Projector)에서 3만 개의 점이 얼굴에 투사되고 이를 적외선 카메라(Infrared Camera)에서 읽어 들여 얼굴의 3D 맵을 생성하게 됨


<자료> iphone tricks


[그림 2] 트루뎁스 카메라의 구조()와 페이스 ID 3D 스캐닝 포인트()


Ø 이 정보들은 프로세서 내의 스토리지인 시큐어 인클레이브(Secure Enclave)에 암호화하여 저장되며, 페이스 ID 사용 시 광원 역할을 하는 플러드 일루미네이터(Flood Illuminator)에서 적외선이 투사되고 이를 적외선 카메라가 읽어 들여 등록된 얼굴 맵과 비교하여 인증을 수행함


Ø 페이스 ID는 광원으로 적외선을 사용하기 때문에 외부 빛의 조건에 관계없이 어두운 곳에서도 정확하게 얼굴을 인증할 수 있는 장점이 있음


Ø 반면, 얼굴 인증은 이용자의 상태가 변화하는 것에 대응해야 하는 과제를 안고 있는데 즉, 머리카락이나 수염이 자라거나 안경을 착용하여 등록된 얼굴 이미지와 달리 보일 경우에도 이용자가 불편하지 않게 본인 확인을 할 수 있어야 함


Ø 이 문제 해결을 위해 애플은 기계학습 기법을 이용한 이미지 비교 방식을 채택했는데, 알고리즘에 대한 기계학습을 통해 등록된 얼굴 형상이 머리와 수염을 기르고 안경을 쓰면 어떻게 천천히 변화하는지를 인식할 수 있게 하는 것임


Ø 다양한 조건을 사전에 학습시켜 둠으로써 이용자의 형상이 바뀌더라도 정밀하게 판정 할 수 있게 한 것이며, 또한 얼굴을 3D로 비교함으로써 사진을 통해서는 인증 받을 수 없게 하였음


ž 페이스 ID에 기계학습이 적용되었다는 것은 카메라의 차별적 성능이 이제 광학 센서가 아니라 인공지능(AI)에 의해 결정되고 있음을 다시 한번 보여 줌


Ø 트루뎁스 카메라는 셀카(Selfie)를 찍을 때 특수 효과를 내는 데도 사용할 수 있는데, 인물사진 조명(Portrait Lighting)이라 불리는 기능을 이용하면 스튜디오에서 촬영 할 때처럼 마치 빛을 조정한 것 같은 효과를 얻을 수 있음


Ø 자연 조명(Natural Light) 옵션을 선택하면 자연광 아래에서 촬영한 효과를, 스튜디오 조명(Studio Light) 옵션을 선택하면 밝은 조명 아래 촬영한 효과를 얻을 수 있으며, 칸투어 조명(Contour Light) 옵션은 얼굴의 요철을 돋보이게 하여 극적인 인상을 만들며, 무대 조명(Stage Light) 옵션은 배경을 검게 처리해 얼굴을 부각시킬 수 있음


<자료> Apple


[그림 3] 인물사진 조명의 다양한 옵션


Ø 트루뎁스 카메라는 스테레오 카메라여서 객체를 3D로 파악하므로 인물과 배경을 구분할 수 있고, 여기에 AI가 사람의 얼굴을 파악해 얼굴 부위에 빛을 쬐어 특수 효과를 만들어 내는 것인데, 메인 카메라에도 인물사진 조명 기능이 탑재되어 위의 옵션들을 사용할 수 있음


Ø 카메라는 전통적으로 광학 센서가 차별화 요인이었지만, 지금은 포착한 이미지를 AI를 통해 얼마나 깨끗이 처리 할 수 ​​있는지가 중요해지고 있으며, 아이폰의 카메라는 소프트웨어 결정 카메라(Software-Defined Camera)라는 소프트웨어가 성능을 좌우함



Ø 트루뎁스 카메라를 이용하면 움직이는 이모티콘인 애니모지(Animoji)를 만들어 전달할 수 있는데, 카메라는 얼굴의 50개 지점의 움직임을 파악해 이를 이모티콘 캐릭터와 매핑하는데, 가령 놀란 표정을 지으면 캐릭터도 놀라는 모양이 됨


<자료> Howtoisolve


[그림 4] 아이폰 Ⅹ의 애니모지 메시지 기능


Ø 애니모지를 이용해 영상 메시지를 보내면, 표정을 모방한 캐릭터가 음성과 함께 아이메시지(iMessage)로 상대방에게 전달되는데, 캐릭터는 고양이, 돼지, 닭 등 12개가 제공되고 있음


Ø 애니모지 외에도 트루뎁스 카메라는 스마트한 아이폰 이용을 지원하는데, 사용자의 시선을 인식해 화면을 보고 있는 등 아이폰을 사용 중이라 판단하면 슬립 모드로 전환되어 화면이 꺼지지 일이 없도록 하고 알람이나 전화벨 소리를 낮추는 등 똑똑한 도우미 역할도 수행함


Ø 이러한 신형 아이폰의 기계학습과 이미지 처리를 지원하는 것이 AI 프로세서인 A11 Bionic(바이오닉)인데, 이 프로세서는 뉴럴 엔진(Neural Engine)을 탑재하고 있으며 그. 이름에서 알 수 있듯이 AI 처리에 특화되어 있음


Ø 뉴럴 엔진은 기계학습 처리 전용 엔진으로 사람이나 물건이나 장소 등을 빠르게 파악하는 기능을 통해 페이스 ID와 애니모지의 처리를 지원하고 있는데, 이와 동시에 애플은 AR(증강현실)의 이미지 처리 속도도 이 엔진을 통해 가속화 하고 있음


ž 이처럼 AI를 기반으로 한 페이스 ID 기능에 대해 애플이 상당한 자신감을 보이고 있긴 하지만, 아무래도 인증 관련 기술이다 보니 보안 침해 가능성에 대한 우려도 제기되고 있음


Ø 페이스 ID가 확산되려면 안전성에 대한 소비자의 확신이 전제가 되어야 하는데, 애플은 얼굴 인증에 대한 공격 방법이 영화에 종종 사용되는 페이스 마스크(Face Mask)가 될 것으로 보고 이에 대한 철저한 실험을 했다고 함


Ø 페이스 마스크는 출연자의 얼굴을 3D로 카피한 후 이를 마스크로 재구성하는 것인데, 애플은 실제로 할리우드에서 페이스 마스크를 만들어 페이스 ID의 인정 정밀도를 벤치마크 하였음


Ø 여기에도 기계학습 기법이 사용되어 인간의 얼굴과 페이스 마스크를 구분하도록 알고리즘을 교육시켰다고 하는데, 이러한 나름의 연구개발 성과를 바탕으로 애플은 페이스 ID의 오인식률이 100만분의 1 이하라 자신한 것으로 보임


Ø 그러나 사진이나 마스크로는 페이스 ID가 뚫리지 않는다는 애플의 주장에 대해, 일부 보안 전문가들은 3D 촬영 기술의 발전이나 3D 프린터 기술의 발전으로 실제 얼굴과 거의 흡사한 3D 얼굴 모형을 얼마든지 만들어 낼 수 있다는 점을 간과할 수 없을 지적하고 있음


ž 실제로 최근 VR(가상현실)이나 인공지능(AI)을 이용해 3D로 얼굴을 구성하는 기술들이 발표되고 있어 얼굴 인증 메커니즘의 신뢰성을 보다 확실히 해야 할 필요성이 높아지고 있음


Ø 얼굴 인증과 관련한 흥미로운 연구 성과 발표는 작년부터 시작되었는데, 노스 캐롤라이나 대학의 연구팀은 페이스북과 인스타그램에 게재된 얼굴 사진을 3D로 재구성하는 방법을 공개했음

Virtual U Defeating Face Liveness Detection by Building Virtual



Ø 연구팀은 대상자의 얼굴 사진을 여러 장 모아 얼굴의 구조를 3D로 재구성한 뒤, 3D 구조에 피부의 색상과 질감을 더하고 다양한 표정을 추가한 다음 VR 디스플레이로 표현하였음


<자료> Department of Computer Science, University of North Carolina


[그림 5] 노스 캐롤라이나 대학 연구팀의 VR을 이용한 사진 이미지 3D 재구성 프로세스


Ø 연구 논문에 따르면 3D로 재구성한 얼굴의 VR을 얼굴 인증 시스템에 입력하고 인증에 성공했는데, 현재 스마트폰 보안에 이용되고 있는 5개 얼굴 인식 앱을 대상으로 테스트를 실시하였음


Ø 테스트 결과5개의 앱 중 하나를 제외하면 55~85%의 성공률을 보였으며, 이런 결과를 토대로 연구팀은 현재의 얼굴 인증 메커니즘을 개선할 필요가 있다고 어필하였음


Ø 연구팀이 애플의 페이스 ID를 대상으로 테스트 할 지 여부는 아직 알려지지 않고 있는데, 트루뎁스 카메라가 얼굴을 3D로 감지 할 수 있어 아이폰 Ⅹ에 무단으로 접근할 수 없을 것으로 보이긴 하지만 만약 VR로 표현된 얼굴을 3D 프린터로 출력하면 상황은 달라질 지 모름


Ø 실제로 독일의 보안 솔루션 기업인 시큐리티 리서치 랩(Security Research Labs)은 얼굴의 3D 이미지를 3D 프린터로 생성하여 얼굴 인증 시스템을 테스트하는 연구를 진행하고 있음


Ø 이 기업은 피험자의 3D 얼굴 형상을 가지고 마이크로소프트의 얼굴 인증 시스템인 헬로(Hello)에서 인증받는 데 성공했다고 하며, 아이폰 Ⅹ이 정식 출시되면 페이스 ID의 보안성을 검증하는 작업을 시작할 것이라고 함


Ø 얼굴 인증과 관련한 가장 최근의 흥미로운 연구로는 영국 노팅엄 대학과 킹스턴 대학 연구팀이 대학이 발표한 1장의 얼굴 사진에서 인공지능을 이용해 3D로 얼굴을 구성하는 기술임


Ø 컴퓨터 비전에서 얼굴을 3D로 파악하는 것은 매우 어려운 기술이기 때문에 보통은 많은 사진을 입력하고 이들로부터 3D 이미지를 재구성하는 것이 일반적인 방법임


Ø 이에 비해 노팅엄 대학과 킹스턴 대학 연구팀은 이미지를 판단하는 CNN(Convolutional Neural Network, 뇌이랑 신경망)을 얼굴 사진과 본인의 3D 이미지로 교육함으로써 알고리즘이 1장의 얼굴 사진에서 3D 이미지를 재구성하는 것을 가능케 하였음



<자료> http://www.cs.nott.ac.uk/~psxasj/3dme/

[그림 6] 사진 1장으로 얼굴을 3D로 재구성



Ø 노팅엄 대학이 연구 성과를 기반으로 얼굴 인증 시스템에 대한 테스트를 실시한 것은 아니지만, 향후 AI를 악용한 얼굴 인증 시스템에 대한 공격이 급증할 수 있음을 시사하고 있으며, 아이폰 Ⅹ가 출시되면 페이스 ID 해킹 레이스가 시작되고 애플은 다양한 도전을 받게 될 것임


3D Face Reconstruction from a Single Image (클릭 사이트 이동)




ž 얼굴 인식이 향후 인증 기술의 주류가 될 지, 아니면 이용자의 호응과 신뢰를 얻지 못해 또 다른 인증 기술이 모색될 지, 당분간 애플 페이스 ID의 행보에 관심이 모일 전망


Ø 다양한 생체 인식 방식이 가운데 얼굴 인증 방식은 정밀도와 활용성이 높기 때문에 향후 크게 확산될 것으로 보는 전문가들이 많으며, 3~5년 후에는 인증 기술의 절반 이상이 얼굴 인증이 될 것이라는 예측도 있음


Ø 다른 생체인식과 비교해 보면, 목소리 인증은 콜센터 등에서 사용되고 있지만 복제하기가 쉬워 채택이 제한적이며, 이런 이유로 아마존 에코(Amazon Echo) 등은 인증이 아닌 이용자 식별을 위해 목소리를 사용하고 있을 뿐임


Ø 또한 현재는 지문 인증이 생체 인식 중 가장 폭넓게 이용되고 있지만 작은 센서로 지문을 정확하게 읽는 기술은 쉽지 않으며, 지문 또한 복제가 가능해 보안상 우려도 있음


Ø 이런 이유로 생체 인식에서 얼굴 인증이 주목 받고 있는 것이며, 아이폰 Ⅹ이 아직 정식 출시되지 않았음에도 페이스 ID는 이슈를 만들고 있고 얼굴 인증 기술의 동향과 관련해 많은 관심이 쏟아지고 있는 것임


Ø 아이폰 Ⅹ과 관련해 향후 또 하나 주목해야 할 것은 홍채 인식(Iris Recognition)으로 발전할 가능성인데, 홍채 인식은 정밀도가 얼굴 인식 보다 높아 오래 전부터 주목 받아온 방식이지만 적외선 센서 등 전용 장비가 필요하기 때문에 쉽사리 보급이 진행되고 있지 않음


Ø 삼성전자의 갤럭시 노트7과 노트8이 홍채 인식 기능을 이미 제공하고 있긴 하지만 인증 정확도와 보안성에 대해서는 아직 평가가 정확하지 않은 상황인데, 아이폰 Ⅹ이 얼굴 인식을 위해 적외선 센서를 탑재함에 따라 향후 홍채 인증울 진행하는 것 아니냐는 루머도 나오고 있음


Ø 비즈니스 타이밍 포착에 천재적인 애플이 이번에도 얼굴 인증을 대세 인증 기술로 밀어 올릴지, 페이스 ID에 대한 다양한 도전을 극복하지 못해 새로운 인증 기술을 모색하게 될 지, 아이폰 Ⅹ가 받아들 성적표에 벌써부터 많은 관심이 모이고 있음


댓글을 달아 주세요

※ 아래 글은 정보통신기술진흥센터(IITP)가 발간하는 주간기술동향 1813호(2017. 9. 13. 발행)에 기고한 원고입니다.


▶ IITP에서 PDF 포맷으로 퍼블리싱한 파일을 첨부합니다. 가독성이 좋으니 참고하시기 바랍니다.

인공지능으로 로고의 우수성을 점수 매기는 로고 랭크 서비스.pdf



ž 미국의 스타트업 브랜드마크(Brandmark)는 인공지능을 이용해 기업이나 조직의 로고가 디자인 측면에서 얼마나 우수한 지를 알려주는 로고 랭크(Logo Rank) 서비스를 제공 중


Ø 브랜드마크는 이 서비스를 위해 100만 개 이상의 로고 디자인을 인공지능(AI)에 학습시켰으며, AI는 학습결과를 바탕으로 입력된 로고에 대해 독창성, 가독성, 색상/대비 3개 항목에서 점수를 평가하며 종합적인 점수도 매겨 줌


Ø 로고 디자인은 여러 제약 속에서 창의성을 발휘해야 하는 작업으로, 좋은 로고는 브랜드를 시각적으로 잘 표현할 뿐만 아니라 멀리서도 잘 보이도록 단순해야 하며, 수 많은 다른 심볼이나 아이콘들과 혼동되지 않도록 독창적이어야 함


Ø 브랜드마크는 시각적으로 좋은 로고를 만들어 내는 요소들이 무엇인지에 대한 개념을 정립해 로고를 자동으로 생성해주는 시스템을 구축하려 했고, 그 수단으로써 인공지능에 대한 기계학습이라는 방법을 채택하였음



<자료> Logo Rank


[그림 1] AI로 로고 점수를 매겨주는 "LOGO Rank" 서비스


Ø 로고 랭크 서비스 이용 방법은 간단해서, 해당 사이트(http://brandmark.io/logo-rank/)에 접속한 후, 빈 네모 박스에 로고를 끌어다 놓거나 로고 파일을 업로드 하면, 몇 초 후에 3개 항목의 점수와 종합 점수를 보여 줌


Ø 로고 랭크에 따르면 구글의 로고는 독창성 36, 가독성 100, 색상/대비 58, 종합 65점이며, 애플의 로고는 독창성 26, 가독성 100, 색상/대비 100, 종합 75점으로 평가되었음


<자료> Logo Rank


[그림 2] 애플 로고의 가독성 점수


Ø 브랜드마크는 인공지능을 이용해 로고 생성 서비스도 제공하고 있는데, 기업의 브랜드와 그 브랜드를 설명하는 3개 이상의 키워드를 입력하면 자동으로 로고를 생성하고, 그 로고를 이용한 웹페이지, 명함, T-셔츠, 옥외 광고물 등의 디자인 시안도 보여 줌





댓글을 달아 주세요

※ 아래 글은 정보통신기술진흥센터(IITP)가 발간하는 주간기술동향 1810호(2017. 8. 23. 발행)에 기고한 원고입니다.


▶ IITP에서 PDF 포맷으로 퍼블리싱한 파일을 첨부합니다. 가독성이 좋으니 참고하시기 바랍니다.

테슬라의 저가 자율주행 전기차 ‘모델3’, 새로운 자동차 시대 개막.pdf



[ 요 약 ]


테슬라가 7월부터 고객 인도를 시작한 모델3 3만 달러 대의 전기차인 동시에 향후 소프트웨어 업그레이드를 통해 사람이 완전한 자율주행 차량이 될 것을 목표로 하고 있음차량 가격을 낮추기 위해 테슬라는 고가의 라이더 장비를 쓰지 않고 인공지능을 기반으로 카메라 센서로만 가능한 자율주행 기술을 개발했는데보급형 자율주행차의 시판이 시작됨에 따라 차량 공유전통 자동차 산업의 붕괴세금재생에너지 등 다양한 이슈에 대한 사회적 논의도 본격적으로 시작되고 있음


[ 본 문 ]

ž 테슬라(Tesla)7월부터 차량 인도를 시작한 모델3(Model 3)는 보급형 전기차라는 점과 함께 완전 자율운전 차량을 지향한다는 점에서 주목을 받고 있음


Ø 모델3는 일론 머스크 CEO가 테슬라의 모든 것을 쏟아 부었다고 말한 대중형 전기차, 지속가능한 에너지로 전환이라는 일론 머스크의 포부를 지지한 50만 명의 사람들이 1년여 전 머스크의 약속만 믿고 예약금을 납부하여 출시 전부터 유명세를 탄 바 있음


<자료> Electrek

[동영상] 테슬라의 모델3 전기차


Ø 테슬라의 기존 전기차 모델 라인업이 최소 9 5천 달러여서 사실상 부유층만 구매 가능했다면, 모델3는 일반 자동차 가격과 비슷한 수준이기 때문에 전기차의 대중화에 결정적 기폭제가 될 것으로 기대를 모아 왔음


Ø 모델3의 기본형인 스탠더드 버전의 가격은 테슬라가 지금껏 약속했던 대로 3만 달러 대인 3 5천 달러이고 장거리 운행용인 롱레인지 버전도 4 5천 달러인데, 미국 정부의 보조금을 받을 수 있기 때문에 실제 비용은 5천 달러 이상 더 낮아 짐


Ø 스탠더드 모델은 완전 충전 시 350km를 달릴 수 있고 제로백은 6초 미만에 최고 속도 시속210km이며, 롱레인지 모델은 500km 주행이 가능하고 제로백은 5초 초반에 최고 속도 시속 225km여서 일반 자동차를 대체하기에 충분한 성능을 제공하고 있음


Ø 게다가 모델3향상된 자동운전 지원 기능(Enhanced Autopilot)을 제공하고 있는데, 이 기능은 자율운전 기능으로 업그레이드 될 수 있어 모델3가 대중적 성공을 거두게 된다면 단순히 전기차 보급 확대 차원을 넘어서는 사회적 영향력을 가져올 것으로 보임


ž 모델3는 자율운전에 필요한 하드웨어 장비를 탑재하고 있으며, 소프트웨어를 업데이트 하는 것 만으로 완전 자율운전차량(레벨 5)이 될 수 있다고 함


Ø 테슬라는 완전한 자율운전 기능(Full Self-Driving Capability)의 제공을 강조하고 있으며, 이를 위해 모델S의 최신 라인업과 모델3에 필요한 장비를 탑재했는데, 센서로 자동차 주위에 8대의 카메라와 초음파 센서 12, 자동차 전면에 레이더 1개를 장착하고 있음


Ø 테슬라는 레이저 센서인 라이더(Lidar)는 사용하지 않기 때문에 카메라가 자동차의 눈이 되며, 센서 데이터들은 차량용 슈퍼 컴퓨터인 엔비디아 드라이브(Nvidia Drive) PX2로 처리됨


Ø 자율운전 기능은 향상된 오토파일럿 기능 위에 구축되는데, 자율운전을 희망하는 운전자는 우선 모델3의 기본 차체에 옵션으로 5천 달러를 내고 오토파일럿 기능을 추가해야 하며, 다시 3천 달러를 추가해 자율운전이 가능하도록 소프트웨어를 업그레이드 해야 함


Ø 8천 달러의 추가 요금을 통해 완전한 자율운전차량(레벨 5)을 손에 넣을 수 있게 되는 것인데, 테슬라는 이 기능의 제공 시기에 대해 아직 명확히 밝히고 있지 않으며 현재 완전한 자율운전 기능의 시험을 거듭하고 있는 중이라 말하고 있음


Ø 시기를 정확히 못박을 수 없는 것은 정부로부터 인가가 필요한 사안이고 따라서 자율운전 차량의 운행이 가능한 지역은 연방 정부 혹은 주 정부의 판단으로 결정될 것이기 때문


ž 테슬라는 라이더 센서 없이 저비용으로 자율운전 기능을 구현하고 있는데, 이를 위해 선택한 방식은 인공지능(AI) 역량을 강화해 소프트웨어 중심축을 둔 시스템을 구현하는 것


Ø 자율운전 차량에 탑재되는 여러 종류의 센서 중에서 가장 널리 사용되고 있는 것이 라이더인데, 라이더는 레이저 광으로 자동차 주위의 보행자나 다른 차량 등 객체를 파악하며, 다양한 조건 속에서도 안정적으로 측정 할 수 있어 가장 필수적인 센서로 받아들여지고 있음


Ø 반면 라이더는 부피가 있고, 가격이 비싸며 해상도가 충분하지 않은 것이 단점인데, 지붕에 장착하면 구급차의 사이렌 불빛을 방불케 해 디자인 측면에서 심각한 문제를 야기하며, 그 자체로 7만 달러 안팎인 부품 가격은 자율운전 차량 대중화에 최대 걸림돌로 지적받고 있음


Ø 라이더를 반도체 칩에 구현하여 소형화 한 제품이 등장하고 있기도 하지만 해상도가 충분하지 않아 아직 자율운전 차량에 탑재되지 못하고 있음


<자료> recode

[그림 2] 웨이모와 우버 차량의 라이더 센서


Ø 구글의 자회사인 웨이모(Waymo)는 이 문제를 해결하기 위해 독자적인 기술로 라이더를 개발하고 있는데, 라이더를 소형화하고 해상도를 향상시키되 가격은 기존 상용 제품의 1/10 수준으로 낮춰 자율운전 차량의 대중화를 위한 기술 기반을 닦고 있음


Ø 이와 더불어 웨이모는 비전 시스템(Vision System)이라 부르는 고성능 카메라도 개발하여 라이더와 함께 사용하고 있는데, 이런 방식은 센서 퓨전(Sensor Fusion)이라 불리며 자율운전에서는 사실상 표준 기술로 받아들여지고 있음


Ø 개별적으로는 불완전한 센서들이지만 이들을 조합하여 사용하면 전체 시스템에서는 선명한 영상을 얻을 수 있기 때문에, 센서 퓨전은 가장 안정적인 자율운전 구현 방법으로 웨이모 이외에 많은 기업들이 채택하고 있음


Ø 이런 현실에 비추어 보면 테슬라가 라이더 없이 카메라만으로 자율운전 기술을 구현하는 것도 차량 가격을 낮추는 혁신적인 방법이라 할 수 있음


Ø 딥러닝 기술을 바탕으로 카메라와 같은 일상적인 기기를 사용하여 안전한 자율운전 기술을 달성하려는 테슬라의 선택은 하드웨어가 아닌 소프트웨어에 축을 둠으로써 가격의 문제를 해결하려는 것으로, 테슬라 전기차 비즈니스의 성패를 좌우할 승부수라고 할 수 있음


ž 이런 배경 하에 테슬라는 자체 AI 개발 체제를 강화해 왔으며, 독자적인 자율주행 AI 기술인 테슬라 비전(Tesla Vision)은 테슬라 사업의 성패를 가름할 핵심 기술로 꼽히고 있음


Ø 테슬라의 독자적인 AI 기술은 테슬라 비전이라 불리는 심층신경망(Deep Neural Network)을 기반으로 구축되는데, 테슬라 비전은 차량에 탑재된 카메라로부터 영상이 입력되면 이를 분석하여 차량 주변의 개체를 파악하게 됨


Ø 기존의 컴퓨터 비전(Computer Vision) 기술을 고도화 한 테슬라 비전은 객체를 빠짐없이 정확하게 확인할 수 있어, 안전성이 최우선으로 요구되는 자동차에 AI가 시각을 담당하는 자율운전 기술의 접목을 가능케 한다고 함


<자료> Tesla

[그림 3] 테슬라 비전의 객체 인식


Ø 테슬라는 테슬라 비전을 탑재한 차량의 자율운전 데모 주행을 실시했는데, 테슬라 본사에서 출발해 다운타운을 통과해 다시 본사로 돌아오는 루트의 전 과정을 자율운전으로 주행하였음


Ø 데모 주행에서 테슬라 비전은 카메라 이미지를 분석하고 자동차 주위의 객체와 주행 경로 상의 객체, 차선, 신호등, 도로 표지판 등을 정확히 식별할 수 있음을 보여주었는데, 전문가들은 테슬라 비전의 완성도가 테슬라 자율주행 전기차 사업의 성패를 쥐고 있다고 보고 있음


Ø 이를 인정하듯 테슬라는 AI 개발 체제를 강화하고 있는데, 올해 6월에는 AI와 오토파일럿 부문에서 최고라 평가받고 있는 딥러닝 연구 전문가 안드레이 카패시를 채용하였음


Ø 또한 테슬라는 현재 판매되어 운행 중인 차량이 주행 중에 촬영하는 영상 이미지를 수집하기 시작했는데, 오토파일럿이 실행되는 동안 카메라가 촬영한 영상이 테슬라 클라우드로 전송되면, 테슬라는 수집된 이미지를 이용해 자율운전 기술을 정교화해 나가고 있음


Ø 웨이모는 개발 전용 차량으로 비디오 이미지를 수집할 수 밖에 없지만, 테슬라는 판매된 자동차들이 테스트 차량이 되어 대규모로 데이터를 수집하여 AI에 대한 교육이나 테스트에 활용할 수 있다는 것이 최대 강점임


ž 테슬라가 지향하는 완전 자율운전 차량 기술은 이용자와 차량 간의 인터페이스에도 큰 변화를 가져올 것으로 보임



Ø 모델3는 자동차 키가 별도로 없고 스마트폰이 블루투스로 도어와 통신하며 잠금과 해제를 하기 때문에 이용자가 스마트폰이 있어야만 탑승할 수 있는 구조로 되어 있으며, 다만, 긴급 사태에 대비해 전용 카드(NFC Key Card)가 제공되고 있음


Ø 운전석에는 15인치 디스플레이만 갖추고 있고 여기에서 모든 작업을 지시하는데, 최소한의 장비만 갖추고 점점 더 심플해지는 실내 디자인은 마치 애플의 제품 디자인을 연상시켜며, 자동차가 점차 컴퓨터에 접근하고 있음을 확인시켜주고 있음


<자료> Tesla

[그림 4] 모델3의 차량 내부 인테리어


Ø 테슬라는 모델3로 자율운전 할 수 있는 장소는 미국의 거의 모든 지역이라 설명하고 있는데, 탑승하여 목적지를 말하면 최적의 경로를 산정하여 그 위치까지 자동으로 주행하며, 목적지를 말하지 않으면 차량이 탑승자의 일정을 참조하여 행선지를 파악함


Ø 목적지에 도착하여 하차하면 자동차는 주차 모드가 되어 자동으로 빈 공간을 찾아 주차를 하며, 다시 차량을 이용하기 위해 스마트폰으로 자동차를 호출하면 자율주행으로 지정한 장소까지 와서 이용자를 맞이함


ž 이런 인터페이스 변화는 필연적으로 차량 소유가 아닌 차량 공유의 개념을 강화하게 되는데, 테슬라는 이미 카 쉐어링을 위한 자동차 네트워크를 개발하고 있음


Ø 지금은 차를 운전해 출근할 경우 퇴근하기 전까지 차량을 어쩔 수 없이 주차장에 주차시켜 놓아야 하며, 부분적으로 자율운전 기능을 구현한 차량이라 하더라도 현행 법률상 반드시 운전자가 탑승해야 주행이 허용되므로 주행 후에는 차량을 놀릴 수밖에 없음


Ø 그러나 완전 자율운전 차량은 탑승자를 목적지로 옮긴 후 그 곳에 계속 머무를 필요가 없으며 스스로 다른 곳으로 이동해 다른 탑승자를 태우는 일을 할 수 있어 상황이 완전히 달라짐


Ø 이런 점 때문에 자율운전 차량은 본질적으로 차량 공유 개념과 밀접하게 연관되어 있으며, 환경운동가들이 차량 감소와 주차 공간 효율화의 유력한 방안으로 자율운전 기술을 지지하고 나서는 이유가 되고 있음


Ø 테슬라는 자율운전 자동차들을 연결하는 네트워크인 테슬라 네트워크(Tesla Network)를 개발하고 있는데, 자동차가 완전 자율운전 차량이 되면 이를 통해 차량을 공유할 수 있게 될 것이라는 설명


Ø 가령 모델3 소유자는 휴가 기간이나 업무 시간대 등 자동차를 사용하지 않는 동안에 테슬라 네트워크 앱을 통해 이 차량을 다른 이용자에게 대여한다고 허용할 수 있고, 다른 이용자가 자신의 차량을 이용할 경우 임대 소득을 올릴 수 있게 된다는 것임


Ø 공유되는 차량은 자율운전으로 임차인의 위치로 직접 이동할 수 있으므로, 이용자 입장에서도 빌리는 데 전혀 수고가 들지 않는데, 테슬라 네트워크는 자율운전 자동차 시대의 카 쉐어링의 모습을 머리 속에 그릴 수 있게 해주고 있음



<자료> Tesla


[그림 5] 우버와 경쟁하게 될 테슬라 네트워크



ž 카 쉐어링 뿐만 아니라 모델3는 새로운 자동차 시대로의 전환 속도를 대폭 앞당길 것으로 보이며, 자동차 산업 구조조정, 세금, 전력 등 각종 이슈의 활발한 논의를 촉진할 전망


Ø 카메라만으로 자율운전 기술을 개발하는 것은 고가의 라이더에서 벗어나 자율운전 차량을 대중화시킬 수 있는 방안으로 전세계 연구개발팀의 공통된 목표였으며 현재 테슬라가 가장 가까운 위치에 있다고 할 수 있음


Ø 테슬라 역시 아직 완전히 기술을 달성한 것으로 보이지 않지만 시판되고 있는 차량에서 수집한 데이터로 AI 개발을 가속화하고 있기 때문에 예상보다 이른 시점에 자율주행 차량이 대중적으로 보급될 가능성이 보이고 있음


Ø 일론 머스크는 2018년에 50만 대 생산, 2020년에 100만 대 생산을 목표로 하고 있는데, 그의 계획이 실현된다면 모델3는 사회 전반에 커다란 파장과 이슈를 몰고 올 것이 자명함


Ø 모델3의 고객 인도가 시작되며 이미 고급 세단의 판매량이 줄기 시작했는데 BMW 3시리즈와 메르세데스 C클래스의 7월 미국 판매는 각각 40% 22% 감소했다고 하며, 현재 모든 예약이 실제 주문으로 이어진다면 모델3는 미국에서 가장 많이 팔린 자동차가 될 수도 있음


Ø 이는 전통적인 자동차 산업 생태계에는 엄청난 압박이 될 것이며, 자동차 업체들은 테슬라와 기술 경쟁을 해 승리하거나 테슬라의 사업이 망하길 비는 수밖에 없음


Ø 모델3 생산이 시작되자마자 미국에서는 기존 자동차의 판매 감소에 따른 휘발유세 감소를 보완할 세원으로 차량의 주행거리에 세금을 부과하는 마일리지세 논의가 시작됐는데, 마일세는 각종 센서와 통신 장치가 장착돼 주행거리 파악이 쉬운 전기차를 겨냥한 것임


Ø 전기차 대중화로 전력 부족 현상이 초래될 것에 대비한 논의도 시작되고 있는데, 블룸버그에 따르면 세계 전력 소비에서 전기차 충전이 차지하는 비율이 2040년에 8%에 달할 것으로 보임


<자료> APRS


[그림 6] 전기차에 대한 마일리지세 부과 논의



ž 테슬라의 사업에 현재 많은 위험이 존재하는 것도 사실이지만, 간과하지 말아야 할 것은 테슬라의 비전이 사람들의 마음을 움직이고 있으며 미래는 그렇게 갈 가능성이 크다는 점


Ø 테슬라의 2분기 실적 보고서에 따르면 매출은 약 27 9천만 달러로 전년 동기의 12 7천만 달러에 비해 2.2배 증가했으나 영업적자는 약 34천만 달러로 전년 동기의 2 9천만 달러 적자에 비해 적자 폭이 오히려 커졌음


Ø 적자 폭이 커진 원인은 모델3 개발과 생산 설비 확대 때문인데, 이처럼 취약한 재무구조와 로드스터, 모델S, 모델X 등 지금까지 출시된 차량들이 모두 차량 인도가 6~18개월 이상 지연된 과거 사례를 들어 모델3의 생산계획이 머스크의 바람대로 되지는 않을 것이란 분석이 많았음


Ø 자금 위기를 넘기기 위해 테슬라는 올해 7월 처음으로 15억 달러 규모의 회사채를 발행했는데, 국제 신용평가 기관인 무디스는 테슬라의 채권에 투자적격 등급 보다 6단계 아래로 평가하였고 S&P는 전체 21개 등급 가운데 16등급, 즉 사실상 망해가는 기업으로 평가하였음


Ø 그러나 정크 본드라는 평가와 달리 테슬라는 보통의 회사채들보다도 훨씬 낮은 수익률에 목표를 상회하는 18억 달러를 조달하였으며 2019년까지 현금 유동성을 확보하였음


Ø 전통적인 평가 기준과 달리 투자자들은 테슬라의 비전에 전폭적인 지지를 보내고 있는 것이며, 적자 폭이 늘어나는 것과 무관하게 올해 들어 테슬라의 주가는 70% 이상 급등하였음


Ø 비전이 사람들의 마음을 움직이는 것은 그것이 구체적인 것으로 받아들여질 때인데, 가령 모델3의 출시로 전기차 충전에 의한 전력 부족 문제에 대한 이슈가 제기되면, 태양광 패널업체 솔라시티를 26억 달러에 인수한 테슬라의 결정은 사람들에게 구체적 액션 플랜으로 인정받게 됨


Ø 보급형 자율주행 전기차의 등장과 태양광 패널로 테슬라는 이미 미래를 현실로 보여주었으며, 이는 이제 거스를 수 없는 흐름이 될 가능성이 높기 때문에, 미래를 준비하기 위한 생각과 발걸음의 속도에 더 이상 여유가 없다는 점을 직시할 필요가 있음

댓글을 달아 주세요

※ 아래 글은 정보통신기술진흥센터(IITP)가 발간하는 주간기술동향 1807호(2017. 8. 2 발행)에 기고한 원고입니다.


▶ IITP에서 PDF 포맷으로 퍼블리싱한 파일을 첨부합니다. 가독성이 좋으니 참고하시기 바랍니다.

‘비전 펀드’ 투자 시작, 기업가와 투자가의 갈림길에 선 손정의.pdf



[ 요 약 ]


소프트뱅크가 280억 달러를 출자하고 운영 책임을 맡은 930억 달러 규모의 비전 펀드(Vision Fund)가 첫 투자처로 농업테크로봇인공지능 분야 스타트업을 선정하고 5억 달러를 출자하였음소프트뱅크가 비전 펀드를 통해 유망 미래 기술 기업에 대한 투자와 M&A를 하며 4차 산업혁명의 주도권을 쥐게 될 것이란 평가가 지배적이나위험 수준에 다다른 소프트뱅크의 재무 상태와 투자가 성향이 강해지는 손정의 사장의 모습에서 소프트뱅크의 불안한 앞날을 예상하는 견해도 나오고 있음



[ 본 문 ]


ž 소프트뱅크의 손정의 사장은 자사 연례 컨퍼런스의 기조 연설에 등단해 칩을 장악하는 자가 모든 것을 장악할 것이라며 영국의 암(ARM)을 인수한 배경을 설명


Ø 손정의 사장은 7 20일 자사 소프트뱅크 월드(SoftBank World) 2017 행사의 기조 연설에서 인간의 지능을 확장하는 정보 혁명', IoT(사물인터넷), 로봇 등에 대한 의견을 피력


Ø 손정의는 산업 혁명이 세상을 근본적으로 바꾼 것처럼, 정보 혁명은 사람들이 지금껏 상상하지 못했던 세계로 우리를 인도할 것이라는 말로 연설을 시작


Ø 차이점이 있다면 산업 혁명이 인간 신체 능력의 확장인 반면, 정보 혁명은 보다 중요한 인간 두뇌의 확장, 즉 지능의 확장인 것이며, 따라서 정보 혁명의 시대에는 의료, 교통, 농업 등 모든 산업이 다시 정의될 것이라고 손정의는 전망


Ø 소프트뱅크가 1년 전에 영국의 반도체 설계 전문기업인 암(ARM)234억 파운드( 35조 원)에 인수한 배경에 대해서는, 후세 사람들은 칩을 제어한 자가 모든 것을 제압했다고 이야기할 것이라는 말로 매우 중요한 결정이었음을 설명


Ø 손사장은, 지금까지는 경쟁업체와 인간이 이용하는 회선 수를 놓고 경쟁해 왔지만 인간에 한정하면 그 수가 전세계적으로 넓혀도 70억 개에 불과하다며, 소프트뱅크는 사물과 사물을 연결하여 1조 개의 회선을 연결하고 싶다는 포부를 밝혔음


Ø 기조연설에 게스트로 등단한 암의 사이먼 시거스 CEO지금까지 25년 동안 1천억 개의 칩을 생산해 왔지만 칩 비즈니스는 아직 초기 단계이며, 다음 1천억 개의 생산까지는 4년 밖에 걸리지 않을 것이라고 전망


ž 손정의는 로봇과 인공지능(AI)에 대해서도 언급했는데, 싱귤래리티(singularity)는 반드시 온다고 믿고 있으며, 30년 정도 걸릴 것이라고 전망


Ø 인간이 만든 바둑 프로그램이 인간보다 강해진 것처럼, 인간보다 컴퓨터가 훨씬 더 지능적으로 되어 스스로 진화해 가는 시점, 즉 질적인 도약 순간을 의미하는 기술적 특이점(singularity)이 반드시 도래한다고 전망



Ø 덧붙여 손정의는 자사의 로봇 페퍼(Pepper)가 앞으로 더욱 발전할 것이라 예상했는데, 스마트폰과 기존 휴대전화는 전혀 다른 것처럼, 스마트 로봇인 페퍼와 기존 로봇들 사이에는 결정적 차이가 있다고 주장


Ø 기조연설 중간에는 지난 6월 소프트뱅크가 인수한 로봇 기업 보스톤 다이내믹스의 마크 레이버트 CEO가 게스트로 등장해 4족 보행 로봇 스폿미니(SpotMini)를 선보였음


<자료> Softbank


[그림 1] 보스톤 다이내믹스의 스폿미니 로봇


Ø 스폿미니는 주위의 환경을 지도로 인식하고 자율적으로 걷는 것도 가능한데, 계단을 뛰어 오르거나 장애물을 피해서 움직일 수 있음을 보여주었으며, 카메라가 장착된 로봇 팔로 음료가 들어 있는 캔을 인식해 레이버트 CEO에게 건네기도 하였음


ž 한편 소프트뱅크 월드 컨퍼런스 하루 전날, 소프트뱅크는 3개 스타트업에 총 4 7,300만 달러를 투자한다고 발표했는데, 이들 기업은 손정의가 강조한 , 로봇, 인공지능에 부합


Ø 이번 투자는 올해 5월 조성된 사상 최대의 기술 펀드인 비전 펀드(Vision Fund)를 통해 집행되는 첫번째 투자라는 점에서도 많은 관심을 모았음


Ø 비전 펀드는 소프트뱅크가 운용사로 참여하며 280억 달러를 출자하고, 사우디아라비아 국부펀드, 애플, 폭스콘, 퀄컴 등의 투자자들을 끌어들여 총액 930억 달러 규모로 조성되었음


Ø 비전 펀드는 막대한 자금을 인공지능과 사물인터넷, 로봇, 핀테크 등 분야의 기술기업에 투자할 것으로 목표로 하고 있으며, 소프트뱅크를 비롯한 펀드 참여 기업들은 4차 산업혁명 시대의 주도권을 선점했다는 평가를 받고 있음


Ø 펀드의 운용 지침을 가늠할 수 있게 해 줄 첫번째 투자처가 어떤 곳이 될 지에 많은 관심이 모였는데, 첫 주인공은 미국 서부의 기술 기업들이었으며, 농업기술 개발업체인 플렌티(Plenty), 자율주행차 개발업체인 나우토(Nauto), 로봇 개발업체인 브레인(Brain)을 투자처로 선정


Ø 이들 3개 기업에 약속된 투자금은 5억 달러에 육박해 그 자체로 큰 뉴스이지만, 비전 펀드 전체 규모로 본다면 0.01%에도 미치지 못하는 금액임


ž 실내 농업(Indoor Farming) 기술을 개발하는 플렌티(Plenty)는 마이크로 센서를 이용한 사물인터넷과 빅데이터 분석을 핵심역량으로 하고 있으며 이번 투자로 2억 달러를 조달


Ø 플렌티는 샌프란시스코 남부에 있는 52000( 1 6천평) 규모의 실내 농장에서 수직 농법으로 식량을 생산하는 스타트업으로, LED 조명과 마이크로 센서 기술, 빅데이터 분석 기술 등을 이용해 작물을 재배함


<자료> Plenty

[그림 2] 플렌티의 수직 농법 실내 농장


Ø 소비자와 가까운 곳에서 야채와 과일을 생산하여 이른 바 로컬 푸드(local food)를 제철에 공급하는 것이 목적인데, 플렌티의 공동창업자이자 CEO인 매튜 버나드는 살충제와 GMO 없이 농업용수 사용을 99%까지 줄이면서도 높은 생산성으로 유기농 작물을 재배할 수 있다고 주장


Ø 손정의도 플렌티의 농업 방식에 대해, 현재의 식량생산 체계를 바꿀 것이라고 호평한 바 있으며, 이런 배경 하에 비전 펀드는 플렌티의 시리즈 B 투자에 참여를 결정한 것으로 보임


Ø 이번 플렌티의 자금 조달에는 비전 펀드 외에 기존 투자자들도 참여했는데, 이중에는 구글의 지주회사인 알파벳의 회장 에릭 슈미트의 투자 펀드인 이노베이션 인데버(Innovation Endeavor)와 아마존닷컴 제프 베조스 CEO의 투자 펀드인 베조스 엑스퍼디션(Bezos Expeditions)도 있음


Ø 또한 농업기술(AgTech) 전문 벤처 캐피털인 피니스테르 벤처스(Finistere Ventures) 등도 플렌티의 투자에 참여하고 있어 플렌티에 대한 기술 투자자들의 높은 관심을 짐작할 수 있음


ž 자율운전을 위한 인공지능 기술을 개발하고 있는 나우토(Nauto) BMW와 도요타 등이 이미 출자하고 있는 기업으로, 이번에 비전 펀드로부터 1 5,900만 달러를 조달


Ø 나우토는 운전 중 운전자의 모습과 주변의 상황을 동시에 촬영하는 후방 부착형 디바이스를 개발하고 있는데, 이 기기는 차내 촬영용과 차외 촬영용으로 2대의 카메라, GPS, 무선통신 기능 등을 탑재하고 있음


<자료> Nauto

[동영상 1] 나우토의 실내외 동시 촬영 기기


Ø 이 장비를 통해 운전 중 운전자의 모습을 분석하여 졸음 등의 위험한 행동을 감지하고 경고하거나, 카메라로 촬영한 정보 등을 바탕으로 실시간 교통 정보를 클라우드 상에 저장하여 활용함으로써 차량 안팎의 운행 방해요소를 차단하는 프로그램을 개발하고 있음


Ø 나우토의 CEO 스테판 헥은 자동차 업계가 자율주행차 개발 경쟁을 벌이고 있지만, 자율주행차가 상용화 되더라도 당분간은 자율주행차와 사람이 운전하는 자동차가 뒤섞이는 시대가 계속될 수밖에 없다고 보고 있음


Ø 그런 상황에서 안전운전을 실현하려면 자율주행차의 AI가 인간 운전자의 행동을 예측하는 것이 바람직하며, 그 정도 수준의 AI를 구현하기 위한 데이터를 수집하기 위해 나우토의 시스템을 개발하고 있다는 설명


Ø 나우토는 가령 운송 회사의 경우 자신들의 장비를 트럭 등에 장착하여 운전자의 안전 운전을 모니터링 할 수 있게 될 것이며, 운전자의 안전도를 기준으로 보험료를 결정하는 보험회사라면 나우토 같은 시스템의 부착 유무로 안전도를 판단할 수 있게 될 것으로 기대


Ø 나우토는 안드로이드를 개발한 앤디 루빈이 이끄는 하드웨어 인큐베이터인 플레이그라운드 글로벌(Playground Global)을 통해 육성된 스타트업으로 일찍이 많은 주목을 받았음


Ø 작년 10월에는 도요타가 미국에 설립한 인공지능 연구 자회사인 도요타 리서치, BMW의 벤처 캐피탈 부문인 BMWi 벤처스, 독일의 보험 대기업 알리안츠의 벤처 `캐피탈 부문인 알리안츠 벤처스 등이 나우토에 대한 투자에 동참하여 화제를 모은 바 있음


Ø 나우토는 출자한 3개 기업과 업무 제휴를 맺고 나우토의 데이터와 AI 기술에 대한 접근을 허용했는데, 자동차 업체들의 목적은 나우토 시스템이 수집한 드라이버 및 차량 데이터에 대한 분석을 통해 운전자가 어떤 상황에서 어떤 결정을 하는지, 그 패턴을 알아내는 것이라고 함


ž 브레인(Brain)은 비전 펀드의 3가지 주요 관심사에 모두 부합하는 투자 대상으로, 이번 C 시리즈 펀딩에서 비전 펀드에서만 11400만 달러를 조달하였음


Ø 브레인은 인공지능과 자율주행기술을 결합해 상업용 로봇을 개발하는 스타트업으로, 이 회사가 처음 출시한 제품은 바닥청소 로봇이었으며, 주로 물류 창고나 쇼핑센터에 들어가는 자율주행 로봇, 슈퍼마켓의 청소용 로봇 등의 개발과 공급에 주력해 왔음



Ø 브레인은 원래 두뇌형 컴퓨터의 개발을 목표로 하고 있었지만 2015년에 정책을 전환해 로봇 개발용 소프트웨어인 브레인 운영체제(BrainOS)를 출시했으며, 이후 2016년에부터 업무용 로봇을 대상으로 한 자율주행 소프트웨어인 EMMA를 출시하였음


<자료> Brain

[동영상 2브레인의 EMMA를 탑재한 청소로봇


Ø 브레인의 설립자인 유진 이즈히케비치는 앞으로 로봇은 오늘날의 컴퓨터나 모바일처럼 흔한 기기가 될 것이라 전만하며, 브레인OS를 안드로이드 OS처럼 육성한다는 목표를 갖고 있음


Ø 브레인의 이런 목표에 일찍이 주목한 곳은 퀄컴으로 퀄컴은 초기 투자에 참여하며 브레인의 이사회 멤버가 되었으며, 브레인OS가 퀄컴의 스냅드래곤 프로세서 상에서 돌아가도록 하는 연구를 공동 추진 중에 있음


Ø 브레인이 퀄컴 리서치랩에 초기부터 지금까지 입주해 있을 정도로 양사는 긴밀한 관계를 유지하고 있으며, 이번 비전 펀드가 주도한 투자에 퀄컴의 투자 부문인 퀄컴 벤처스도 참여하였음


Ø 손정의는 이번 투자와 관련해, 브레인은 지금까지 수동으로 작동시켰던 기계를 자율주행 로봇으로 변신시키는 데 필요한 핵심 기술을 개발해 왔다며, 브레인이 기술을 통해 보다 편리한 삶을 영위하도록 하는데 개척자 역할을 하고 있다고 평가


Ø 브레인의 유진 이즈히케비치 CEO 역시 이번 비전 펀드의 투자가 브레인의 미션 달성을 가속화할 것이며, 소프트뱅크와 장기적인 전략 파트너로서 협력하기를 기대한다고 말했음


ž 비전 펀드의 투자 활동이 본격화 됨에 따라, 미래 혁신을 이끌 차세대 기술 개발 경쟁에 올인한 소프트뱅크가 어떤 최종적으로 어떤 성적표를 받게 될 지 업계의 관심이 모이고 있음


Ø 스프린트 인수에 이어 암과 보스턴 다이내믹스의 인수, 그리고 비전 펀드의 조성까지 최근 수년 간 소프트뱅크의 행보는 기술업계의 이슈를 주도해가고 있음


Ø 특히 비전 펀드가 큰 관심을 모았는데, 그 이유는 애플이 10억 달러를 출자했기 때문으로, 구글이나 인텔과 달리 대규모 투자를 꺼려 왔던 애플은 매우 이례적으로 비전 펀드가 애플에 전략적으로 중요한 기술 개발을 가속화시킬 것으로 판단한다며 펀드 참여를 선언하였음


Ø 930억 달러라는 펀드의 규모나 은퇴 의사까지 번복하며 인공지능, 사물인터넷, 로봇 비즈니스에 사운을 걸겠다고 나선 손정의 사장의 의지, 여기에 애플과 퀄컴 등 거대 IT 기업의 협력 소식이 더해지며 소프트뱅크의 행보에 업계의 관심과 기대가 모이고 있는 상황


Ø 그러나 손정의와 소프트뱅크의 미래가 낙관적이지 만은 않다는 전망도 제기되는데, 소프트뱅크의 현재 부채가 12조 엔에 달하고 스프린트의 장기 부채도 320억 달러에 달하는 등 재무 리스크가 너무 크다는 것이 주요 이유


Ø 그러나 보다 큰 문제는 손정의 사장이 혁신적 기업가라기보다는 투자가로서 캐릭터가 강해지고 있다는 점인데, 중동자본 1천억 달러가 손에 있다 하더라도 투자자와 혁신적 기업가의 길은 전혀 다르며, 결국 손정의는 사업을 스스로 만들어가는 기업가들에게 밀릴 것이란 전망임


Ø 기업가가 아닌 투자가로서 손정의의 캐릭터는 비전 펀드의 자금 구조에도 드러나는데, 930억 달러 펀드 규모라고는 하지만 사우디 국부펀드와 애플 등 출자자들의 출자는 200억 달러에 불과하고 400억 달러는 이들이 매년 7%의 이자를 받고 펀드에 빌려주는 금액임


Ø , 주요 출자자들에게 펀드 수익을 배당 받지 못할 위험에 대비해 비전 펀드가 이자 수익을 주겠다고 제안한 것인데, 투자 수익이 발생하기 전까지 발생하는 이자 비용은 펀드의 운용사인 소프트뱅크에게 고스란히 돌아갈 것임


Ø 손정의 사장이 기업가로서의 면모를 살려 자본을 도구로 하여 본인의 숙원이라는 미래 기술 혁명을 실현할 것인지, 아니면 투자가로서 머니 게임에 매몰될 지는 오직 그 자신이 증명해야 할 일이나, 그 결과에 따라 소프트뱅크라는 대기업도 흥망을 달리 하게 될 것으로 보임


댓글을 달아 주세요

※ 아래 글은 정보통신기술진흥센터(IITP)가 발간하는 주간기술동향 1803호(2017. 7. 5 발행)에 기고한 원고입니다.


▶ IITP에서 PDF 포맷으로 퍼블리싱한 파일을 첨부합니다. 가독성이 좋으니 참고하시기 바랍니다.

AI 이용해 테러 대응 정책 강화에 나서는 페이스북과 구글.pdf



ž 페이스북은 인공지능(AI)을 이용하여 SNS 서비스 내에서 유포되는 테러 관련 콘텐츠를 제거하기 위한 대책을 강화해 나가겠다고 발표


Ø 페이스북은 테러리스트와 극단주의자들의 선전 유포의 장이 되고 있다는 비난을 종종 받아왔는데, 지금도 테러 조직이 게시한 내용과 테러 행위를 지지하는 내용의 콘텐츠를 신속하게 조사해 제거해오고 있지만 최근 들어 AI를 활용한 대응 방안도 시작했다고 강조한 것


Ø 구체적으로 살펴 보면, 페이스북에서 과거에 삭제된 적이 있는 테러 조직이 올린 사진과 동영상을 AI에 학습시킨 후, 누군가 그런 이미지를 올리려고 하면 AI가 저지하게 한다고 함


Ø 또한 ISIS와 알 카에다 등 테러 조직을 옹호하는 글을 식별하는 데 AI를 사용하여 텍스트 기반의 신호를 개발하였고, 시험적으로 알고리즘을 구현한 상태라고 함


Ø 이와 함께 지금까지 테러와 관련되어 비활성화 시킨 다수의 계정과 친구로 연결되어 있거나 혹은 공통된 속성을 가지고 있는 계정을 검출함으로써, 테러를 옹호하는 계정이 반복적으로 생성되는 것을 방지할 계획이라고 밝혔음


Ø 페이스북은 현재 ISIS와 알 카에다 및 관련 조직에 관한 내용을 중심으로 최신 기술을 적용하고 있지만 다른 테러 집단에 대해서도 순차적으로 대응책을 넓혀 갈 예정이라고 함



Ø 또한 AI와 알고리즘만으로는 제거해야 할 테러 관련 내용을 모두 식별하여 판단하는 것은 어렵기 때문에 사용자들의 신고를 바탕으로 조사하는 감시 요원도 늘릴 계획인데, 현재 4,500명의 인원에 더해 새롭게 3천 명을 추가 고용해 감시 체계를 강화한다는 계획임


ž 구글 역시 동영상 공유 사이트 유튜브에서 테러 관련 콘텐츠를 완전 소멸하기 위한 4 가지 전략을 발표하고, 유해 콘텐츠 제거에 새로운 기술을 도입할 것이라 밝힘


Ø 구글은 지난 몇 년 동안 유튜브 정책에 위반하는 콘텐츠를 식별해 제거하려는 노력을 해왔으나 불행히도 새로운 대책이 필요한 지경에 이르렀다는 점을 인정할 수밖에 없다며, 새로운 기술을 도입한 유해 콘텐츠 제거를 시도하겠다고 설명


Ø 새로운 방법이란 이미지 분석 모델의 도입을 말하는데, 지난 6개월 동안 삭제된 내용의 50%는 분석 모델이 이미 감지했다고 하며, 향후 콘텐츠 분류의 정확도를 높이기 위한 기계학습 연구에 더 많은 엔지니어링 자원을 투입할 것이라고 함


Ø 기술의 활용과 함께 전문가도 강화하는데, 문제가 있는 특정 콘텐츠에 대해 써드파티 기관과 협력하는 프로그램인 트러스티드 플래거(Trusted Flagger)에 새로 50개의 NGO를 추가하였음


Ø 또한 명확하게 유튜브의 정책에 위배되지는 않는 동영상에 대해서도 보다 엄격한 조치를 할 방침인데, 가령 선동적인 종교 관련 및 인종 우월주의적 동영상에는 경고를 표시하고 광고 게재나 댓글 달기를 할 수 없게 하며 추천 목록에 포함시키지 않아 찾기 어렵게 한다는 계획


Ø 한편, 알파벳 산하 기업인 직소(Jigsaw)리디렉트 메소드(Redirect Method)’ 기술을 유럽 전역에 광범위하게 도입할 것인데, 리디렉트 메소드는 타깃형 광고 기술을 사용하여 ISIS에 공감하는 사용자에게 ISIS 참여를 단념하게 만드는 반테러 동영상이 전달되도록 하는 데 이용됨




댓글을 달아 주세요

※ 아래 글은 정보통신기술진흥센터(IITP)가 발간하는 주간기술동향 1798호(2017. 5. 31 발행)에 기고한 원고입니다.


▶ IITP에서 PDF 포맷으로 퍼블리싱한 파일을 첨부합니다. 가독성이 좋으니 참고하시기 바랍니다.

인공지능 음성비서 서비스 탑재 기기 2021년 75억 대 이상 전망.pdf



ž 통신산업 시장조사기관 오범(Ovum)에 따르면 2021년 인공지능(AI) 음성인식 가상 비서 서비스를 이용할 수 있는 기기의 대수는 75억 대를 넘어설 전망


Ø 오범에 따르면 음성 인식 가상 비서 서비스는 현재 주로 스마트폰과 태블릿에서 이용되고 있는데, 2016년 말 현재 서비스 이용이 가능한 하드웨어 대수는 35억 대로 추산되며, 구글의 구글 나우(Google Now)와 애플의 시리(Siri)가 대부분을 차지하고 있음


Ø 그러나 2021년에는 현재 세계 인구를 넘어서는 75억 대에 이를 것으로 예상되며, 구글 어시스턴트(Google Assistant)가 점유율 23.3%로 선두를 차지할 것으로 예측됨


Ø 그 다음으로는 삼성전자의 빅스비(Bixby)14.5%, 시리가 13.1%, 아마존의 알렉사(Alexa)3.9%, 마이크로소프트의 코타나(Cortana)2.3% 점유율을 차지할 것으로 예측


Ø 기기 유형도 다양해져 향후에는 스마트폰과 태블릿 등 모바일 기기 외에도 스마트홈을 중심으로 새로운 기회가 열릴 것으로 예상되는데, 가상 비서와 음성 AI를 지원하는 스마트 홈 제품, TV, 웨어러블 기기의 수는 2021 년에 16 3천만 대에 달할 것으로 추정됨


<자료> Ovum


[그림 1] 2015-2021가상 비서와 음성 AI 지원 디바이스 추이 전망


Ø 특히 현재 인공지능 스피커 제품에 쏟아지고 있는 거대한 관심에도 불구하고, 비 모바일 기기 중에는 TV 기기(스마트 TV, 셋톱박스, 미디어 스트리머 등 포함) 57%로 가장 높은 점유율을 차지할 것으로 전망


ž 지역적 관점에서 보면, 음성 인식 가상 비서 서비스 이용은 북미 중심에서 벗어나 전 지구적 서비스로 확산될 것으로 예상됨


Ø 2016년 말 현재 아마존 알렉사와 구글의 구글 어시스턴트의 경우 북미 지역의 이용자 점유율이 95%에 이를 정도로 지역적 편중이 심한 상태이나, 2021 년에는 서비스가 전세계로 확산되고 아시아와 오세아니아 지역이 47.6%의 점유율을 차지할 것으로 전망됨


Ø 아시아 지역에서는 당연히 중국 시장의 성장이 두드러질 것인데, 2016년 기준 중국어를 지원하는 음성 비서 서비스 제공 하드웨어 기기 대수는 4,300만 대 수준이며, 바이두(Baidu)와 아이플라이테크(iFlytek) 등의 업체가 선도하고 있음


Ø 그러나 2021년에 중국어를 지원하는 음성 비서 서비스 제공 하드웨어 수는 12억 대에 달할 것으로 예상되며, 이는 애플의 시리와 삼성전자의 빅스비와 비슷한 규모가 될 것으로 보임

댓글을 달아 주세요