※ 아래 글은 정보통신기술진흥센터(IITP)가 발간하는 주간기술동향 1880호(2019. 1. 22. 발행)에 기고한 원고입니다.


▶ IITP에서 PDF 포맷으로 퍼블리싱한 파일을 첨부합니다. 가독성이 좋으니 참고하시기 바랍니다.

무어의 법칙 종언 시대, CPU-GPU-DSA의 서버 프로세서 3파전.pdf



인텔의 CPU ‘Xeon(제온)’의 라이벌은 AMD나 암(Arm)의 서버 프로세서만이 아닌데, 급성장 중인 AI(인공지능) 분야에서는 GPU에 밀린 지 오래이며, 새로운 경쟁자도 계속 나타나고 있음


AMD의 리사 수 CEO에 따르면 2021년에는 데이터센터용 프로세서 시장에서 GPU의 점유율이 CPU에 육박하는 수준으로 성장할 전망하였음


리사 수는 데이터센터용 프로세서 시장 규모는 2018200억 달러에서 2021290억 달러로 성장할 것으로 내다보는데, 특히 GPU는 연간 수십 %의 속도로 성장하며 전체 시장의 약 40%를 차지하게 될 것으로 예상하고 있음


향후 성장이 기대되는 대규모 시뮬레이션이나 딥러닝 분야 등은 GPU가 적합한 작업이기 때문이라는 것이 그 이유


<자료> AMD

[그림 1] 2021년 데이터센터용 프로세서 시장 전망


이런 판단 하에 AMD201811월 제품 발표회에서 서버 프로세서 ‘EPYC(에픽)’의 차기 버전인 ‘ROME(, 개발코드명)’ 뿐만 아니라, 새로운 데이터센터용 GPU 제품으로 ‘Radeon Instinct MI60’‘MI50’을 발표하였음


리사 수 CEO는 새로운 GPU 제품들이 7nm(나노미터) 공정에서 처음 생산되는 데이터센터 용 GPU라 설명하며, AMD의 데이터센터 시장 공략은 CPUGPU라는 쌍두마차를 통해 전개될 것임을 강조하였음


AMD의 행보에는 약간의 조바심이 느껴지는데, 그도 그럴 것이 AMD보다 먼저 데이터센터 시장에 진입한 엔비디아(NVIDIA)는 이미 이 분야에서 GPU로 눈부신 성공을 거두었기 때문


엔비디아의 20188~10월 기간 결산을 보면 데이터센터 사업부문의 매출은 79,200만 달러로 2년 전인 20168~10월 매출에 비해 3.3배 증가했는데, 이러한 실적은 데이터센터용 GPU 시장이 얼마나 빠르게 성장하고 있는지 잘 보여주고 있음


사업의 규모가 달라 성장률을 단순 비교하기는 어렵지만, 비슷한 시기에 인텔의 데이터센터 사업부문 매출은 454,200만 달러에서 613,900만 달러로 1.4배 증가하였음


향후 성장이 기대되는 AI 부문의 수요를 노리고 있는 것은 GPU만이 아닌데, 최근 주목받고 있는 기술은 구글의 클라우드TPU'


작년 11월 스탠퍼드 대학에서 개최된 로봇 심포지엄 Bay Area Robotics Symposium(BARS) 2018에 등단한 유명 로봇 스타트업 안키(Anki)의 공동 창업자 마크 팔라투치는 구글)AI 클라우드인 ‘Cloud TPU(클라우드 TPU)’를 사용 중이라 밝혔음


안키가 2018년에 출시한 벡터(Vector)’는 사용자의 친구가 되어 대화 및 게임 등 커뮤니케이션을 통해 즐거움을 주는 장난감 로봇으로, 카메라로 촬영한 이미지에서 사용자의 얼굴을 인식하는 기능과 사용자의 음성을 인식하는 기능 등 고급 AI 기능을 갖추고 있음


안키에 따르면 기계학습 추론 처리 시, 이미지 인식과 같은 가벼운 작업은 벡터 로봇에 내장된 퀄컴의 스마트폰용 프로세서인 Snapdragon(스냅드래곤)으로도 처리 할 수 있음


그러나 음성 인식과 같이 중요한 추론은 스마트폰용 프로세서로 처리하기는 어렵기 때문에 클라우드 측에 맡기는데, 그 클라우드 백엔드에 구글의 클라우드TPU를 사용 중이라고 함


클라우드TPU는 구글이 자체 개발한 딥러닝 전용 프로세서인 ‘TPU(Tensor Processing Unit)’를 종량제 방식으로 이용할 수 있는 구독형 서비스임


TPU2세대인 ‘Cloud TPU v2’ALU(Arithmetic and Logic Unit: 산술논리연산장치)32,768개 탑재하여 딥러닝에 필요한 연산을 초당 180 테라 회(180T FLOPS) 실행할 수 있으며, 3세대 ‘Cloud TPU v3’에서는 초당 420 테라 회 연산이 가능함


<자료> Artificial Intelligence Videos

[그림 2] 수냉식을 채택한 Cloud TPU 3세대


엔비디아의 데이터센터용 GPU의 최신 버전인 ‘Tesla V100’이 딥러닝의 연산을 초당 125 테라 회 실행 가능한 것과 비교해 본다면, 최소한 딥러닝의 성능에 관해서라면 여기에 특화된 구글의 클라우드 TPU가 범용 목적의 GPU를 크게 앞선다고 볼 수 있음


안키와 같은 고도의 기술력을 가진 스타트업이 클라우드TPU를 채택하고 있다는 점은 클라우드 TPU의 압도적 성능을 방증하는 것임


구글이 클라우드 TPU를 선보이자, 뒤이어 화웨이 테크놀로지와 아마존웹서비스(AWS) 역시 딥러닝 전용 프로세서를 개발 중에 있음


화웨이가 201810월 발표한 ‘Ascend 910’은 딥러닝에 필요한 연산을 초당 최대 256 테라 회 실행할 수 있다고 하는데, Ascend 910은 올해 2분기에 정식 출시될 예정임


AWS201811월 딥러닝 전용 프로세서로 ‘AWS Inferentia’를 발표했는데, 올해 하반기부터 클라우드에서 이용할 수 있게 될 이 프로세서는 딥러닝의 연산을 초당 수백 테라 회 실행할 수 있다고 알려져 있음


구글에 이어 주요 클라우드 사업자들이 동참함에 따라, 향후 AI의 워크로드 처리를 놓고 GPU와 딥러닝 전용 프로세서 사이에 경쟁적 본격화될 것으로 예상됨


TPU와 같이 특정 용도에 특화된 프로세서를 도메인 특화 아키텍처(Domain Specific Architecture, DSA)’라 부르는데, 하드웨어 성능 개선의 방법으로 주목받고 있음


DSA의 대표적인 옹호론자는 RISC(축약명령어세트컴퓨터) 프로세서를 고안한 2명의 컴퓨터 과학자로, 스탠퍼드 대학 학장을 역임한 존 헤네시와 버클리 캘리포니아 대학의 교수를 역임한 데이빗 패터슨은 DSA만이 하드웨어의 성능을 향상시키는 길이라 적극 주장하고 있음


<자료> James Hamilton's Blog

[그림 3] 2017 튜링 어워드 수상자


‘Computer Architecture: A Quantitative Approach(컴퓨터 아키텍처: 정량적 접근)’‘Computer organization and design(컴퓨터 구성과 설계)’의 저자로 알려진 두 사람은 2017년 튜링 어워드를 공동 수상한 컴퓨터 과학의 권위자들임

ASIC(주문형반도체)애플리케이션 특화(Application Specific)’, 즉 하나의 응용분야에 최적화된 칩인 반면, DSA는 응용프로그램 보다 범위가 넓은 도메인(산업 및 기술영역)에 특화된 칩이라 할 수 있음

현재 구글 모기업인 알파벳(Alphabet)의 회장을 맡고 있기도 한 존 헤네시는 20185월에 열린 ‘Google I/O’ 컨퍼런스의 강연에서 DSA에 대한 관심이 증가하는 이유로 무어의 법칙의 종언이 다가오고 있기 때문이라 설명


CPU는 지금까지 집적회로의 트랜지스터 수가 1.5~2년마다 2배로 늘어난다는 무어의 법칙에 따라 성능을 향상시켜 왔으나, 현재는 반도체 제조 공정의 미세화가 한계에 다다르고 있음


인텔도 제조 공정의 미세화에 고전하고 있고, AMDIBM의 반도체 제조부문을 인수한 글로벌파운드리즈도 작년에 반도체 제조 공정 신규 개발에서 철수한 바 있음


무어의 법칙이 붕괴되면 단순히 트랜지스터의 수를 늘림으로써 성능을 향상시킬 수는 없게 되므로, 그렇다면 향후 어떻게 성능을 향상시킬 지가 반도체 산업의 화두가 되고 있음


존 헤네시는 시간이 지나면 오래된 아이디어가 다시 새로운 것이 되는 법(Everything old is new again)’이라며, 과거에는 작동하지 않던 DSA가 이제는 성능을 발휘하게 되었다고 주장


과거 범용 CPU 시대에 시도되었으나 당시에는 잘 작동하지 않았던 기술들이 있는데, DSA도 그 중 하나로 용도를 제한함으로써 이제는 오히려 성능을 발휘할 수 있게 되었음


일례로 ‘VLIW (Very Long Instruction Word)’ 아키텍처를 들 수 있는데, 이는 과거 인텔이 64 비트 프로세서인 Itanium(이타늄)에 채택했으나 성공하지 못했던 기술로, 하나의 명령어를 통해 여러 개의 명령어를 처리하도록 하는 방식임


이 방식은 범용 CPUVLIW를 채용할 경우 프로그램에 포함된 복수의 명령어를 병렬로 실행시키기 위한 컴파일러를 개발하는 것이 어려워 잘 작동하지 않았음


그런데 용도를 한정한다면 여러 명령어의 병렬 실행이 용이하게 될 수 있으며, 존 헤네시에 따르면 DSA에서는 VLIW에 의한 성능 향상이 실현될 수 있다고 함


그 밖에도 DSA에서는 높은 범용성을 목표로 하는 CPU에서는 채택하지 못했던 기술, 가령 부동소수점 연산의 정확도를 낮추는 대신 연산 횟수를 늘리는 등의 기술 적용이 가능한데, 실제 이 기술은 구글의 TPU와 화웨이의 Ascend 910 등 딥러닝용 DSA가 채택하고 있음


지금까지는 범용성이 높은 CPU의 성능 개선이 순조롭게 진행되어 왔기 때문에, 틈새시장 전용의 프로세서가 활약할 기회가 주어지지 않았지만, CPU의 성능 향상 방법이 막히면서 다양한 도메인에 다양한 DSA가 등장하게 될 것으로 존 헤네시는 전망하고 있음


실제로 딥러닝 이외 영역에서도 DSA가 등장하고 있는데, 베어풋 네트웍스(Barefoot Networks)SDN(소프트웨어 정의 네트워크) 전용 DSA‘Tofino(토피노)’를 개발하였음


네트워크 기기에서는 패킷 처리의 구조를 하드웨어 단으로 떨어뜨린 ASIC를 사용하는 것이 일반적이었으나, 2010년대에 들어서면서 패킷 처리를 소프트웨어를 통해 정의하는 ‘OpenFlow(오픈플로우)’와 같은 SDN 기술이 주목받게 되었음


SDN 기술에서 소프트웨어 처리는 지금까지 CPU가 담당해 왔으나, 베어풋 네트웍스는 토피노로 CPU를 대체하려 하고 있음


베어풋 네트웍스는 토피노가 초당 테라비트급 패킷 처리가 가능하고, CPU로 처리하는 데 비해 레이턴시(지연)500 분의 1 이하로 할 수 있다며, 토피노의 성능은 ASIC와 맞먹지만 ASIC과 달리 토피노는 프로그래밍을 통한 처리가 가능한 장점이 있다고 주장


서버 프로세서의 분야에서 시작된 혼전은 이제 CPU 사이의 싸움만이 아니며, CPUGPU, GPUDSA, DSACPU 등 서로 다른 아키텍처 간 경쟁으로 발전해 나갈 조짐을 보이고 있어, 앞으로 시장 전개 상황을 주시할 필요가 있음


※ 아래 글은 정보통신기술진흥센터(IITP)가 발간하는 주간기술동향 1799호(2017. 6. 7 발행)에 기고한 원고입니다.


▶ IITP에서 PDF 포맷으로 퍼블리싱한 파일을 첨부합니다. 가독성이 좋으니 참고하시기 바랍니다.

AI가 AI를 개발한다, 구글의 전사 인공지능 프로젝트 Google ai.pdf



[ 요 약 ]


작년 11인공지능 퍼스트(AI First) 기업을 선언했던 구글의 선다 피차이 CEO는 올해 구글 I/O 컨퍼런스에서 그간의 성과를 설명하며 인공지능을 구글의 모든 제품과 서비스의 기반으로 삼는다는 전략 하에 Googl.ai 프로젝트를 진행 중이라고 설명. Google.ai의 연구 테마에는 사람이 아닌 인공지능이 인공지능의 알고리즘을 설계하는 AutoML이 포함되어 있으며, 이 연구 성과를 바탕으로 구글의 제품을 개선하고 인공지능 연산 처리를 위한 새로운 데이터센터를 구축한다는 계획


[ 본 문 ]

ž구글은 최근 개최된 연례 개발자 컨퍼런스 ‘Google I/O 2017’에서, 전사 차원의 인공지능(AI) 전략으로 ‘Google.ai’ 프로젝트를 진행 중이라고 공개


Ø 작년 11월 제품 발표회에서 인공지능 최우선(AI First) 기업을 선언한 바 있는 선다 피차이 CEO는 올해 I/O 컨퍼런스 기조연설에서 전사 차원의 AI 전략을 실행 중에 있다고 밝히며 프로젝트의 세부사항에 대해 발표하였음  구글은 최근 개최된 연례 개발자 컨퍼런스 Google I/O 2017에서, 전사 차원의 인공지능(AI) 전략으로 Google.ai 프로젝트를 진행 중이라고 공개

<자료> Engadget


[그림 1] Goolge.ai를 발표하는 선다 피차이 CEO


Ø 현재 진행 중인 전사 프로젝트의 명칭은 Google.ai로 고도의 AI를 개발하고 이를 구글의 모든 제품과 서비스의 기반 기술로 삼는다는 전략을 구현한 것임


Ø 진행 중인 Google.ai 프로젝트는 「기초연구」, 「도구」, 「응용기술」의 세 분야로 구성되어 있는데, 기초 연구는 고도의 AI 기술의 개발을, 도구는 AI를 실행하는 프로세서 등에 기반한 AI 데이터 센터의 제공을, 응용기술은 AI를 통한 구글 서비스의 개선을 목표로 하고 있음


ž 「기초연구」 분야에서 구글이 주목하고 있는 연구 테마는 AutoML인데, 이는 AI AI를 생성하는 기술의 개발을 통해 알고리즘 개발 임무를 인간에서 AI로 이관하려는 것임


Ø AutoML은 기계학습(Machine Learning)을 자동 생성하는 연구, 다시 말해 알고리즘이 다른 알고리즘을 생성하는 기법을 개발하는 것으로 [그림 2]AI AI를 생성하는 것을 보여주는데, 왼쪽이 인간이 만든 AI 알고리즘이며 오른쪽은 그 AI가 만들어 낸 딥러닝 알고리즘임


Ø [그림 2]의 사례는 처리 결과를 다음 단계로 루프시키는 반복(Recurrent) 구조의 네트워크로 시간에 의존하는 언어처리 등에 따라 언어 처리 등에 사용될 수 있는데, 이 알고리즘에 한 단어를 입력하면 다음 단어를 예측해 줌


<자료> Google Research Blog


[그림 2] 사람과 인공지능이 설계한 기계학습 알고리즘 아키텍처 비교


Ø AI가 생성한 알고리즘 아키텍처를 보면 사람이 설계한 것과 동일한 특징을 공유하기도 하지만, 증식적인 조합을 구현하기 위해 새로운 엘리먼트를 구사하는 것처럼 주목할 만한 차이를 보이는데 이런 방식은 사람이라면 반복 구조의 네트워크에서 대개는 사용하지 않는 것임


Ø 보통 알고리즘의 개발 연구자의 경험과 감이 크게 작용하며, 기존에 확립된 기술을 기반으로 개선점을 찾아 새로운 모델을 생성하게 됨


Ø 반면 AI는 수 많은 알고리즘을 생성하고 이들의 실제 학습 수행 정도를 파악하는 방법, 즉 피드백을 바탕으로 정확한 알고리즘을 만드는 방법을 학습함


Ø 인간은 소위 정석이라 불리는 것들을 축적하지만, AI는 때로 사람이 생각하기에 상식을 뒤집는 방식을 생성하는데, 선다 피차이 CEO의 설명에 따르면 인간이 생성한 알고리즘보다 AI 생성한 알고리즘의 정밀도가 더 높다고 함


Ø AutoML는 구글의 딥러닝 AI 리서치 센터인 구글 브레인(Google Brain)에서 연구 중이며 AI가 최적의 네트워크 구성을 자동으로 설계하는 것을 목표로 하는데, 이는 딥러닝 알고리즘 설계의 임무를 연구원에서 AI로 이관시킴을 의미함


Ø 이는 어찌 보면 AI 연구자 자신도 AI의 진화로 인해 일자리를 잃게 됨을 의미하나, 현재는 AI 연구자의 수가 절대적으로 부족하기 때문에 AutoML은 인력 부족을 해소하는 수단이 되며, 구글은 AI로 대체 가능한 연구인력을 AI 클라우드 개발로 돌려 관련 사업을 강화한다는 계획임


ž 「도구」 분야와 관련해서는 대규모 연산을 위한 확장성에 초점을 맞춘 인공지능용 프로세서로 Cloud TPU를 발표하였음


Ø TPU(Tensor Processing Unit)는 기계학습 연산 전용 프로세서인데, 텐서(Tensor) Trillion Sensor의 합성어로 향후 전세계가 수조 개의 센서들을 연결될 것이란 뜻을 담고 있음


Ø Cloud TPU 2세대 TPU로서 대규모 연산을 위한 확장성을 중시한 설계로 되어 있으며, 성능은 180Tflops(테라플롭스)64GB의 고속 메모리를 탑재한다고 함


Ø 플롭스(FLOPS, FLoating point OPerations per Second)는 컴퓨터의 성능을 수치로 나타내는 단위로 1초 동안 수행할 수 있는 부동소수점 연산의 횟수를 의미하며, 테라플롭스는 1초에 1조 번(1012) 연산 처리가 가능하다는 뜻


Ø 64개의 Cloud TPU가 보드에 탑재되면 TPU 파드(Pods)를 구성하게 되는데, 파드의 최대 성능은 11.5 Pflops(페타플롭스, 테라플롭스의 1천 배)로 이는 수퍼 컴퓨터 수준의 성능임



<자료> Engadget


[그림 3] 인공지능용 프로세서 Cloud TPU() AI 퍼스트 데이터센터(아래)


Ø TPU 파드는 랙에 탑재되어 구글 연산 엔진(Google Compute Engine)으로 제공될 것이며, 구글은 Cloud TPU를 이용한 AI 처리 전용 데이터 센터를 구축할 계획인데, 이를 AI 최우선 데이터센터(AI First Datacenter)라 부르고 있음


Ø Cloud TPU 발표와 동시에 구글은 텐서플로우 리서치 클라우드(TensorFlow Research Cloud)를 발표했는데, 이는 Cloud TPU 1천 개 연결한 연구자들을 위한 클라우드 서비스로 고도의 AI 기술 개발을 위해 무상으로 제공한다고 함


ž 「응용기술」 분야와 관련해서는 인공지능을 카메라에 응용한 신제품 구글 렌즈(Google Lens)를 적용 사례로 소개하였음


Ø 구글 렌즈는 카메라의 렌즈를 AI로 구성한다는 아이디어로, 카메라의 기능과 성능을 AI 소프트웨어가 결정한다는 뜻이며, 사진 촬영을 시작하면 카메라가 AI를 이용해 이미지를 재구성함


<자료> Google.ai


[그림 4] 카메라에 AI를 결합한 구글 렌즈


Ø 가령 [그림 4]처럼 야간 촬영 시 이미지에 노이즈가 있을 경우 AI가 이를 보정하는데, 셔터를 누르면 카메라가 자동으로 여러 차례(16, 32회 등) 빛에 노출시킨 후 노이즈를 제거하는 것을 반복하게 됨


Ø 또한 철조망 뒤에서 사진을 찍을 경우 AI가 자동으로 철조망을 제거하는 이미지 인페인팅(Image Inpainting) 기능도 갖추고 있음


Ø 구글 렌즈는 카메라에 비친 객체를 판정하는 기능이 있어, 가령 꽃 촬영에 구글 렌즈 기능을 선택하면 꽃의 종류가 무엇인지를 식별하고, 길거리 상점을 촬영하면 그 간판의 이름을 인식한 후 관련된 정보를 함께 표시해 줌


Ø 즉 카메라가 이미지 검색의 입력 장치가 되는 것으로 이는 구글 고글(Google Goggles) 등에서 이미 제공되는 기능이지만, AI를 이용하여 그 기능성과 인식 정확도를 향상시켰음


ž 드러나 보이지 않는 곳에서 AI를 이용해 구글의 서비스를 폭넓게 지원하는 응용 사례로는 구글 지도와 지메일을 소개하였음


Ø 카메라의 이미지 인식 기능을 AI와 접목하는 기술은 구글 스트리트 뷰(Street View)와 구글 지도(Google Maps)에도 적용되어 활용되고 있음


Ø 스트리트 뷰는 촬영된 이미지에서 건물에 부착되어 있는 숫자를 읽어 식별할 수 있었는데, 지금은 AI가 숫자뿐만 아니라 거리의 이름도 읽어 정확히 위치를 파악할 수 있음


Ø 표지판이 선명하게 찍혀 있지 않은 경우라도 샘플이 네 장 AI가 정확하게 판정할 수 있다고 하는데, 구글은 이 기술을 스트리트 뷰로 촬영한 800억 장의 이미지에 적용하여 위치를 파악하고 있기 때문에 구글 지도의 정확도를 크게 향상시켰다고 함


Ø 이미지 인식 기능의 활용은 와이파이 접속에도 이용할 수 있는데, 스마트폰으로 와이파이 네트워크 이름과 패스워드를 스캔하면 자동으로 와이파이에 연결하도록 도와줄 수 있음


Ø 스마트 회신(Smart Reply) 기능이 탑재된 지메일 역시 AI의 지원으로 구글 서비스 편의성을 강화한 대표적 사례인데, AI는 수신한 메일의 제목과 내용을 파악하여 이용자를 대신해 최적의 회신 문장을 생성한 다음 이용자에게 제시함


Ø 이용자는 AI가 제시한 세 개의 회신 문장 중에서 가장 낫다고 생각하는 하나를 클릭하는 것만으로 메일 회신을 할 수 있는데, 스마트 회신 기능이 등장한 지는 1년이 넘었으며 지금은 다소 복잡한 내용의 메일에도 회신 문장을 생성할 수 있는 수준이 되었음




<자료> Engadget


[그림 5] 인공지능 활용한 이미지 인식 기능 개선()과 이메일 자동 회신(아래)


Ø 이처럼 인공지능은 겉으로 드러나게 또는 드러나지 않게 기능성 향상에 기여하고 있으며, 구글은 이번 개발자 컨퍼런스에서 향후 자신들의 모든 제품과 서비스에 AI를 적용해 개선시키겠다는 목표를 밝힌 것임


ž 「응용기술」 분야와 관련해서 또 하나 주목할 것은 구글이 AI를 의료 분야에 적용할 계획임을 명시했다는 것으로, 향후 IBM 및 애플과 치열한 기술 경쟁을 예고하고 있음


Ø 구글은 이미 AI를 사용하여 당뇨 망막증(Diabetic Retinopathy) 판정 시스템을 발표한 바 있는데, 이 병은 당뇨 합병 질환으로 실명 위기까지 이어질 가능성이 높은 것으로 알려져 있어, 정확한 판정 시스템의 개발은 질병의 조기 발견과 치료에 상당한 기여를 할 것으로 기대되고 있음


Ø 구글에 따르면 AI는 이미 의사보다 높은 정확도로 당뇨 망막증 진환을 감지해 내는 데 성공했으며, AI를 의료 이미징에 활용할 수 있다는 것이 증명되자 구글은 자회사 딥마인드(DeepMind) 함께 의료 분야에서 AI 연구 개발을 중점적으로 추진하고 있음


<자료> Google


[그림 6] AI를 이용한 의료 이미지 판독


Ø 구글이 개발한 이미지 인식 알고리즘인 구글 인셉션(Google Inception)은 세계 최고 수준의 성능으로 평가받고 있는데, 구글은 누구나 자유롭게 이 소프트웨어를 이용하여 진단 및 치료 솔루션을 개발할 수 있도록 공개하고 있음


Ø 가령 구글 인셉션 소프트웨어를 피부암의 판정에 응용하면 전문의보다 정확하게 질병을 판정 할 수 있는 것으로. 나타났는데, 특별한 알고리즘이 필요하지 않아 암 탐지 시스템의 개발 문턱이 극적으로 낮아졌기 때문에 이미 피부암 판정 스마트폰 앱까지 등장하고 있는 상황


Ø IBM 왓슨의 선도적 비즈니스가 성과를 거두며 의료 분야에서 AI 활용에 대한 평가와 전망은 매우 긍정적인데, 구글과 기술 경쟁, AI 기반 의료 기술의 공개화 등 흐름과 맞물린다면, 의료 분야에서 AI 기반의 혁신 사례는 잇따라 등장할 것으로 예상됨


ž 구글은 자신들의 모든 영역에 AI를 적용하고자 하는 AI 최우선 기업으로서 그 성과를 어필했지만 이제 시작일 뿐이며, 시장 지향 AI를 향한 본격적 행보 선언에 그 의의가 있음


Ø 구글은 인공지능 퍼스트를 모토로 내세운 기업으로 그간의 연구개발 성과와 응용사례를 소개했지만, 이번 연례 개발자 컨퍼런스에서 새로운 비전을 제시하는 놀라운 기술과 제품은 등장하지 않았다는 평가가 지배적


Ø 구글 렌즈 등의 기능도 이미 일부 활용되고 있는 기술이고, AI를 음성 인식에 응용해 고급 자연언어처리 접목한 인공지능 스피커 '구글 홈이나 가상 비서 구글 어시스턴트도 이미 소개된 기술일뿐더러 이 분야에서는 오히려 아마존 에코와 알렉사가 시장을 선점하고 있는 상황임


Ø 이는 세계 최고 수준의 AI 기술을 보유하고 있는 구글이지만, 의료와 같은 특수 분야를 차치하고 나면 일상적으로 소비자들이 AI의 혜택을 느낄 수 있는 제품과 서비스를 개발한다는 것은 쉽지 않은 일이라는 것을 보여주는 대목


Ø 기술 특이점(singularity) 접근 전망과 함께 하루가 다르게 고도화되어 가고 있는 AI를 어떻게 제품과 서비스에 연결시킬 것인가에 대한 질문도 계속해서 나오고 있으며, 이에 대한 대답을 내놓는 것은 구글뿐 아니라 IT 업계가 공통으로 안고 있는 과제일 것임


Ø 그러나 어쩌면 소비자의 욕구와 잠재 욕망을 자극할 수 있는 AI 기반 제품과 서비스의 개발 역시 사람이 아닌 인공지능 스스로가 만들어 낼 지도 모를 일이며, 그런 면에서 AI AI를 만든다는 모토를 제시하고 있는 구글이 접근방식에서는 유리한 상황이라 할 수 있겠음