※ 아래 글은 정보통신기술진흥센터(IITP)가 발간하는 주간기술동향 1833호(2018. 2. 14. 발행)에 기고한 원고입니다.


▶ IITP에서 PDF 포맷으로 퍼블리싱한 파일을 첨부합니다. 가독성이 좋으니 참고하시기 바랍니다.

AI로 AI를 개발하는 기술의 진전, 성당에서 시장으로 나오는 AI.pdf



[ 요 약 ]


현재의 범용 신경망이 제공하는 기능이 불충분하다고 느낄 경우 특정 용도의 고도 신경망을 개발할 필요성이 대두되나신경망을 새롭게 최적화하는 작업을 수행할 수 있는 AI 연구자는 극소수이고 개발 기간도 오래 걸리는 문제가 있음최근 구글은 사람이 아닌 AI가 신경망 고도화 작업을 수행하도록 하는 기술을 클라우드 서비스 형태로 공개하였는데누구나 쉽게 특정 용도의 AI를 개발할 수 있게 됨에 따라 더욱 혁신적인 AI가 출현할 가능성이 높아지고 있음


[ 본 문 ] 


ž 미국의 오크 릿지 국립 연구소(Oak Ridge National Laboratory)는 기존 범용 신경망을 이용한 연구에 한계가 있음을 느끼고 과학 연구 전용의 고도 신경망 개발에 나서게 있음

Ø 오크 릿지 연구소는 미국 에너지부 산하 기관으로 과학의 수수께끼 규명을 목표로 하고 있는데, 세계 최고 수준의 수퍼 컴퓨터인 타이탄(Titan)을 운용하는 곳으로도 유명함



<자료> Wikimedia Commons

[그림 1] 수퍼 컴퓨터 타이탄


Ø 타이탄은 크레이(Cray) 사가 개발했으며, 18,688개 노드로 구성된 병렬 머신으로 각 노드에 CPU(AMD 옵테론) GPU(엔비디아 케플러)를 탑재한 세계 최대 규모의 수퍼 컴퓨터임


Ø 이 연구소는 몇 년 전부터 최근 급속히 발전한 이미지 인식과 음성 인식 신경망을 이용한 연구를 진행해 왔으나, 상용화된 범용 신경망을 기초과학 연구에 적용한 결과 기대한 만큼의 성과는 얻을 수 없었다고 함


Ø 그 이유는 과학 연구에서 다루는 데이터의 특수성과 신경망 교육에 사용할 수 있는 데이터의 수가 제한되어 있기 때문이었으며, 따라서 오크 리지 연구소는 과학 연구를 위한 전용 신경망 개발의 필요성에 직면하게 되었음


Ø 이에 따라 오크 릿지 연구소는 타이탄을 이용해 과학 연구에 적합한 고정밀 신경망을 개발하게 되었으며, 현재 이를 활용해 물질과학 및 입자 물리학의 연구를 진행하고 있음


ž 오크 릿지 연구소가 과학 전용의 신경망 개발에 있어 수퍼 컴퓨터를 이용한 부분은 신경망 최적화 단계로, 이전까지 인간이 담당하던 작업을 AI를 이용해 실행한 것이 특징


Ø 연구진은 특정 데이터 세트에 대해 최적의 신경망이 존재한다는 전제에서 그 구조를 탐구 해 왔는데, 이 연구는 소위 하이퍼 파라미터 최적화(Hyper-Parameter Optimization, HPO)의 문제로 귀결됨


Ø 하이퍼 파라미터는 신경망의 기본 모델, 즉 신경망 각층의 종류와 그 순서, 네트워크의 층수 등을 의미하며, HPO는 이들 기본 요소를 조합하여 네트워크를 최적화하는 작업임


Ø 달리 표현하면, 대부분의 기계학습 알고리즘에서는 연구자들이 지정해 두어야 할 설정들이 많은데 이런 다양한 튜닝 옵션들을 하이퍼 파라미터라 부르며, 성능을 최적화하거나 편향과 분산 사이의 균형을 맞출 때 알고리즘을 조절하기 위해 HPO를 수행함


Ø 성능 최적화를 위해 하이퍼 파라미터를 튜닝 하는 것은 연구자들 사이에서는 예술이라 불릴 만큼 어렵고 정교한 작업이며, 어떤 데이터 세트에서 최고의 성능을 보장하는 쉽고 빠른 튜닝 작업 방법은 없는 것으로 알려져 있음


<자료> IBM

[그림 2] 하이퍼 파라미터 최적화


Ø 하이퍼 파라미터 최적화는 기존 딥러닝 소프트웨어(Caffe, Torch, Theano )를 사용하여 수작업으로 실시되며, 표준 소프트웨어를 개조하여 신경망 각 층의 종류와 순서, 네트워크 층수 등 신경망의 토폴로지(망 구성)를 결정하게 됨



Ø 그 다음으로는 생성된 신경망을 교육하고 그 성능을 검증하는데, 이 과정을 여러 번 반복하여 최적의 신경망의 형태를 얻게 되며, 이 과정은 연구자가 경험과 감에 전적으로 의존하여 진행되기 때문에 통상 새로운 신경망을 생성하는 데 몇 달씩 소요되기도 함


Ø 그런데 오크 릿지 연구소는 이 튜닝 작업을 AI로 설계하고 이를 수퍼 컴퓨터로 실행함으로써 큰 ​​성과를 올렸는데, 즉 특정 연구에 최적화 된 신경망을 연구자의 수작업이 아니라 AI로 생성시킨 것


Ø 이 방식을 통해 오크 릿지 연구소는 과학연구 전용 신경망을 단 몇 시간 만에 생성하는 데 성공했으며, 이렇게 AI가 만든 신경망이 현재 중성미립자(Neutrino) 연구에 크게 기여하고 있다고 함


ž 오크 릿지 연구소가 신경망 생성에 이용한 AI MENNDL(Multinode Evolutionary Neural Networks for Deep Learning)이라 부르는데, 생물이 진화하는 방식을 모방한 것이라고 함


Ø 사람이 HPO를 하는 것과 마찬가지로, MENNDL 우선 특정 데이터 세트, 가령 중성미립자 실험 데이터의 처리에 특화된 신경망을 생성한 다음 신경망을 교육시키고 그 성능을 평가하며, 그 평가 결과에 따라 신경망 구조를 변화시킴으로써 성능 향상을 도모함


Ø 이 과정을 반복하여 고급 신경망을 생성하게 되는데, 이 기법은 생물의 DNA가 배합과 변이를 반복하며 진화하는 방식을 모방하고 있기 때문에 진화적 알고리즘(Evolutionary Algorithm)이라 불림


<자료> Oak Ridge National Laboratory


[그림 3] MENNDL의 진화적 알고리즘


Ø MENNDL은 생성된 신경망의 교육과 성능 평가를 타이탄 수퍼 컴퓨터의 노드를 이용해 수행하는데, 마스터(master) 노드에서 진화의 프로세스를 실행해 신경망을 생성하면, 워커(worker) 노드는 생성된 네트워크를 교육하고 그 성능을 평가하게 됨


Ø 딥러닝 알고리즘을 포함하고 있는 수정 가능한 소프트웨어 프레임워크로는 카페(caffe) 를 사용하여 워커 노드에서 대규모 병렬 실행을 하며, 마스터 노드와 워커 노드 사이의 통신은 Message Passing Interface라는 프로토콜을 사용하고 있음


ž MENNDL을 활용하고 있는 것은 오크 릿지 연구소뿐 만이 아니며, 현재 여러 연구기관에서 의료 연구나 우주 탄생 연구 등에 적합한 신경망 생성에 활용하고 있음


Ø 소아암 연구로 유명한 세인트 주드 소아 병원(St. Jude Children 's Research Hospital)MENNDL을 이용해 생성한 신경망을 의료 연구에 사용하고 있는데, 3D 전자 현미경으로 촬영한 이미지에서 미토콘드리아를 식별하는 신경망을 생성하였음


Ø 미토콘드리아는 발견할 수 있기는 하지만 존재하는 위치가 다양하며 모양과 크기가 달라 사람이 식별하기는 어렵기 때문에, 세인트 주드 병원은 MENNDL을 이용해 미토콘드리아를 식별하기 위한 의료 전용 신경망을 생성한 것임


Ø 페르미 국립 가속기 연구소(Fermi National Accelerator Laboratory) 역시 MENNDL을 이용해 중성미립자 검출을 위한 전용 신경망을 생성하였음


<자료> Fermi National Accelerator Laboratory


[그림 4] 페르미 연구소의 뉴트리노 관측기기


Ø 중성미립자는 입자 중에서 페르미온(Fermion)으로 분류되면 질량은 매우 작고 다른 입자와 상호 작용이 거의 없으며 투과성이 높아서 감지해 내기가 매우 어려움


Ø 중성미립자 연구는 초기 우주의 규명과 물질 구조의 규명으로 이어질 것으로 기대되어 각국에서 경쟁적으로 연구가 진행되고 있는 분야임


Ø 페르미 연구소는 관측 장치를 개발해 중성미립자를 대량으로 생성한 후 그 상호작용을 연구하고 있는데, 중성미립자 검출에 특화된 구조를 가진 신경망을 이용하고 있음


Ø 신경망은 관측 사진을 분석해 중성미립자가 장치 내 어디에서 상호작용을 일으킨 것인지를 정확히 파악하는데, 사진에는 다른 입자들이 일으킨 상호작용도 무수히 기록되기 때문에 일반적인 신경망을 통해 중성미립자를 골라 내는 것은 매우 어려운 일이었음


Ø 그러나 MENNDL을 통해 전용 신경망을 만들 수 있게 됨에 따라, 아주 드물게 발생하는 중성미립자의 상호 작용을 정밀하게 식별할 수 있게 된 것임


Ø 페르미 연구소에서는 MENNDL 50만 종류의 신경망을 생성하고 이를 교육한 후 성능을 평가했는데, 교육 데이터로 중성미립자의 상호작용을 기록한 이미지 80만 장을 사용했으며, 평가를 통해 가장 판정이 정확한 신경망을 선정해 연구에 활용하고 있음


Ø 이러한 일련의 과정은 오크 릿지 연구소의 경우와 마찬가지로 타이탄의 18,688개 노드에서 병렬로 실행되었는데, 과학 전용 신경망의 개발과 이를 이용한 과학 연구는 AI 수퍼 컴퓨터의 도입으로 비로소 가능해졌다고도 볼 수 있음


ž 한편 특정 용도의 신경망을 AI로 생성하는 것이 수퍼 컴퓨터 이용이 가능한 대형 연구소에서만 가능한 것은 아니며 일반 기업도 가능해졌는데 여기에는 구글이 기여한 바가 큼


Ø 구글은 이미 AI를 이용해 고급 기계학습 알고리즘을 생성하는 오토(Auto)ML 기술을 사내 에서 자체적으로 이용하고 있었는데, 최근 이 기술을 클라우드 오토ML이라는 클라우드 서비스 형태로 공개하였음


Ø 오크 릿지 연구소의 전용 AI 개발은 세계 최고급의 수퍼 컴퓨터가 있기에 가능한 측면이 있었고, 그러한 고도의 컴퓨팅 자원을 보통의 기업이 갖추기는 현실적으로 어려운 것인데, 구글이 클라우드 오토ML을 공개함에 따라 전용 AI 개발에 대한 접근성이 높아진 것임


Ø 구글이 오토ML을 개발하고 또 공개한 이유는 오크 릿지 연구소의 경우와 동일한데, 일반 AI가 다양한 기능이 있기는 하지만 고급 판정 능력이 필요한 특정 업무에는 사용할 수 없어 전용 AI를 개발해야 하며, 이 작업을 할 수 있는 AI 연구자는 극소수이기 때문


Ø 아마존이나 마이크로소프트와 마찬가지로도 이미 구글은 클라우드 ML 엔진이라는 서비스를 통해 일반 AI를 클라우드로 제공하고 있었으며, 이 서비스를 이용하는 기업들은 구글이 제공하는 클라우드 비전 API를 통해 이미지 인식 처리를 실행할 수 있음


Ø 클라우드 비전 API를 이용하며 쉽게 사진을 분류할 수 있는데, 가령 하늘의 구름 사진을 입력하면 시스템은 skycloud라고 정확히 분석 결과를 보여주며, 인물 사진을 입력하면 사람의 얼굴 형태임을 인지하고 그 표정을 분류하는 기능도 제공하고 있음


Ø 그러나 기상 전문가들에게는 이러한 클라우드 비전 API를 이용한 이미지 판정 기능이 충분하지 않은데, skycloud 정도만을 판정하는 기능으로는 권운(cirrus), 권적운(Cumulus humilis) 등과 같이 구름의 종류를 판정할 수 없기 때문


<자료> Gigazine


[그림 5] 기상 전용 AI의 구름 유형 식별


Ø 따라서 구름의 종류를 판별 할 수 있는 기계학습 알고리즘을 개발하는 것이 요구되지만, 이 작업을 할 수 있는 연구자의 수는 많지 않으며 개발 작업에도 많은 기간이 소요되는 문제점이 있었으며, 이러한 수요에 부응해 구글이 내놓은 것이 클라우드 오토ML


Ø 클라우드 오토ML을 이용하면 AI가 연구자 대신 전용 AI를 짧은 시간 안에 개발해 주기 때문에, 기상 전문가들은 구름의 종류를 판정 할 수 있는 기계학습 알고리즘을 클라우드 오토ML을 이용해 자동으로 생성할 수 있음


ž 구글에 따르면 클라우드 오토ML로 생성한 알고리즘의 인식률은 일반적인 신경망보다 정확도가 높아 활용가치가 더 높으며, 이미 다양한 분야에서 성공 사례가 나오고 있음


Ø 오토ML을 이용하면 우선 신경망 개발 기간을 크게 단축 할 수 있는 것이 장점으로, 파일럿 모델이라면 몇 분 안에 가능하고 프로덕션 모델이라도 하루 정도면 개발이 가능한데, 이렇게 금세 만든 신경망이라도 인식률은 기존 일반 AI보다 높다고 함


Ø 구글은 클라우드 오토ML을 비즈니스에 응용한 사례도 공개하고 있는데, 패션 브랜드인 어번 아웃피터(Urban Outfitters)는 상품에 태그를 붙이는 과정을 클라우드 오토ML 서비스를 이용해 자동화하고 있음



Ø 어번 아웃피터는 상품에 부여된 태그를 키 값으로 사용해 소비자들에게 제품을 추천하고 있으며, 상품 검색과 제품 필터링에서도 태그가 사용하는데, 이 태깅 작업에 클라우드 오토ML 을 이용해 상품 이미지를 분석하고 제품의 특징량을 추출하고 있음


Ø 가령 옷을 분류할 때 클라우드 오토ML로 만든 알고리즘은 가슴 부위의 형태에 따라 상품을 V-, 스쿱(Scoop) , 크루(Crew) 등으로 판정하는데, 이는 알고리즘이 디자인 패턴과 목선 등을 키 값으로 태그를 생성할 수 있기 때문


<자료> Google Cloud Platform

[그림 6] 어번 아웃피터의 패션 전용 AI


Ø 동물의 생태를 보호하는 활동을 전개하고 있는 국제 환경보호단체 Zoological Society of London(ZSL) 역시 클라우드 오토ML을 적극 활용하고 있음


Ø 이 단체는 동물의 생태를 이해하기 위해 서식지에 카메라를 설치하고 동물의 행동을 관찰하고 있는데, 범용 알고리즘이 사진을 보고 동물의 종류를 정확히 판정할 수 없기 때문에 사람이 이 과정에 관여하다 보니 태기 작업에 통상 9개월이 소요되었음


Ø 9개월이 지나고 나면 이미 야생동물의 이동이 크게 이루어지고 난 다음이기 때문에 보호 전략을 세워봐야 무용지물인 경우가 많았고, 밀렵꾼에 대한 대응도 뒷북이기 일쑤였는데, ZSL은 이 과정을 클라우드 오토ML을 이용해 자동화함으로써 문제를 해결하였음


Ø 9개월이 걸리던 태깅 작업을 순식간에, 또한 정확하게 처리할 수 있게 됨에 따라 ZSL은은 효과적인 동물보호 활동을 되었으며, 운영 비용 또한 크게 낮출 수 있게 되었는데, 단체 내에 AI 전문가 없이도 클라우드 오토ML 이용을 통해 이 모든 것이 가능하게 된 것임



ž AI를 만드는 AI의 이용 접근성이 높아짐에 따라 올해는 특정 업무 전용의 고급 AI 개발이 급증할 것으로 예상되며, AI의 개발의 대중화로 획기적인 AI가 출현할 가능성이 높음


Ø 에릭 레이먼드는 1997성당과 시장이란 글을 통해 중세시대 소수 성직자들이 지식을 독점한 것처럼 소수의 프로그래머들 소스코드를 독점해 프로그램을 개발하는 데서 벗어나 시장처럼 여러 사람이 모여 오픈소스로 공동 개발하는 것이 더 우월함을 주장한 바 있음


<자료> Network World

[그림 7] AI의 민주화


Ø 구글은 클라우드 오토ML 서비스를 공개하며 AI의 민주화를 기치로 내걸었는데, 여기에는 누구나 고도의 AI를 용이하게 개발할 수 있는 환경을 제공함으로써 소수가 개발할 때보다 훨씬 획기적인 AI가 개발되는 환경을 조성하겠다는 의미가 내포되어 있음


Ø 물론 구글의 클라우드 오토ML 서비스는 이제 막 시작된 것이고, 현재는 이미지 인식(Convolutional Neural Network) 관련 AI만 개발할 수 있는 한계가 있어 클라우드 오토ML을 통해 만든 신경망이 필요한 수준의 기능을 제공해주지 못할 수 있음


Ø 그러나 향후에는 음성 인식(Recurrent Neural Network) 관련 AI를 개발할 수 있는 기능도 제공될 것으로 예상되며, AI를 개발하는 AI의 기술이 발전할수록 클라우드 오토ML로 생성하는 신경망은 보다 고도화되며 동시에 보다 만들기 쉬워질 것임


Ø 그 시점이 도래한다면 AI의 민주화라는 구글의 비전이 현실화될 수 있을 것이며, 현재의 모바일 앱 개발처럼 수 많은 사람이 AI의 개발과 교육에 직접 참여하고 협업하는 과정에서 AI는 질적 도약을 이뤄낼 수 있을 것임


Ø 누구나 자신에게 필요한 AI를 누구나 개발할 수 있는 환경이 도래함에 따라 올해는 업무에 특화된 AI 알고리즘 개발이 확산될 것으로 예상되며, 더 나은 AI가 개발되고 확산되는 과정을 통해 인공지능은 우리 삶에 보다 급격히 접목되어 나갈 수 있을 것임

※ 아래 글은 정보통신기술진흥센터(IITP)가 발간하는 주간기술동향 1823호(2017. 11. 22. 발행)에 기고한 원고입니다.


▶ IITP에서 PDF 포맷으로 퍼블리싱한 파일을 첨부합니다. 가독성이 좋으니 참고하시기 바랍니다.

현실 같은 가짜를 상상으로 만들어 내는 새로운 인공지능 &lsquo;GAN&rsquo;.pdf



[ 요 약 ]


엔비디아의 연구팀은 신경망이 유명 연예인(celebrity, 셀럽)의 이미지를 생성하는 기술을 공개했는데생성된 이미지는 실제 인물에 기반을 둔 것이 아니라 인공지능(AI)이 유명인의 개념을 이해하고 상상으로 그린 ​​것이며유명인 이외에도 모든 객체의 개념을 이해한 후 사람의 개입 없이 AI가 실제와 똑같이 그려낼 수 있음을 보여주었음생성적 대립쌍 신경망(Generative Adversarial Network, GAN)이라 불리는 이 기술은 2014년 처음 등장한 이래 가장 주목 받는 AI 연구 주제로 부상하였음



[ 본 문 ] 


ž 최근 인공지능(AI) 컴퓨팅 분야 연구에 적극 나서고 있는 엔비디아(Nvidia)GTC 유럽 2017 컨퍼런스에서 딥러닝 기반 응용프로그램 빈센트(Vincent) AI의 공개 시연을 진행


Ø 빈센트 AI는 이용자가 스타일러스 입력 펜을 사용해 간단히 스케치한 그림을 실시간으로 유화나 네온 색상의 팝아트 등 7가지 예술작품 스타일로 변환시켜 주는 응용프로그램으로 캠브리지 컨설턴트(Cambridge Consultants)라는 기업이 엔비디아 기술을 이용해 제작한 것임


<자료> NVIDA


[그림 1] 빈센트 AI로 변환시킨 스케치


Ø 엔비디아의 젠슨 황 CEO는 기조연설 도중 무대에서 내려와 스타일러스를 직접 들고 엔비디아 로고와 사람의 얼굴을 그렸으며, 이것이 실시간으로 피카소 풍의 그림으로 변환되자 컨퍼런스에 참석한 청중들의 박수가 터져 나왔음.


Ø 캠브리지 컨설턴트의 AI 연구소인 디지털 그린하우스(Digital Greenhouse)에서 5명으로 구성된 연구팀은 두 달 만에 빈센트 AI의 데모를 구현할 수 있었는데, 이번 데모는 엔비디아의 딥러닝 전용 수퍼컴퓨터인 DGX 시스템에서 트레이닝을 거쳐 구현되었음


Ø 기존의 딥러닝 알고리즘이 방대한 양의 데이터를 소화할 수 있게 됨으로써 놀라운 성과를 달성했다며, 빈센트 AI에 적용된 인공지능 기법은 두 개의 신경망을 이용해 이전에 비해 훨씬 더 적은 표본으로도 응용프로그램을 생성할 수 있었다는 점에서 주목받고 있음


Ø 엔비디아 측에 따르면, 알파고의 등장에 많은 바둑 기사들이 호응을 보인 것처럼 의외로 많은 예술가들이 빈센트 AI 에 상당한 호감을 보이고 있으며, 빈센트 AI를 통해 예술이 무엇인지, 예술에 대한 자신들의 지식이 어느 정도인지 알게 될 것이라 기대하고 있다고 함


ž 빈센트 AI의 놀라운 이미지 전환 기술 뒤에는 정밀한 튜닝 작업을 거친 GAN(Generative Adversarial Network), 생성적 대립쌍 신경망이라는 최신 AI 기술이 자리하고 있음


Ø 비영리 인공지능 연구단체인 오픈AI의 컴퓨터 과학자인 이언 굿펠로우가 창안한 (GAN) 기술은 최근 인공지능 기반 이미지 전환기술로 크게 각광받고 있으며, 굿펠로우는 연구 논문 발표 후 구글의 인공지능 연구부서인 구글 브레인으로 자리를 옮겨 연구를 지속하고 있음


Ø 이언 굿펠로우에 의해 2014년에 처음 등장한 이 기법과 관련한 논문 수가 기하급수적으로 증가해서 최근에는 190편 이상이 학계에 보고되고 있는데, 페이스북의 AI 연구를 이끌고 있는 얀 르쿤 교수는 갠(GAN)을 가장 중요한 기술로 꼽고 있음


Ø 갠 신경망은 대립쌍을 이루는(Adversarial) 두 개의 네트워크를 만들고, 상호 대립 과정에서 훈련 목표를 자동으로 생성하도록 학습시키는 모델임


Ø 통상 기계학습이 사람이 태그를 달아주는 방식으로 학습결과가 맞았는지 확인해주는 데 반해 갠 기법은 사람의 개입 없이 컴퓨터가 스스로 목표 이미지와 비교해서 생성한 이미지를 반복해서 평가하고 수정하는 과정 속에서 데이터 자체에서 지식을 얻는 비지도 학습형 알고리즘임



Ø 최근 이미지 구별이나 음성 인식 등에 활용되는 인공지능 기술인 CNN이나 RNN지도 학습형 알고리즘으로 이미지나 음성을 구별하고 인식할 뿐 만들어 내지는 못하는데, GAN은 생성 모델을 통해 직접 이미지와 음성을 만들어 낸다는 것이 큰 차이점임


Ø 엔비디아의 연구팀이 개발한 기술 역시 GAN을 이용한 것으로, 엔비디아는 논문을 통해 신경망이 유명인(celebrity, 셀럽)의 이미지를 자동으로 생성하는 기술을 공개했는데, 이 이미지는 실제 사람이 아닌 AI유명인이라는 개념을 이해하고 상상으로 생성해 낸 것임


<자료> Karras et al.


[그림 2] GAN이 생성한 유명인 이미지


Ø GAN으로 그린 가상의 유명인은 어디선가 본 듯한 것처럼 보이지만 실존 인물은 아니며, 구글에서 이미지 검색을 해도 해당 인물이 발견되지는 않는데, 한마디로 GAN은 진짜 같은 가짜를 생성해 내는 기술이라고도 할 수 있음


Ø 엔비디아가 발표한 논문은 GAN이 유명 연예인 외에도 침실, 화분, , 소파, 버스 등의 객체를 AI가 개념만 듣고 현실과 똑같이 그려낼 수 있음을 보여주고 있음


ž 생성적 대립쌍이라는 명칭이 붙은 이유는, GAN이 서로 경쟁하는 두 개의 신경망(dueling neural network) 구조를 통해 성능을 개선하고 딥러닝 모델을 진화시키기 때문


Ø GAN의 구조는 일반적으로 감식자(Discriminator)생성자(Generator)라는 두 개 층의 신경망으로 구성되는데, 양 측이 서로 충돌하면서 발생하는 차이점을 수정해 나가며 궁극의 균형점, 즉 진짜 같은 가짜의 생성에 이르게 됨



Ø 생성 네트워크는 진짜와 똑 같은 가짜 이미지를 생성하는 역할을 담당하는데, 생성자에 노이즈(랜덤 신호)가 입력되면 이를 토대로 가짜 이미지를 생성함


Ø 감식자는 입력된 데이터가 진짜인지 가짜인지를 판정하는데, 생성자가 만들어 낸 가짜(Fake) 이미지와 샘플 데이터세트에서 추출된 실제(Real) 이미지가 감식자에 입력되면 Fake 또는 Real 여부를 판정하게 됨


Ø 이 방식은 게임이론 중 내쉬 균형(Nash Equilibrium), 즉 합리적 판단을 하는 상호 간의 게임이론에 따라 수학적으로 균형점을 찾는다는 이론이 적용된 것임


Ø 한 마디로 GAN은 생성자와 감식자가 대치하며, 매우 성공적인 가짜를 생성해내는 인공지능 기술이라 정의할 수 있음


<자료> Anton Karazeev


[그림 3] 대립쌍을 이루는 GAN의 작동 프로세스


ž GAN의 개념을 주창한 이언 굿펠로우는 대립쌍을 설명하면서 생성자와 감식자의 관계를 위조 지폐범과 경찰의 대결로 비유하였음


Ø 화폐 위조범(생성자 G)이 새로운 위폐를 만들어내면 경찰이나 은행원(감식자 D)은 이를 간파해야 하고, 위조범들이 이를 피하기 위해 더 그럴 듯한 위조 지폐를 만들면 경찰관들도 동시에 감식 기술을 향상시키는데, 이 과정을 통해 위조 화폐가 더욱 정교해진다는 것


Ø 즉 위폐범의 위조 기술과 경찰의 감식 기술이 서로를 자극하면서 발전을 거듭하면, 결국 위조화폐는 진짜 화폐와 같은 수준의 내쉬 균형점에 이르게 된다는 것으로, 현실에서는 감식자가 위폐범을 이겨야 하나 GAN에서는 위폐범의 승리가 목표임


Ø 이언 굿펠로우는 대립쌍을 설명하면서 수학 같이 명확한 답이 없지만 확률적으로 목표와 근사한 지를 끊임없이 확인하면서 이미지를 변환해 가면 결국엔 위폐일 확률과 진짜일 화폐일 확률이 각기 0.5가 된다고 표현하였음


Ø 인간과 AI가 대결과 공존을 해야 하는 시대에 인간이 우위를 점할 수 있는 영역으로 흔히 창의성과 예술 분야가 거론되지만, 알파고 등장에서 보듯 현실은 창의성에서도 AI의 우월성이 드러나는데, 위폐범의 승리를 목표로 하는 GAN 같은 기술의 등장이 그 원인이라 할 수 있음


ž 이처럼 GAN은 매우 성공적인 가짜를 생성할 수 있으나 기술적으로 몇 가지 과제가 있었는데, 엔비디아는 특수 구조를 개발하여 과제를 해결해 가고 있음


Ø GAN의 과제는 알고리즘의 교육에 장시간 연산이 필요하다는 점과 알고리즘의 작동이 불안정하다는 점이었는데, 엔비디아는 서서히 이미지의 해상도를 높여 나가는 구조의 네트워크를 개발하여 문제를 해결하였음



Ø 엔비디아가 개발한 GAN의 특징은 학습 초기 단계에서는 낮은 해상도(4×4)의 네트워크를 사용하고, 학습이 진행되면서 점차 해상도를 올려 최종적으로 고해상도(1024×1024)의 네트워크를 사용해 선명한 이미지를 생성한다는 점

Ø 엔비디아의 GAN이 순차적으로 생성한 이미지와 생성에 소요된 시간을 살펴보면, GAN에 학습을 시작한 지 4시간 33분이 경과한 시점에 저해상도(16×16)의 이미지가 생성되어 사람으로 보이는 듯한 형상이 나타났음


Ø 1 6시간이 경과한 시점에서 나타난 중간 해상도(64×64)의 이미지에서는 얼굴 윤곽이 뚜렷해졌으며, 5 12시간이 경과한 시점에 나타난 고해상도(256×256) 이미지에서는 인물이 부드럽게 그려져 있지만 세부적으로 보면 군데군데 일그러진 곳이 있음


Ø 19 4시간이 경과한 시점에 나타난 초고해상도(1024×1024) 이미지에서는 리얼한 인물이 완성되는데, 이처럼 엔비디아의 GAN은 감식자(Discriminator)의 스킬을 검증하면서 서서히 해상도를 올려나가는 방식을 통해 알고리즘 교육 시간을 약 20일로 단축하였음


<자료> Karras et al.


[그림 4] 점증적으로 해상도를 높여 나가는 엔비디아의 GAN


ž 엔비디아가 GAN의 성능을 개선했지만, 고해상도의 이미지를 생성하려면 대규모 컴퓨팅 리소스를 필요로 하는 등 아직 연구를 통해 개선해야 할 것들이 많이 남아 있음


Ø GAN에서 선명한 이미지를 생성하기 위해서는 대규모 컴퓨팅 자원이 필요한데, 엔비디아의 경우 이 연구를 위해 NVIDIA Tesla P100 GPU(4.7 TFLOPS)를 사용하였음


Ø GAN의 알고리즘 학습에는 약 20일 정도가 걸렸는데, 많이 개선된 것이지만 고해상도의 이미지를 생성하려면 여전히 많은 처리 시간이 필요하며, 결국 완벽한 가짜 이미지 생성에 아직까지는 많은 비용이 소요됨을 의미함


Ø 또한 GAN으로 그려낼 수 있는 대상은 GAN이 학습을 마친 분야로 제한되기 때문에 현재는 유명 연예인 등 일부에 한정되는데, GAN의 교육 시간을 상당히 단축시키거나 혹은 폭넓은 분야를 커버하게 하려면 추가 연구가 필요한 상황임


ž GAN은 양날의 검이 될 위험성이 존재하지만, 현재 AI 기술 개발의 가장 큰 걸림돌을 해결할 단서가 될 수 있다는 점에서 AI 분야의 큰 돌파구가 될 수 있는 연구 주제임


Ø GAN은 현재 딥러닝이 안고 있는 많은 문제를 해결할 수 있는 비장의 카드가 될 가능성이 있는데, 비지도 학습(Unsupervised Learning)과 라벨이 없는 데이터(태그 없는 교육 자료) 분야의 연구를 크게 진전시킬 단서가 될 것으로 전망되고 있기 때문


Ø 이는 현재 AI 개발의 가장 큰 걸림돌이 되고 있는 문제, 즉 알고리즘을 교육하기 위해 대량의 태그 데이터가 필요하다는 문제의 해결책이 될 수 있음을 의미하며 이것이 개발자들이 GAN에 주목하는 가장 큰 이유임


Ø 반면 GAN에 대한 우려도 그만큼 크게 대두되고 있는데, GAN이 가상으로 그려낸 이미지는 사진 촬영을 한 연예인이라 해도 의심의 여지가 없으며, 실제와 똑 같은 가짜 앞에서 양자의 진위를 판정할 수 있는 사람은 아무도 없음


Ø 소셜 미디어에서 가짜 뉴스가 문제가 되고 있지만 GAN의 등장으로 이제는 가짜 사진이 사태를 더욱 복잡하게 할 가능성이 커졌으며, 인스타그램에 올라오는 사진들 역시 GAN이 만들어 낼 시대가 도래하고 있음


Ø 전문가들이라고 이런 문제를 비껴나갈 수 있는 것은 아니어서, 천문학자들은 이제 우주의 이미지를 직접 우주 공간에 나가서 사진 찍듯이 그려내고 있으며, 화산 폭발 장면을 실감나는 사진으로 표현하고 있음


Ø 또한 인체의 DNA가 어떻게 작동하는지 또 단백질이 어떻게 반응하는지를 직접 촬영한 사진처럼 표현하기도 하는데, 그럴듯한 이미지들과 함께 이런저런 학술이론을 제시하면 한마디 반박조차 못하고 감쪽같이 설득 당할 수밖에 없음


Ø GAN 의 등장은 현실과 가상현실 사이에서 진위의 구분이 무의미해지는 시대의 도래를 시사하며, 양날의 검이 될 수 있는 GAN의 활용 범위와 방안을 놓고 AI 개발자 커뮤니티뿐 아니라 일반인 사이에서도 다양한 논쟁이 벌어질 것으로 보임