Search

※ 아래 글은 정보통신기술진흥센터(IITP)가 발간하는 주간기술동향 1848호(2018. 5. 30. 발행)에 기고한 원고입니다.


▶ IITP에서 PDF 포맷으로 퍼블리싱한 파일을 첨부합니다. 가독성이 좋으니 참고하시기 바랍니다.

막기 어려운 딥페이크 동영상, 비판적 미디어 수용 능력 필요.pdf



[ 요 약 ]


일반 PC와 딥페이크 소프트웨어만 있으면 수백만 달러짜리 할리우드 편집 툴보다 훨씬 정교하게 영상 속 얼굴을 다른 사람의 얼굴로 바꿔치기 할 수 있는 시대가 도래하였음. 누구나 쉽게 진짜와 가짜의 구분이 어려운 딥페이크 영상을 만들 수 있게 되면서, SNS를 통해 사진과 동영상이 범람하는 시대에 살고 있는 사람들에게 이제 매스 미디어가 등장한 이래 그 어느 때보다도 합리적이고 비판적인 미디어 수용 능력이 요구되고 있음



[ 본 문 ]


2016년 미 대선이 페이스북을 통해 유포된 가짜뉴스로 얼룩졌다면, 올해 11월 열릴 중간선거에서는 AI를 악용한 가짜 동영상이 여론을 조작할 것이라는 우려가 제기되고 있음


지난 미 대선 과정에서 대량 유포된 가짜뉴스의 배후에 러시아가 개입했다는 정황에 대한 수사가 진행 중이고, 유포과정에서 페이스북의 역할에 대한 청문회 등이 열리면서 가짜뉴스에 대한 사회적 경각심이 형성되었음


그러나 가짜뉴스를 없애기 위한 법적, 기술적 조치들이 강화되어도 기술의 발전에 의해 더욱 교묘한 방식의 가짜뉴스들이 생성, 유포되고 있는데, 최근에는 가짜 동영상이 기승을 부리며 새로운 사회문제로 부상하고 있음


가짜 동영상은 악의적으로 조작된 비디오로 인공지능(AI)이 실제로는 존재하지 않는 현실을 담은 영상을 리얼하게 그려 냄


올해 4월에 버즈피드에 올라온 오바마 전 대통령의 연설 동영상은 가짜 비디오가 얼마나 정교한지, 그래서 얼마나 큰 혼란을 야기할 수 있는지 실감나게 보여주었음


영상을 보면 성조기 앞에서 차분히 연설을 하던 오바마는 갑자기 트럼프는 천하에 쓸모없는 놈(dipshit)’이라며 비속어로 비난하는 장면이 나옴


동영상을 보던 사람들이 오바마의 막말에 재미 혹은 당혹감을 느끼는 순간, 동영상은 화면이 분할되며 영화감독이자 배우인 조던 필(Jordan Peele)의 모습을 오바마와 나란히 보여주기 시작함


<자료> BuzzFeed

[그림 1] 입모양까지 똑같이 만든 가짜 동영상


동영상은 필이 말하는 대로 오바마가 말한다는 것을 확인시켜 주는데, 완전 리얼하게 입모양까지 똑같이 움직이고 있다는 것을 보여주고 있음


필이 등장할 때까지는 이것이 가짜 동영상임을 전혀 알아차리기 어려웠는데, 비디오 속의 목소리는 필의 실제 음성이었지만, 그는 오바마 대통령의 성대모사에 일가견이 있어 목소리를 구분하기가 쉽지 않았기 때문


이 가짜 비디오는 오바마의 연설 내용을 자기 마음대로 바꾸어 조작할 수 있음을 보여 줌으로써 이 기술이 내포함 심각한 위험성을 사람들이 알아차리게 할 목적으로 버즈피드와 조던 필이 공동을 제작한 것임


새로운 사회 문제로 떠오르고 있는 가짜 동영상을 손쉽게 제작할 수 있게 해주는 이 기술은 흔히 딥페이크(DeepFake)’로 불리고 있음


딥페이크라는 명칭은 이를 맨 처음 만든 사람의 아이디에서 유래했는데, 레딧(reddit)에서 ‘Deepfakes’라는 아이디를 쓰는 이용자가 작년 11월에 텐서플로우 같은 오픈소스 소프트웨어를 이용해 유명 연예인과 포르노를 합성하여 관심을 끌었음


레딧에는 곧 ‘deepfakes’라는 서브 레딧이 만들어졌고, 올해 1월에는 ‘deepfakeapp’라는 아이디를 쓰는 유저가 ‘FakeApp’이라는 무료 앱을 제작해 배포하였음


<자료> Reddit

[그림 2] FakeApp 최신 버전(2018. 02)


FakeApp은 초보자도 잠시만 배우면 사용할 수 있을 정도로 쉬워 수많은 사람들이 앱을 이용해 딥페이크 영상을 만들기 시작했으며, 올해 2월 딥페이크 서브 레딧은 폐쇄되었지만 영상들은 이미 걷잡을 수 없이 퍼져나가고 있음


페이스북은 2014년에 딥러닝 기반의 얼굴 인식 기술인 딥페이스(DeepFace)’를 개발하기 시작해 2017년에 런칭한 바 있는데, 딥페이크는 페이스북의 딥페이스 기술을 응용해 개발한 것으로 알려지고 있음


딥페이크 기술로 만들어진 가짜 동영상은 유명 연예인을 대상으로 삼는 경우가 많으며, 트럼프와 푸틴 대통령 등 거물 정치인들도 주요 타깃이 되고 있음


대체로 ‘Deepfakes Replacement(딥페이크 대체)’라는 타이틀을 달고 있는 이 가짜 동영상들에 자주 등장하는 대표적 유명인은 배우 니콜라스 케이지


케이지의 딥페이크 영상은 흔한 인터넷 놀이의 하나로 볼 수 있는데, 영화 골드핑거의 주인공인 션 코너리의 얼굴이나 인기 프로그램 SNL의 크루인 앤디 샘버그의 얼굴을 니콜라스 케이지로 대체한 영상들이 대표적


정치인에 대한 딥페이크 영상은 풍자 목적이 강한데, 트럼프 대통령 흉내로 정치 풍자 코미디를 진행하고 있는 배우 알렉 볼드윈은 딥페이크 기법을 이용해 트럼프로 분장한 자신의 얼굴을 실제 트럼프의 얼굴로 대체한 영상을 공개해 화제가 된 바 있음


<자료> DeepFakes

[그림 3] 트럼프 풍자 가짜 동영상


앞서 조던 필의 경우와 마찬가지로 볼드윈이 제작한 영상에서 트럼프의 말은 사실은 볼드윈이 한 것이며 얼굴만 진짜 트럼프로 대체된 것이기 때문에, 가짜 동영상인지 여부를 구별하는 것은 쉽지 않음


단지 풍자 목적이라면 재미로 넘길 수도 있으나, 진짜와 가짜의 구분이 쉽지 않은 상황에서는 이 기술이 악용될 경우의 폐해를 먼저 우려하지 않을 수 없는데, 트럼프의 경우는 돌출 발언도 잦기 때문에 가짜 동영상의 폐해는 더욱 크게 나타날 수 있기 때문


뭐니뭐니해도 딥페이크 기술이 가져올 수 있는 가장 큰 위험은 딥페이크 영상이 최초 만들어진 목적에서 보듯 포르노 영상에 적용되고 이것이 광범위하게 유포되는 것임


작년 연말에는 포르노 배우의 얼굴을 영화 원더 우먼에서 타이틀 롤을 맡은 이스라엘 여배우 갤 가돗(Gal Gadot)의 얼굴로 바꾼 가짜 동영상이 인터넷에 게재되어 본인은 물론 사회적으로도 큰 충격을 준 바 있음


과거에도 이런 사례는 있었으나 영상이 조악하거나 합성임을 알아차릴 수 있어 해프닝으로 넘어갔다면, 딥페이크로 만든 이 영상은 갤 가돗이 정말 포르노 영화에 출연한 것 아니냐는 생각을 잠시라도 불러일으켰다는 점에 사태의 심각성이 있음


실제와 구분이 어려워 현실감을 줄 수 있기 때문에 이러한 영상을 찾으려는 수요가 발생할 수 있고, 이렇게 되면 딥페이크를 이용한 포르노 영상은 더욱 확대 재생산될 수밖에 없어 거의 모든 유명인들이 피해자가 될 수 있음


이미 갤 가돗 외에 배우 엠마 왓슨, 뮤지션인 케이티 페리와 테일러 스위프트 등 많은 유명인이 피해를 입었으며, 아시아 지역에서는 K-팝 여가수들이 타깃이 되고 큰 피해를 입고 있음


최근에는 유명인 이외에 일반인을 대상으로 딥페이크 영상을 만든 후 배포 위협을 하며 돈을 요구하는 악질 범죄들도 시도되고 있어 더 큰 사회적 문제를 낳고 있음


일반인 대상 범죄 역시 확산될 가능성이 있는데, 이미 사회적으로 리벤지 포르노가 문제가 되고 있는 상황에서, 진짜처럼 보이는 가짜 동영상이 유포될 경우 입게 될 충격과 공포는 형언할 수 없기에 피해자들은 어쩔 수 없이 협박에 응할 수밖에 없기 때문


SNS를 통해 하루에도 수십 개의 사진과 동영상을 올리고 많은 사람이 볼 수 있는 시대에서는 이제 누구나 딥페이크 영상의 잠재적인 피해자가 될 수 있음


딥페이크 영상이 가능하게 된 배경에는 딥러닝 등 인공지능(AI) 기술이 자리잡고 있는데, 기초 기술에 대한 논문이 발표되어 주요 내용들이 다 공개되어 있음


AI를 적용한 소프트웨어들은 사진과 비디오에 등장하는 인물의 얼굴을 다른 얼굴로 바꿀 수 있는 기능을 구현할 수 있음


<자료> Iryna Korshunova et al.

[그림 4] AI를 이용한 빠른 얼굴 스와핑


201611월 발표된 ‘CNN을 이용한 신속한 얼굴 뒤바꾸기(Fast Face-swap Using Convolutional Neural Networks)’라는 제목의 논문은 원본 사진의 얼굴을 다른 사람의 얼굴로 대체하는 기술을 소개하고 있음


Fast_Face-swap_Using_Convolutional_Neural_Networks.pdf



논문은 여러 유명인의 얼굴을 니콜라스 케이지와 테일러 스위프트의 얼굴로 바꾸는 과정을 설명하고 있는데, 얼굴의 방향, 시선, 입술의 모양, 헤어 스타일은 원래 이미지를 그대로 두고 눈, , 입술, 눈썹, 얼굴 주름 등은 두 사람의 것으로 대체하였음


구체적으로는 입력 이미지에서 눈코입의 배치 정보를 추출하고 대체할 이미지의 눈코입 객체를 입력 이미지의 배치 정보에 맞게 재배치하여 스티칭하는 프로세스임


따라서 원본 이미지의 얼굴과 대체하려는 이미지의 얼굴이 전체적인 형태가 유사할 경우 어색하거나 코믹한 느낌이 없어지고 보다 자연스럽게 받아들여지게 됨


논문의 제목에 신속한(fast)’이라는 단어가 사용된 것은 이 얼굴 바꿔치기 과정을 사람이 일일이 손으로 할 수도 있지만, 소프트웨어를 이용하면 퀄리티는 손으로 할 때보다 떨어지지만 아주 빠르게 할 수 있기 때문


<자료> Iryna Korshunova et al.

[그림 5] AI를 통한 얼굴 스와핑 프로세스


딥러닝을 이용한 얼굴 스와핑의 정교성을 높이려면 상당한 컴퓨팅 파워가 필요하나 하드웨어 발달로 인해 일반적인 컴퓨터에서도 구현이 가능한 상황임


딥페이크는 딥러닝 기법으로 얼굴을 이해하고 서로 다른 두 사람의 얼굴을 대체하는 기법을 학습하는데, 구체적으로는 컨볼루셔널 신경망(Convolutional Neural Networks, CNN)'으로 원본 얼굴과 대체 얼굴의 특징을 학습한 후 이 둘을 서로 바꿈


신경망 학습을 위해서는 양자의 얼굴 사진을 대량으로 입력하여 알고리즘이 얼굴의 특징 및 대체 프로세스를 학습하게 하는데, 응용 프로그램은 엔비디아의 개발환경인 CUDA에서 실행되며 프로세서로 엔비디아 GPU가 필요함


진짜처럼 보이게 하기 위한 학습 및 대체 과정에는 상당한 연상량이 발생하지만, 할리우드급의 특수 촬영을 누구나 쉽게 할 수 있게 된 이런 시대에는 컴퓨터에 엔비디아 그래픽 카드를 탑재한 구성만으로 실행할 수 있음


얼굴을 대체하는 알고리즘은 학술 주제로 대학 등에서 연구가 진행되고 있었던 것인데, 그 연구 성과가 소프트웨어의 형태로 공개되었고 사용하기 쉬운 툴로 개선되어 깃허브에 공개되면서 단숨에 확산되었음


대학 등에서 얼굴 대체 알고리즘 개발을 연구한 이유가 무엇인지는 정확히 나와 있지 않지만, 이 기술은 공개되자마자 가짜 포르노 영상에 가장 먼저 악용됨으로써 범죄의 도구로 전락하게 될 상황이 전개되고 있음


딥페이크 기술의 위험성은 누구나 손쉽게 이용할 수 있게 된 반면, 그 진위 여부를 가리기 위한 대응책의 마련에는 5~10년이 걸릴 것으로 예상된다는 데 있음


이미 어도비 포토샵 같은 이미지 편집 툴을 이용한 사진이나 비디오 변조가 가능하긴 했지만, 이는 전문가가 직접 손으로 조작을 해야 가능한 것임


반면 딥페이크는 AI 기술이 접목되어 사진과 비디오 조작 프로세스가 자동화됨으로써 초보자도 손쉽게 가짜 비디오를 만들 수 있게 된다는 데 심각성이 있음


바꾸려는 대상을 다양한 각도에서 찍은 사진을 모은 다음 사진값을 대입할 영상을 고르기만 하면, 나머지는 소프트웨어라 해주길 기다리기만 하면 되는데, 지금은 약 40시간 정도를 기다려야 하지만 이 대기시간도 아마 더욱 더 줄어들 것임


<자료> BBC

[그림 6] 딥페이크 제작 프로그램 FakeApp


딥페이크 소프트웨어가 맨 처음 등장하고 나서 전문가들은 기술이 보편화될 때까지 1년 정도 걸릴 것으로 내다봤지만 실제로는 1달 만에 보편화되었음


상황이 이렇다보니 선거 과정에서 가짜뉴스로 홍역을 앓았던 미국 사회는 당장 11월 중간 선거 과정에서 가짜 비디오를 악용하려는 시도에 대해 걱정하지 않을 수 없음


가짜뉴스 방치에 대한 책임을 추궁당하고 있는 페이스북은 이미 AI를 이용해 혐오 조장 연설을 걸러내겠다는 의지를 표명하고 있지만, 기술이 완성될 때까지는 5~10년이 걸릴 것으로 자체 예상하고 있음


다른 기업들도 가짜 비디오를 감지하는 기술의 개발에 몇 년이 더 걸릴 것으로 보고 있기 때문에, 이번 중간 선거에서는 유효한 방지 수단이 없는 실정임


이는 비단 미국만의 우려는 아닐 것이며, 모든 국가와 시민사회가 당면한 새로운 위험요인인데, 당장 우리나라만 하더라도 가령 북미회담이 취소되고 트럼프가 북한을 군사 공격한다는 내용의 가짜 비디오가 만들어진다면 이것이 미칠 악영향은 매우 큼


딥페이크 기술은 AI가 빛과 그림자를 동시에 가져올 것임을 보여주는 또 하나의 사례이며, 따라서 시민들 스스로 자신과 사회를 보호하기 위한 적극적 노력이 필요함을 시사함


딥페이크 영상이 퍼짐에 따라 일단 커뮤니티들은 빠르게 대응하고 있는데, 이미지 호스팅 사이트인 기프캣은 딥페이크 관련 모든 게시물을 삭제했으며, 딥페이크가 맨 처음 시작된 레딧 역시 조치를 취할 것으로 알려졌음


구글은 아직 딥페이크에 대해 검색 차단 입장을 내놓고 있지 않지만, 유튜브가 딥페이크 비디오의 주요 유포 경로이기 때문에 고심이 큰 것으로 보임


<자료> The Deepfake Society

[그림 7] 딥페이크 대응이 필요한 유튜브


가짜 동영상은 유명인은 물론 일반인들까지 한 개인의 삶을 피폐하게 만들 수 있으며, 한 사회 나아가 국제 평화를 위험에 처하게 만들 위험성도 내포하고 있음


그러나 기술적으로 대응할 수단이 아직 없는 상황이므로, 당분간 문제의 해결은 오롯이 각 개인과 시민사회의 몫으로 남겨질 수밖에 없으며, 각자 피해를 당하지 않도록 조심하고 또한 누군가에게 피해를 줄 수 있다는 점을 자각하는 것이 필요함


따라서 딥페이크 영상은 윤리적 문제이기도 하지만 한편으로는 시민사회의 분별력, 합리적 추론 능력을 시험하는 문제이기도 함


이미 가짜뉴스 유포가 일상화되어 있고, 여성 뮤지션들이 딥페이크 영상의 주요 피해자가 되고 있는 우리나라 역시 딥페이크 기술에 대한 사회적 성찰과 감시 노력이 다른 어떤 사회보다도 필요할 것임


트래픽 경쟁에 내몰린 언론들이 사실 확인을 거치지 않은 오보를 의도적인 왜곡 보도를 내보내도 이에 대한 견제나 처벌이 유명무실한 한국의 미디어 상황은 딥페이크 영상을 통해 혼란을 야기하려는 불순세력에게는 더할 나위 없이 좋은 환경일 수 있음


얼굴 스와핑 기술은 이미 도래했고 늘 그렇듯 기술을 되돌릴 수 있는 길은 없기 때문에, ‘보는 것이 믿는 것이다라는 소비 태도보다는 자발적인 해석 노력과 합리적 의심에 기반을 둔 질문하는 능력을 키우는 것이 우리 사회에 요구되고 있음