Search

※ 아래 글은 정보통신기술진흥센터(IITP)가 발간하는 주간기술동향 1829호(2018. 1. 17. 발행)에 기고한 원고입니다.


▶ IITP에서 PDF 포맷으로 퍼블리싱한 파일을 첨부합니다. 가독성이 좋으니 참고하시기 바랍니다.

AI로 인한 배제와 차별의 증폭에 문제를 제기하는 신흥국의 AI 논의.pdf


ž 2017 11월 브라질 리우데자네이루에서는 선진국 거대 기업들이 개발한 인공지능(AI) 서비스가 세계의 일부 지역과 사람들에 불이익을 초래하는 현상에 대한 심포지엄이 열렸음


Ø 인공지능과 포섭(Artificial Intelligence and Inclusion)을 주제로 열린 이 심포지엄의 취지는 AI 선진국과 후진국 사이에서 AI 이용에 따른 불평등이 생기지 않도록 하려면 주로 남반구에 위치한 신흥국가 및 저개발국가 사람들이 AI의 영향에 대한 토론에 참여해야 한다는 것


Ø 현재 AI 기술의 대부분은 구미를 중심으로 한 AI 선진국의 가치와 기준에 입각해 개발되고 있기 때문에, AI의 사회적인 영향에 대한 논의도 주로 북반구에 위치한 선진국 중심으로만 이루어지고 있다는 문제 의식에서 출발한 것임


Ø 3일게 걸쳐 열린 이번 심포지엄은 비영리 연구기관인 리우데자네이루 기술과 사회 연구소(ITS Rio)와 인터넷 사회를 위한 하버드대학 버크맨 센터가 공동 주최하였음


Ø 구글, 페이스북 등 주요 IT 기업뿐만 아니라 관련 국제기관, 정책 관계자, 미디어, 인권 문제 활동을 하고 있는 NPO 법인 등 다양한 산업과 연구 분야에서 약 200 명이 참가하였으며, 참가자들은 주제별로 20~50명 규모의 그룹으로 나뉘어 논의하는 세션을 가졌음


[그림] 심포지엄이 열린 리우데자네이루의 '내일의 박물관(Museu do Amanhã)


ž 토론 세션에서는 동일한 기술과 서비스라도 신흥국에서는 원래 의도와 다르게 발현되거나 데이터의 부정확성과 부족으로 인해 정보가 왜곡되는 문제가 주로 제기되었음


Ø 리우데자네이루에 거주하는 한 연구자에 따르면, 브라질을 방문한 관광객들 중 지도 앱을 이용하여 목적지까지 최단 경로를 검색해 이동하는 사람 중에는 현지 사람이라면 절대 가지 않는 치안이 나쁜 지역을 통과하게 되어 불행한 일을 당하는 경우가 종종 있다고 함


Ø 또 다른 사례는 이미지 검색 서비스에 관한 것인데, 브라질의 한 마을에 과거 학살이 있었고 이 때문에 마을의 이름을 이미지 검색하면 대학살의 이미지 밖에 나오지 않으며, 비록 현재 마을의 양상은 전혀 다름에도 불구하고 정보가 업데이트 되지 않고 있다고 함


Ø 위의 두 사례는 치안 정보와 도시 이미지에 관련한 정확하고 올바른 정보가 있다면 기술적으로 해결할 수 있는 것이지만, 세션 토론에서는 그 정보를 누가, 누구에게, 어떤 방법으로 제공할 것인가가 신흥국 특유의 과제로 대두된다는 점이 지적되었음


Ø AI 서비스 제공 기업의 지사가 현지에 없는 경우, 지역 주민들이 올바른 정보를 입력 할 수 있는 기능을 AI 서비스에 추가할 수는 있지만, 신흥국에서는 그 정보가 정말 올바른 것인지를 누가 판단할 수 있는가 하는 문제가 있음


Ø 자신에게 유리한 가짜 뉴스를 생성하거나 개인이나 기업에 유리한 정보만 수발신하려는 경향성이 점차 강화되는 상황에서는 정보의 정확함이나 올바름에 대한 논의도 필요하게 됨


Ø 치안이 나쁜 지역의 경로 검색에서도 정보 수집 후 위험 지역 피하기를 검색 옵션에 추가하면 기술적으로 해결할 수 있긴 하지만, 치안이 나쁘다는 정보를 누가 어디에서 구할 것인가, 업데이트는 얼마나 자주 할 것인가 등의 이슈가 먼저 논의되어야 함


Ø 해당 지역의 주민들은 자신이 살고 있는 지역이 위험 구역이라고 분류되는 것을 싫어할 가능성이 높으며, 그 지역의 비즈니스와 경제 활동에도 악영향을 미칠 수 있기 때문


Ø 이러한 기술 이외의 문제는 AI 개발자의 능력만으로는 해결할 수 없으며, 바로 이 지점에서 심포지엄의 주제인 포섭(Inclusion)이 중요한 키워드가 되는데, 이처럼 포섭은 사회와 경제에서 소외되어 있던 사람들을 끌어 들이고 이들과 서로 협력하려는 사고방식을 배경으로 함


ž 심포지엄에서는 AI 기술의 설계 단계에서 다양한 사람들을 포섭해야 하고, 소수자를 배제하는 편견을 자각해야 한다는 주장이 다양한 사례와 함께 제기되었음


Ø 브라질의 NPO 법인 데사바포 소시알(Desabafo Social)은 검색 엔진의 알고리즘과 학습 데이터가 포섭적이지 않고 편견에 잡혀 있음을 보여주는 영상을 제작하여, 검색 서비스를 제공하는 기업이나 이미지 데이터 제공 기업에 학습 데이터와 알고리즘의 개선을 호소하였음


Ø 예를 들어 영어로 Family를 이미지 검색하면 대부분 앵글로-색슨계의 가족 사진이 표시되며, 만일 아프리카계 가족을 표시하려면 Black이라는 단어를 검색어에 추가해야 함


<자료> Desabafo Social: Black baby is also baby


[동영상] 게티 이미지 검색 서비스에서 Baby 검색 결과와 Black Baby 검색 결과 비교


Ø 이러한 문제는 기술적으로는 알고리즘 바이어스(Algorithmic Bias, 편향성)라 불리지만, 이는 단지 기술로서 해결할 수 있는 문제가 아님


Ø 따라서 데이터의 사용과 기술의 설계에는 반드시 문맥(컨텍스트)가치가 포함되어 있으므로 편향성이 있을 수밖에 없다는 점을 자각하고, 설계 단계에서 여러 사람과 대화하는 과정을 등한시하지 않는 자세를 견지할 필요가 있다는 논의가 이루어졌음


Ø 인종, 성별, 성적 소수자 등의 이유로 사회적으로 배제 혹은 차별 받아 온 사람들에 대한 포섭은 인문·사회과학적 관점에서 논의되어 온 주제이며, UN이 내걸고 있는 지속가능한 개발 목표 (SDGs)라는 의제와도 친화성이 높은 사안임


Ø 이 밖에도 데이터에 의한 식민주의(Digital Colonialism)WEIRD(Western, Educated, Industrialized, Rich and Democratic, 즉 서구의 교육 받은 산업화된 부유한 민주국가의 사람들) 등의 용어가 심포지엄에서 거론되었음


ž 한편 AI를 설계하는 단계에서의 포섭 외에, AI가 제공하는 혜택을 폭넓게 즐길 수 있게 해야 한다는 의미의 포섭에 대한 논의도 함께 이루어졌음


Ø 공교육이 충분히 제공되지 않는 신흥국의 참가자들은 AI의 혜택을 모두가 평등하게 누릴 수 있도록, AI 기술을 처리하는 장비와 네트워크 인프라, 그리고 교육 환경을 정비하는 노력이 필요하다고 주장하였음


Ø 반면 누구나 AI에 접근할 수 있어 AI의 과실을 누릴 수 있게 된다면, 사회가 프라이버시 보안 등의 위험을 떠맡게 되어 악용될 기회도 늘어날 가능성이 있다는 점이 지적되었음


Ø 플랫폼에서 배제된 사람들에 대한 포섭도 관심을 모은 주제였는데, 가령 중국의 거주자는 페이스북과 구글 등 미국의 플랫폼에 표면적으로 포섭되어 있지 않지만, 포섭되지 않은 사람들 중에는 대안적 플랫폼이 있거나 사용하지 않을 것을 선택할 수 있는 경우가 많음


Ø 반면, 원래 플랫폼에서 배제되어 존재조차 감지되지 않은 사람 혹은 특정 플랫폼에 묶여 사실상 탈퇴할 수 없는 사람들이야말로 AI가 제공하는 혜택을 누릴 수 있도록 해야 하고 그 목소리를 설계에 반영시키는 포섭이 중요하다는 지적이 있었음


Ø 이 밖에 흥미로운 논쟁으로는 AI와 로봇을 인간의 파트너로 포섭하는 것이 올바른 지에 대한 문제 제기도 있었는데, 난민 등 국가의 보호를 받지 못하고 국적조차 인정받지 못한 사람들이 많은 상황에서 AI가 인간의 파트너로 괜찮은지 논의하는 것 자체가 의문이라는 지적이 있었음


Ø 이렇게 보면 AI와 포섭에 대한 생각은 사람과 기계, 사회 그리고 환경과 문화의 생태계를 어떻게 설계해 나갈 것인가에 대해 생각하는 것과 다름이 없음


ž 각 세션에서 다양한 논의가 이루어진 가운데, 향후 현재의 문제점 해결을 위한 공통적이고 중요한 작업으로는 교육이 제시되었음


Ø 가령 AI를 이용하는 사용자가 알고리즘 편향성을 발견하더라도 AI를 제공하는 기업은 이런 지적을 수용하지 않을 수 있으므로, 사용자가 스스로 AI 기술을 익혀 대응해야 한다는 의견이 주로 신흥국 참가자들을 중심으로 개진되었음


Ø 한편, AI를 설계하는 입장에 있는 엔지니어들에 대해 윤리적인 설계를 위한 교육 프로그램이 필요하다라는 의견이 나왔는데, 실제로 미국 전기전자학회(IEEE)윤리적 조화를 이룬 설계 버전 1.0을 공개한 후 AI의 윤리적 설계에 관한 교육 프로그램을 만들고 있다고 함


Ø 한 연구자는 AI를 설계할 때 AI와 젠더, AI가 가져올 위협, AI에 대한 거버넌스 3가지를 항상 염두에 두도록 대학에서 학생들을 지도하고 있다고 밝히기도 하였음


Ø 국제기구에서 나온 참가자는 편향성이나 권리의 침해에 주의하면서 정보 기술과 데이터의 원활한 이용을 위한 구조를 만들고 이를 사용자들에게 확산시키는 것이 중요하다고 말했음


Ø 또한 저작물의 공정한 2차 사용을 허용하는 공정 이용(Fair Use)이나, 단일 관리기구가 없어도 인터넷을 건전하게 운영하는 인터넷 거버넌스 등 유사 사례를 참조해야 한다고 주장하였음


ž 현재 AI의 거버넌스 구조와 윤리에 대해 세계적으로 다양한 논의가 전개되고 있는데, 남반구에서 제기된 포섭이라는 개념이 향후 AI 논의에서 중요한 키워드로 포함될 전망


Ø 포섭은 모든 것을 같은 규칙과 동일한 기준으로 생각하는 가치의 획일화와는 다르며, 서로의 상황과 가치관의 차이를 인식하고 나아가 불편과 불평등, 불의가 있으면 대화를 통해 어떻게 조정해 나갈 것인가를 생각하며 계속 개선해 나가려는 시도임


Ø AI 기술은 한 걸음 잘못 내디디면 가치의 획일화와 소수자의 배제로 이어질 위험이 있지만, 한편으론 설계자가 편향성을 자각한다면 위험 관리나 새로운 서비스의 개발이라는 관점에서 유용하며, 이 때문에 IT 기업들도 이번 심포지엄에 적극적으로 참여한 것임


Ø 대화의 과정을 무시하거나 건너뛰지 않으면 AI와 포섭은 양립 가능한 것이며, 이런 생각이 인공지능과 포섭(AI and Inclusion)이라는 이번 심포지엄의 타이틀에 반영되어 있음


Ø 이번 심포지엄에서는 신흥국 참가자들이 AI 기술의 선진국에 제기하는 다양한 문제들을 중심으로 논의가 이루어졌으나, 이는 비단 신흥국이나 저개발국가 만의 문제가 아니며, AI 선진국 사이 혹은 각 선진국 내에서도 알고리즘의 편향에 따른 차별과 배제는 엄연히 존재함


Ø 남반구가 제기한 AI와 포섭이라는 주제에 대해 앞으로는 AI 선진국들이 리더십을 갖고 논의를 심화해 나갈 필요성이 있으며, 우리나라도 AI 선진국으로 논의를 주도하는 위치에 오르는 것을 목표로 한다면 이러한 국제적 논의에 적극 참여할 것이 요구된다 하겠음