에너지경제

프로그램만 있으면 일반인도 제작...사회적 부작용 우려
하원의장 조작 영상 300만명 시청...건강 이상설 오해
페이스북은 거부, 유튜브는 삭제...동영상 규정 문제
美 정치권, '딥페이크' 기술 경고 잇따라

배우 알렉 볼드윈과 도널드 트럼프 대통령을 딥페이크 기법으로 합성한 딥페이크 영상(사진= 유튜버 'Derpfakes')


유명인의 얼굴을 영상에 합성하는 '딥페이크(Deep fake)' 기술이 발전하면서 부작용에 대한 우려도 커지고 있다.

'딥페이크'는 '딥러닝(Deep Learning)'과 '페이크(Fake·가짜)'의 합성어로, 인공지능 기술을 활용해 합성한 영상을 가리킨다. 일반인도 프로그램만 있으면 전문가 수준의 딥페이크 영상물을 제작할 수 있고, 심지어 진위를 파악하기 힘들 정도로 사실적인 가짜 영상을 만드는 것도 가능하다. 딥페이크 기술이 발전해 가짜가 더욱 진짜처럼 보일수록 각종 사회적 부작용도 커질 수 있다는 우려가 나온다. 

딥페이크에 대한 경고성 메시지는 지난달 10일 유튜브에 올라온 한 영상을 보면 알 수 있다. 이 영상은 미국 코미디언 빌 헤이더가 배우 아널드 슈워제네거 성대모사를 하는 것을 담았는데, 무려 600만이 넘는 조회 수를 기록하며 화제를 모았다. 이 영상을 보면 헤이더가 슈워제네거를 성대모사할 때 그의 얼굴이 조금씩 바뀌어 몇 초 만에 슈워제네거의 얼굴이 된다. 신경 써서 보지 않으면 알아채지 못할 정도로 정교한 수준으로 순식간에 교체됐다. 

美 코미디언 빌 헤이더의 얼굴이 몇 초 후 아널드 슈워제네거로 바뀌는 딥페이크 영상 (사진=유튜브(Ctrl Shift Face))


이 영상을 올린 체코 출신 일러스트레이터는 NBC뉴스에 "딥페이크 영상의 위험성을 알리고자 영상을 만들었다"고 말했다. 헤이더의 영상은 딥페이크 기술 수준이 어느 정도인지를 실감케 한다. 헤이더의 얼굴이 슈워제네거로 변하는 시간은 몇 초에 불과하지만 워낙 물 흐르듯 자연스럽게 바뀌어 전혀 위화감을 주지 않는다. 영상을 본 이들도 기술 발전이 무섭다는 반응을 내놓고 있다.

그는 NBC에 "처음 이 영상을 보고 댓글을 단 사람들의 절반은 영상이 조작됐다는 것을 몰랐다"며 "사람들에게 어디까지 가능한지를 알려주고 무언가를 믿기 전에 생각하게 하고 싶었다"고 말했다. NBC 뉴스는 이 영상을 소개하며 "단순한 즐길 거리가 아니라 경고성 메시지를 담았다"고 분석했다.

이렇듯 감쪽같이 합성된 사진이나 진짜 언론매체의 기사처럼 꾸민 가짜뉴스를 넘어 이제는 딥페이크 영상이 대중을 오도할 위험이 있는 수단으로 떠올랐다. 특히 가짜 포르노의 제작이 딥페이크의 부작용 중 하나로 거론되고 있다. 주로 정계나 연예게 유명 인사들의 얼굴을 합성한 포르노물을 그럴싸하게 만들어 유포하는 것도 가능할 수 있게됐기 때문이다. 유명인들이 등장하는 다른 일반적인 동영상에서 표정 변화 등 모든 데이터를 축적해 포르노 영상과 그럴싸하게 합성하면 마치 유명인이 진짜 포르노에 등장하는 듯한 동영상이 만들어진다는 것이다.

실제 지난해 8월 개설된 것으로 추정되는 한 딥페이크 사이트는 국내 여성 아이돌을 주 타깃으로 했다. 해당 사이트에는 매일 특정 걸그룹 멤버의 얼굴을 딥페이크 해달라는 요청글이 쇄도했다. 요청으로 만들어진 영상은 국내외 음란물 사이트로 퍼져 조회수가 적게는 수천에서 많게는 수백만에 달한 것으로 알려졌다.

또 해당 사이트는 딥페이크 프로그램 사용법까지 게재해 사이트 회원들의 범죄를 부추긴 것으로 알려졌다. 프로그램 활용이 쉽다보니 딥페이크 포르노물의 대상이 일반인으로까지 확대됐고, 텀블러, 트위터 등 소셜네트워크서비스(SNS)에는 일정한 비용에 ‘지인의 얼굴을 합성해 주겠다’는 글까지 게시됐다. NBC에 따르면 해외 유명 인터넷 커뮤니티 ‘레딧’도 사이트 내에 딥페이크 포럼을 열었는데 연예인이나 심지어 일반인의 얼굴까지 당사자의 동의 없이 포르노에 합성한 영상이 잇따라 올라오면서 포럼을 폐쇄했다.

대니엘 시트런 미국 메릴랜드대 교수는 NBC에 "딥페이크는 실재적이고 구체적인 해를 끼칠 수 있다"고 우려했다. 시트런 교수는 "가짜 포르노나 정적을 겨냥한 영상일 수도 있고, 기업공개(IPO)에 영향을 미치기 위해 만들어진 조작 영상일 수도 있다. 불안정한 상황에선 시의적절한 조작 영상으로 폭력을 부추길 수도 있다"고 강조했다. 실제 이달 초 인스타그램에는 마크 저커버그 페이스북 최고경영자(CEO)의 인터뷰 발언을 조작한 딥페이크 영상이 게시되기도 했다.

저커버그의 인터뷰를 조작한 가짜 영상(사진=인스타그램 캡처)


해당 동영상에는 마크 저크버그와 똑같이 생긴 인물이 등장해 카메라를 쳐다보며 "잠시 이런 상상을 해보라"고 운을 뗀다. 이어 "수십억 명의 도난당한 데이터와 그들의 모든 비밀, 그들의 생명, 그들의 미래를 완전히 통제하는 한 사람(이 있다고)"고 말했다. 이 인물은 "나는 이 모든 걸 스펙터에게 빚지고 있다. 스펙터가 내게 누구든 데이터를 통제하는 사람이 미래를 통제한다는 걸 보여줬다"고 주장했다. 잘 모르는 사람이 보면 데이터 분석업체 케임브리지 애널리티카에 의해 이용자 8700만 명의 개인정보가 도용된 사건 등 잇단 개인정보 유출로 물의를 빚은 페이스북의 CEO가 숨겨온 야심을 폭로하는 듯한 내용으로 읽힐 수 있다.


◇ 딥페이크, 美 정치계에서 큰 파장 일으킬 수 있어

미 CNN이 조명한 낸시 펠로시 하원의장의 진짜 영상(왼쪽)과 가짜 영상(사진:CNN 유튜브)


딥페이크 영상 기술을 두고 미국 정치권에서도 많은 우려가 나오고 있다. 2016년 대선의 골칫거리가 가짜 뉴스였다면, 2020년 대선 국면에서 딥페이크 영상은 유권자에게 거짓 정보를 퍼뜨리는 것은 물론 미국 대선판도 좌지우지할 수 있기 때문이다.

최근 워싱턴 정가를 시끄럽게 한 낸시 펠로시 하원의장의 가짜 영상은 딥페이크 영상의 위험성을 단적으로 보여준다. 펠로시 하원 의장이 술에 취한 것처럼 말하는 장면이 담긴 조작 영상은 단순히 재생 속도를 늦추고 목소리를 변조한 것이었다. 그럼에도 300만명이 넘는 사람이 봤고, 보수성향 소셜미디어를 중심으로 빠르게 확산됐다. 대중들은 이 영상을 보고 펠로시 의장이 술에 취했거나 건강에 이상이 있는 것으로 생각했다.

미국 워싱턴포스트(WP)는 이와 관련 "이 동영상은 상대적으로 덜 지독한 것조차도 인터넷 구석구석에서 얼마나 빠르게 반향을 일으킬 수 있는지 보여준다"고 설명했다. 그러면서 앞으로 닥칠 일에 대한 경고성 이야기가 될 수 있다고 강조했다. 전문가들은 딥페이크 기술이 발전하고, 널리 퍼질 수록 가짜뉴스 문제는 더욱 심해질 것이라고 경고했다.

WP는 2020년 대선을 앞두고 또다시 가짜뉴스 전략이 반복될 것이라는 우려가 있지만, 이를 어떻게 대응할지에 대한 노력은 아무도 하지 않고 있다고 지적했다.

나아가 해당 동영상이 유통된 플랫폼마다 제각각의 규정을 갖고 대응에 나섰다는 점도 문제라는 지적도 제기됐다. 일례로 이 동영상이 가장 활발히 유통된 페이스북은 동영상 삭제를 거부한 반면 유튜브는 규정 위반이라며 삭제했다. 페이스북은 당시 이 동영상이 조작됐다는 점을 인정하면서도 "페이스북에 올린 정보가 사실이어야만 한다는 규정은 없다"고 밝혔다.

과거 미 버즈피드가 제작한 오바마 전 대통령의 딥페이크 영상(사진=유튜브)


이와 관련, 하원 정보위원장는 지난 주 청문회를 열고 AI 전문가들의 견해를 청취했다. 청문회에는 4명의 인공지능, 허위 정보 전문가들이 증인으로 출석해 딥페이크 기술이 불러올 위협에 대해 경고했다. 전 연방수사국(FBI) 관리 클린트 왓츠는 "미 정부는 미디어 콘텐츠 제작 때 인공지능의 적절한 활용을 촉진할 정책을 빨리 개발하고 동영상이나 음성 녹취물의 진위를 검증할 기술의 개발을 지원해야 한다"고 말했다.

시프 위원장은 딥페이크를 이용해 "악의적인 인물이 혼란과 분열, 위기를 조장할 수 있고, 이 기술은 대통령선거를 포함한 선거운동 전체를 방해할 수 있다"고 말했다. 그는 이달 초에도 2020년 대선에 러시아가 또다시 개입할 수 있다고 언급하며 가장 큰 문제는 "후보자가 절대 한 적 없는 발언을 하는 딥페이크 동영상이 될 것"이라고 강조했다.

AI 분야 과학자들이 딥페이크 동영상을 분별해내는 기술연구에 나서고 있지만 빠르게 발전하고 있는 딥페이크 기술을 따라잡기에는 역부족이라는 지적도 나온다. 캘리포니아 대학의 컴퓨터 공학자이자 교수인 헤이니 파리드 "우리는 열세다. 합성 영상을 만드는 사람이 100이라면 이를 찾아내는 쪽의 사람은 1이다"고 밝혔다.


[에너지경제신문 박성준 기자]

     
[저작권 ⓒ에너지경제, 무단전재 및 재배포 금지]

안드로이드앱 다운로드

Copyright ⓒ ekn.kr all rights reserved.