|
[이데일리 한광범 기자] A. 국회의원 총선거를 앞두고 딥페이크(deepfake)를 활용한 가짜뉴스에 대한 우려가 커지고 있습니다. 최근 윤석열 대통령 외형과 목소리를 이용해 만든 가짜뉴스 영상으로 논란이 더 커지는 모양새입니다. 우리나라만 해당하는 사안이 아닙니다. 올해 대선을 앞둔 미국에서도 딥페이크 영상은 가짜뉴스 확산의 주된 통로로 활용되며 골칫거리가 된 상황입니다.
그런데 ‘딥페이크’ 기술 자체는 중립적입니다. 딥페이크는 인공지능(AI) 기술을 활용해 진위 여부를 구별하기 어려운 가짜 이미지나 영상물을 뜻합니다. 일종의 얼굴 합성 기술이죠.
최근 넷플릭스 오리지널 시리즈 ‘살인자ㅇ난감’에서 주인공 ‘장난감’의 아역 배우 모습을 주연 배우인 손석구의 얼굴을 활용해 만든 것도 일종의 딥페이크이기 때문입니다. 지난 대선 당시 큰 화제를 불러일으켰던 ‘AI 윤석열’ 역시 딥페이크 기술을 적용한 겁니다. 스타트업이 최근 내놓아 화제가 됐던, 사진 1장으로 고인 영상을 만드는 서비스 역시 마찬가지죠.
이처럼 과거보다 훨씬 한정된 정보만으로 딥페이크 영상 제작이 가능하게 됐습니다. AI 기술의 발전으로 사진 한 장만으로 실감나는 가짜 영상 제작이 가능하고, 딥러닝으로 목소리도 거의 유사하게 구현할 수 있습니다. 음성 확보가 쉬운 유명인은 물론, 일반인의 경우도 10초 정도의 짧은 음성만 있으면 유사한 음성 구현이 가능한 것으로 알려지고 있습니다.
과거 복잡한 프로그램이 필요했던 것과 달리 최근엔 간단한 앱 하나만으로도 어렵지 않게 제작이 가능합니다. 인터넷을 치면 ‘유용한 딥페이크 앱·웹’을 안내하는 사이트를 어렵지 않게 찾을 수 있습니다.
조금 더 정교한 영상을 만들어주는 AI업체들도 있습니다. 지난 대선에서 큰 화제가 됐던 ‘AI 윤석열’의 경우도 국내 AI 휴먼 제작회사인 딥브레인AI가 자체 기술력으로 제작한 것이었습니다.
딥페이크, 얼굴합성기술 자체는 앞으로도 활용대가 무궁무진한 기술입니다. 앞으로 기술이 발전할 수록 딥페이크는 더욱 더 정교해질 것으로 보입니다.
그런데 문제는 이처럼 딥페이크 활용이 쉬워지며 이를 나쁘게 활용하는 사례가 많아지고 있다는 겁니다. 딥페이크 기술의 발전과 함께 탐지 기술 역시 발전해 AI를 이용할 경우 딥페이크 유무는 어렵지 않게 파악할 수 있다는 것이 IT업계의 설명입니다.
하지만 다양한 채널로 유통되는 만큼 유통 자체를 막기는 쉽지 않습니다. 국내외 플랫폼 기업들이 ‘딥페이크 영상 표시’ 등으로 대응하고 있지만 이들 외에도 유통 채널은 다양한 게 현실입니다.
정치인 관련 가짜뉴스를 제외하더라도 딥페이크를 이용한 범죄는 이미 다수 발생하고 있습니다. 온라인 인터넷 게시판에선 ‘딥페이크 영상’을 제작해 주겠다는 글을 올리는 이용자가 적지 않습니다. 이들은 불특정 다수로부터 의뢰를 통해 돈을 받고 딥페이크 기술을 활용해 이른바 ‘지인능욕’ 영상을 만들거나 연예인 얼굴을 합성한 불법영상을 만들기도 합니다.
불법행위인 만큼 딥페이크 영상 제작을 의뢰했다가 범죄 표적이 되는 경우도 어렵지 않게 볼 수 있습니다. “당신이 내게 불법을 의뢰했으나 경찰에 제보하겠다”는 식의 협박을 통해 의뢰인에게 금품을 뜯어내거나 성착취물을 요구하는 범죄도 종종 발생하고 있습니다.
공직선거법 개정으로 딥페이크 활용이 금지된 것은 가짜뉴스가 활개 칠 수 있다는 우려때문이었습니다.
상대 후보에 대한 부정적 가짜뉴스를 생산하는 것은 물론, 우리 진영 후보에 긍정적 가짜뉴스도 만들어질 수 있는 겁니다.
이는 민주주의의 공론장인 선거라는 제도를 부정하는 일과 다르지 않죠. 재미로라도 선거 관련 딥페이크 영상을 만들었다가 자칫 최대 징역 7년의 중형을 선고받을 수 있다는 것을 명심해야 합니다.
- 이메일 : jebo@edaily.co.kr
- 카카오톡 : @씀 news