방심위, 연예인 얼굴합성 성적 허위영상물 4700건 시정의결

1~4월 모니터링한 결과…전년 동기 대비 400% 폭증
  • 등록 2024-05-02 오후 6:05:48

    수정 2024-05-02 오후 6:05:48

[이데일리 임유경 기자] 유명 연예인의 얼굴을 딥페이크 기술로 합성해 유포한 성적 허위영상물이 올 1월부터 4월까지 4700건 발견됐다. 이는 전년 같은 기간 대비 400% 폭증한 것이다. 방송통신심의위원회는 딥페이크 허위영상물 유통 차단을 위해 해외 음란 사이트를 집중 모니터링하고 신속히 차단 조치를 내려 확산을 최소화한다는 방침이다.

방통심의위는 연예인의 얼굴을 딥페이크 기술을 이용해 포르노 영상과 합성, 유포된 ‘성적 허위영상물’ 총 4691건에 대해 시정요구를 의결했다고 2일 밝혔다.

방통심의위는 해외 음란 사이트 등에서 K-POP 아이돌 등 연예인의 ‘성적 허위영상물’ 유포가 증가함에 따라, 올해 1월부터 4월까지 중점 모니터링을 실시했다. 그 결과 4691건을 시정요구 의결했다. 이는 전년 동기 대비 약 400% 폭증(3745건 증가)한 것이다.

방통심의위는 “유명 연예인뿐만 아니라 청소년과 일반인을 대상으로 한 ‘성적 허위영상물’도 확인되는 등 딥페이크 기술을 악용한 영상물 유포 증가가 심각하게 우려되는 상황”이라고 경고했다.

특히, 일상에서 SNS 등에 공개되는 사진·동영상 등 개인정보 유출에 각별히 주의하고, ‘성적 허위영상물’ 유포를 발견한 경우 즉시 방통심의위로 신고(디지털성범죄 원스톱 신고 ARS, 국번없이 ‘1377’ 누르고 3번)하여 줄 것을 당부했다.

방통심의위 관계자는 “향후에도 해외 음란 사이트 등의 중점 모니터링과 심의를 통해 성적 허위영상물과 이를 유통시키는 사이트 등을 신속히 차단하여 피해 확산을 최소화하는 데 더욱 주력할 계획”이라고 했다.

이데일리
추천 뉴스by Taboola

당신을 위한
맞춤 뉴스by Dable

소셜 댓글

많이 본 뉴스

바이오 투자 길라잡이 팜이데일리

왼쪽 오른쪽

스무살의 설레임 스냅타임

왼쪽 오른쪽

재미에 지식을 더하다 영상+

왼쪽 오른쪽

두근두근 핫포토

  • 박결, 손 무슨 일?
  • 승자는 누구?
  • 사실은 인형?
  • 한라장사의 포효
왼쪽 오른쪽

04517 서울시 중구 통일로 92 케이지타워 18F, 19F 이데일리

대표전화 02-3772-0114 I 이메일 webmaster@edaily.co.krI 사업자번호 107-81-75795

등록번호 서울 아 00090 I 등록일자 2005.10.25 I 회장 곽재선 I 발행·편집인 이익원

ⓒ 이데일리. All rights reserved