YTN 사이언스

위로 가기

"불법 영상 DNA 찾아 삭제"...'잊힐 권리' 지원

2024년 06월 12일 16시 03분
[앵커]
디지털성범죄 피해자들의 가장 큰 공포는 자신이 찍힌 영상물이 유포되는 것입니다.

불법 성인사이트에 SNS까지 유포 채널이 많아지고, 방식도 교묘해지면서 피해가 갈수록 커지고 있는데요.

AI를 활용한 영상물 삭제와 수사 연계 등 피해자들을 지원할 수 있는 다양한 방안이 강구되고 있습니다.

염혜원 기자입니다.

[기자]
자신도 모르는 새 얼굴 사진이 음란물에 합성돼 유포되는 딥 페이크 피해.

최근 발생한 '서울대 n번방 사건'등 비슷한 범죄 피해가 잇따르고 있습니다.

불법 촬영 동영상에 피해자를 협박해 찍게 한 자기 촬영 영상까지.

디지털 성범죄 피해자는 대부분 10대와 20대입니다.

피해자들이 가장 두려워하는 것은 본인의 모습을 담은 동영상이 불특정 다수에게 유포되는 것입니다.

피해자들은 '생명에 위협을 느끼는 수준의 공포'라고 호소합니다.

전문가들이 판단하는 동영상 삭제의 골든 타임은 석 달입니다.

이 기간 안에 국내외 불법 사이트와 검색엔진, SNS 등에 퍼진 불법 동영상을 모두 잡아내야 한다는 겁니다.

여성가족부 산하 디지털성범죄피해자 지원센터는 AI를 기반으로 한 삭제 프로그램을 가동합니다.

보통의 삭제 프로그램은 영상을 조금만 가공해 유포하면 잡아낼 수 없지만,

동영상 DNA 기법으로 추적하면 영상을 확대, 축소하거나 잘라내고, 자막을 달아도 모두 찾아낼 수 있습니다.

[박성혜 / 한국여성인권진흥원 삭제지원 팀장 : 자막 같은 것들이 박힌다거나 이런 변형된 영상물 같은 경우, 해시는 찾을 수가 없습니다. 저희는 DNA 기술을 활용해서 이런 변형, 편집, 가공된 피해 촬영물, 특정 피해 촬영물까지도 저희가 샅샅이….]

이런 방법으로 310여 개 국내외 불법 성인사이트 등을 샅샅이 뒤지고 하나하나 삭제 요청해 지워냅니다.

지난해 이렇게 삭제한 불법 동영상은 모두 24만 5천여 건.

성인사이트가 압도적이지만 검색엔진을 통한 유포도 많이 늘었습니다.

특히 아동, 청소년이 찍힌 불법 동영상은 피해자 동의 없이도 곧바로 삭제합니다.

피해자를 협박해 스스로 성적 촬영을 하게 한 경우가 대부분입니다.

[강명숙 / 한국여성인권진흥원 상담연계 팀장 : 성적 대화를 먼저 한 다음에 이 대화를 빌미로 아동 청소년에게 '사진을 찍어서 보내지 않으면 이 자료들을 유포하겠다'라는 방식으로….]

AI가 피해자의 얼굴을 인식해 불법 영상에서 동일인을 찾아내는 기술도 개발 중입니다.

정확도를 높이는 작업이 더 필요한데, 상용화된다면 딥페이크 영상 등을 효과적으로 차단할 수 있을 것으로 보입니다.

YTN 염혜원입니다.


촬영기자 : 박진우

디자인 : 이원희







YTN 염혜원 (hyewon@ytn.co.kr)

거의모든것의과학