[앵커]
최근 AI를 이용해 유명 배우로 속이거나 사생활을 조작한 사건이 잇따라 발생하고 있습니다.
하지만 이를 막기 위한 대비책은 기술 발전 속도를 따라가지 못하고 있습니다.
김승환 기자가 보도합니다.
[기자]
유명 배우와 SNS로 얘기했다며 블로그에 올라온 글입니다.
이 내용은 얼마 안 가 삭제됐지만, 캡처 화면이 순식간에 퍼졌습니다.
작성자는 장난으로 대화를 꾸며낸 거라고 해명했지만,
해당 배우가 입은 이미지 타격은 돌이킬 수 없었습니다.
온라인 연애 사기 일당이 유명 배우의 가짜 신분증을 만들어 50대 여성을 속이고 5억 원을 빼낸 사례도 있었습니다.
이처럼 인지도가 높은 연예인들이 주로 AI 범죄 수단으로 악용되고 있지만, 그 대상은 누구나 될 수 있습니다.
[김정묵 / 변호사 : AI를 이용하여 허위 사실을 유포하는 경우 형법 상 허위사실 적시 명예훼손죄가 성립한다고 할 것인데, 최근 범죄의 심각성이 높아짐에 따라 벌금형이 아닌 실형이 선고되는 추세에 있습니다.]
뭐가 진짜고 가짜인지 모를 정도로 AI 이미지의 정교함은 나날이 높아지고 있습니다.
영상 속에서 AI를 이용한 합성 기술을 경고하는 영국 경찰.
이 남자는 이른바 '딥 페이크' 위험성을 경고하면서 마지막에 이렇게 말합니다.
['영국경찰청장협의회(NPCC)' 유튜브 영상 : 끝으로 한 가지 기억해주세요. 여러분이 보고 들은 모든 것, 제 목소리와 모습 모두 '딥페이크'입니다. 그 어떤 것도 진짜가 아닙니다.]
구글 같은 주요 기업들은 AI로 만든 영상에 '워터마크'를 넣는 제도를 도입했지만, 아직 충분치 않습니다.
국내에서도 내년 1월 시행되는 'AI기본법'에 AI 생성물 표시 의무가 포함돼 있지만, 악용을 막기엔 여전히 걸음마 단계입니다.
AI 기술 혁신의 속도가 빠를수록, 제도적 안전장치가 뒷받침돼야 하는 것은 물론 이용자 인식 개선도 함께 이뤄져야 한다는 지적입니다.
YTN 김승환입니다.
영상편집 김지연
디자인 정민정
YTN 김승환 (ksh@ytn.co.kr)
[저작권자(c) YTN science 무단전재, 재배포 및 AI 데이터 활용 금지]