사이언스 투데이
science 취재파일 바이오 위클리 사이언스 HOT5 사이언스 매거진 별별 이야기 내 몸 보고서 날씨학개론 생각 연구소 과학의 달인 궁금한S

[사이언스 취재파일] '이루다'가 촉발한 국내 'AI 윤리' 논란

■ 최소라 / 과학뉴스팀 기자

[앵커]
다양한 분야의 과학 이슈를 과학 기자의 시각으로 집중, 분석하는 '사이언스 취재파일' 시간입니다. 스튜디오에 최소라 기자 나와 있습니다. 어서 오세요, 오늘은 어떤 소식 다뤄볼까요?

[기자]
인공지능 대화 서비스 '이루다'에 대한 논란이 계속되고 있습니다. AI를 대상으로 한 성희롱부터 시작해 개발에 활용된 데이터의 적법성 논란으로까지 번지고 있습니다. 출시 한 달도 안 돼 이루다는 서비스를 종료했지만, 국내에서 AI 윤리에 대한 논의가 본격화된 겁니다. 이 소식, 자세히 다뤄보겠습니다.

[앵커]
저도 이루다와 대화를 해봤는데, 기존 AI와는 완전히 다르게 말투가 상당히 자연스럽더라고요. 그래서인지 큰 인기를 끌면서 사용자가 이주 만에 40만 명에 달했다고 하는데, 이루다와 관련해 어떤 논란이 있었나요?

[기자]
이루다는 국내 한 스타트업이 개발한, 스무 살 여자 대학생 인격을 가진 대화 로봇인데요, 서비스 초반에는 이용자들이 이루다를 성적 대상으로 다룬다는 논란이 나왔습니다.
이루다와 성적 대화를 하는 인증 화면이 올라오고, 인기 검색어엔 이루다를 성희롱하는 방법이 오르기도 했습니다. 여기에 그치지 않고 이번엔 이루다가 직접 혐오나 차별 표현을 재생산했습니다.

사람들의 실제 대화 내용을 학습한 결과 장애인이나 성소수자 등 사회적 약자에 대한 우리 사회의 편견을 그대로 드러낸 겁니다. 여기에다 이루다가 대화 중에 실제 사람의 이름이나 주소, 계좌번호 등을 말하면서 개인정보 유출 논란도 나왔습니다. 게다가 이루다를 개발한 스타트업이 개발에 활용한 대화 데이터를 모두가 활용할 수 있도록 공개한 것이 알려지면서 피해자들의 법적 대응도 예고됐습니다.

[앵커]
인공지능 윤리에 대한 문제는 예전부터 많이 나왔는데, 우리나라에선 이번 사건이 하나의 논의를 촉발시킨 계기가 되지 않았나 싶은데요. 해외에서는 이미 인공지능 윤리가 여러 차례 문제 된 적이 있었죠?

[기자]
네, 그렇습니다. 이번 이루다 사건은 2016년 마이크로소프트가 개발한 인공지능 챗봇
'테이' 사건과 여러모로 닮았습니다. 테이는 사용자와 대화를 하며 "히틀러가 옳다. 난 유대인이 싫다"는 식의 인종차별 발언을 쏟아냈고, 결국, MS는 16시간 만에 서비스를 중단했습니다. 이런 인공지능의 차별적 발언은 실제 차별로까지도 이어졌는데요, 2019년 애플이 출시한 신용카드 '애플 카드'는 인공지능이 신용한도를 결정하도록 했는데요, 다른 여건이 동일해도 여성보다 남성에게 훨씬 많은 카드 한도를 부여한 것으로 나타나
논란이 나왔습니다.

앞서 아마존이 개발한 인공지능 채용 프로그램은 여성 지원자에게 감점한 것으로 드러나면서 시스템이 폐기되기도 했습니다. 인공지능 채용 시스템이 학습한 지원서 데이터가 남성 지원자 위주로 채워졌기 때문입니다. 인공지능이 합리적인 의사결정을 할 것처럼 보이지만, 사실은 인공지능 학습한 데이터에 편향이 있을 경우 이를 그대로 반영하게 되는 겁니다. 전문가에게 직접 들어보시겠습니다.

[전주혜 / 미디어미래연구소 연구위원 : AI(인공지능) 로봇 개발과 출시과정에서 로직(논리적 연산)이나 데이터 등 기술적 측면에만 맡겨 둘 것이 아니라 사회적 통념과 미풍양속을 해치지 않는 범위에서의 구체적인 개발 기준 마련이 필요한 시기로 보입니다.]

[앵커]
기술의 발전에 맞춰서 윤리관도 확립해야 한다는 것을 보여주는 사건이다, 이렇게 볼 수 있을 것 같은데요. 이런 문제를 해결하기 위해서 지금 어떤 논의가 오가고 있나요?

[기자]
2019년 유럽연합은 기업과 정부가 인공지능을 개발할 때 지켜야 하는 AI 윤리 7대 가이드라인을 내놨습니다. 인간은 AI가 내리는 모든 결정에 개입할 수 있어야 한다며, 통제 가능성이 제시됐고요, 기술적으로 안정해야 하며, AI가 수집한 개인정보는 안전하게 보장되어야 한다는 내용도 담겼습니다. 여기 사용된 알고리즘과 데이터가 어떻게 수집됐고 학습됐는지 투명하게 공개해야 한다는 점, AI는 연령, 성별, 인종 등을 차별하지 말아야 한다는 내용 등이 담겼습니다. OECD도 2019년 인공지능 윤리와 관련된 권고안을 채택했습니다. 이밖에 구글, 마이크로소프트 등 글로벌 기업들도 자체 AI 윤리 원칙을 마련해 이행하고 있습니다.

[앵커]
그러니까 이미 세계 각국과 글로벌 기업들은 AI 윤리 원칙을 마련하는 한편, 지키고 있기도 한데요. 우리나라에선 어느 정도로 진행되고 있나요?

[기자]
국내에서는 본격적인 논의가 이제 막 시작됐다고 볼 수 있습니다. 지난해 정부가 교육 강화를 골자로 하는 인공지능 로드맵을 발표한 내용, 들어보시겠습니다.

[강도현 / 과학기술정보통신부 인공지능기반정책관(지난해 12월 23일) : 인공지능 알고리즘에 대한 공정성과 투명성에 대한 입법 움직임이 있습니다. 우선적으로 가이드라인을 제시해 기업이 자율적으로 준수해 나갈 수 있도록 하는 부분이 있고, 관련 부처에서 알고리즘 투명성이나 별도 입법이 필요하다.]

[기자]
또 방송통신위원회는 이번 논란을 계기로 제도개선을 추진하겠다고 14일 밝혔습니다. 올해부터 이용자를 대상으로 AI 서비스 알고리즘의 편향성에 대해 교육을 하고, 내년에는 사업자를 대상으로도 교육을 추진하겠다는 입장입니다. 중장기적으로는 이용자에게 피해를 준 AI 서비스의 책임 소재 등을 포괄하도록 법체계를 정비하겠다는 내용도 담겼는데요, 다만 교육 강화를 골자로 하고, 기업 자율에 맡기는 모양새라는 비판도 나옵니다.

앞으로 더 활발한 논의를 통해 인공지능 기술의 부작용을 최소화하는 방법으로 나아가야 한다는 지적이 나옵니다.

[앵커]
AI는 4차 산업혁명의 핵심으로 꼽히고 있는 분야인데, 기술 발전도 중요하지만, 우리 사회에 정말 적용할 수 있으려면 정말 윤리적인, 제도적인 뒷받침도 반드시 필요하겠습니다. 지금까지 최소라 기자와 함께했습니다. 오늘 말씀 잘 들었습니다.
  1.  07:00사이언스 투데이 오후 (5)
  2.  08:00야생 동물가족 생존기 야생에...
  3.  09:00다큐S프라임 <185회> (6)
  1.  [종료] 2021년 YTN사이언스 특집 프로...
  2. YTN사이언스 프로그램 모니터요원 선...