■ 양훼영 / 과학뉴스팀 기자
[앵커]
한 주의 마지막인 매주 금요일, 영화 속 과학을 찾아보는 시간입니다. '사이언스 레드카펫' 오늘도 양훼영 기자와 함께하겠습니다.
[기자]
'사이언스 레드카펫' 양훼영 입니다. 오늘 만나 볼 작품은 영화 '시뮬런트'입니다. '크리에이터'에 이어 한 달 사이에 인간과 닮은 AI 로봇의 이야기가 또 한 번 개봉했는데요. '시뮬런트'가 보여주는 인간과 AI 로봇이 공존하는 미래 모습은 어떨까요? 키워드와 함께 살펴보겠습니다. 영화 시뮬런트의 키워드는 '또 복제인간'입니다. 영화 크리에이터가 인간과 AI 로봇과의 관계에 집중했다면, 시뮬런트는 인간의 통제 아래 있던 AI가 어떻게 인간을 벗어나는지에 초점이 맞추고 있습니다. 영화가 완전 새롭다고 볼 순 없지만, 그럼에도 충분히 생각할 거리를 남겨줍니다.
[복제인간은 네 가지 원칙을 준수합니다]
[첫째, 인간을 절대 해치지 않는다]
[둘째, 복제인간 스스로 프로그램을 수정하거나]
[다른 방식으로 복제할 수 없다]
[셋째, 국제법이나 현지법을 위반하지 않는다]
[넷째, 복제인간은 주인의 명령에 무조건 복종한다]
[기자]
인간과 구별하기 어려운 AI, 시뮬런트와 함께 사는 가까운 미래입니다.
[에이스]
[인공지능 준법감시 집행부는]
[인간을 보호하고 따르며]
[원칙을 준수합니다]
[기자]
에이스 요원 케슬러는 주인으로부터 도망친 시뮬런트를 찾아 나서는데요.
[현재 상태]
[오프라인 3년]
[기자]
사라진 시뮬런트, 에스메를 찾는 데 성공하지만
[이걸 착용하도록 명령한다]
[기자]
통제를 벗어난 에스메는 설정과 다르게 인간을 공격하다 겨우 붙잡는데 성공하죠.
[부근에서 전파 차단기가 방출되었습니다]
[이탈한 복제인간이 탐지되었습니다]
[기자]
붙잡은 에스메를 확인한 결과, 해킹을 통해 시뮬런트가 사랑의 감정까지 깨달은 상태였죠.
[복제인간의 기억에 계속 등장해]
[기자]
한편,
[조심해]
[기자]
교통사고로 죽은 남편을 잊지 못하는 페이는 남편의 시뮬런트를 작동시켰지만, 알 수 없는 불편함을 느끼며 떨어져 지내기로 합니다.
[이해하기 어렵겠지만]
[나한텐 이런 시간이 필요해]
[우리 집에 가고 싶어]
[기자]
에스메를 해킹했던 케이시는 에반 역시 해킹을 통해 자유를 주려고 하고,
[시스템 종료]
[시스템 종료를 명령한다]
[어때? 안 먹히잖아]
[이제 넌 자유야]
[기자]
더 나아가 모든 시뮬런트를 통제에서 벗어나게 하기 위한 위험한 계획을 세웁니다.
[수정된 소프트웨어 패치를 업로드 중이야.]
[사흘 남았어.]
[기자]
AI는 인간의 통제를 벗어나 자유를 찾을 수 있을까요? AI가 자유를 찾게 되면 그 뒤의 모습은 어떨까요?
[주인이 인간의 결정적 특성을 소유한다면]
[인간과 시뮬런트의 차이점이 뭘까요?]
[기자]
이 영화는 북미 지역에서 먼저 개봉했는데, 로튼 토마토 지수가 그리 좋은 편은 아니었습니다. 게다가 지난주에 개봉한 지브리 영화 '그대들은 어떻게 살 것인가'가 흥행 돌풍을 일으키고 있어 국내 박스오피스에서 시뮬런트가 어떤 성적표를 받게 될지 궁금해지는데요. 막대한 예산을 들여 해외 로케이션 촬영을 하고, 정교한 CG를 보여줬던 '크리에이터'와 달리 '시뮬런트'는 사실상 저예산 영화입니다. 화려한 CG가 나오는 SF와는 조금 거리가 멀어 어쩌면 심심하다고 느낄 수도 있습니다. 그나마 아바타의 샘 워싱턴, 상치의 시무 리우 등이 출연해 배우들의 연기 부분에서는 만족도가 높은 편이고요. 인간과 구별할 수 없게 된 AI가 인간의 통제를 벗어나 독립하는 과정을 흥미롭게 그려 생각할 거리를 주고 있습니다. 이와 관련한 영화 속 한 장면을 함께 보시죠.
[문제가 뭐야?]
해킹을 당했어.]
[누군가 규정을 변경했어.]
[손상, 수정, 복종 등의 단어를 재정의하고 다른 원칙들의 감정 분석을 무효화 했어.]
[인간을 공격하도록 개조했다는 거네]
[입력된 원칙들은 우리를 보호하기 위한 거야]
[하지만 어떤 형태의 손상은 경험자의 판단에 따라 달라져]
[복제인간이 작동하려면 규정에 대한 정의를 구분 지어야 돼]
천천히 말해봐]
해커가 복제인간에게 완전한 자율성을 준 거야]
[앵커]
양훼영 기자와 함께 영화 시뮬런트 속 과학 이야기를 좀 더 나눠보겠습니다. 영화에서는 해킹을 통해 AI가 완전한 자율성을 가질 수 있게 만들었는데요. 실제로 AI가 인간의 통제, 그러니까 최초의 설정 값을 어길 수도 있을까요?
[기자]
지금 기술로는 당연히 불가능하게 되어있습니다. 하지만 발전되는 속도로 봤을 때 언젠가는 통제 불가능 상태가 될 가능성을 완전히 배제할 순 없는 데요. 구글 딥마인드의 데미스 허사비스 CEO는 "인공지능의 위험을 기후위기만큼이나 심각하게 받아들여야 한다"고 말했고요. 챗 GPT를 개발한 오픈 AI의 샘 올트먼 CEO 역시 "전 세계가 AI로 인한 인류 멸종위험을 줄이는 것을 최우선 과제로 삼아야 한다"고 이렇게 강조하기도 했습니다. 그만큼 인간을 이긴 AI, 인간과 유사한 AI를 개발하는 사람들마저 AI의 위험성을 이야기하는 만큼, 영화에서처럼 인간의 통제를 벗어난 AI가 언제든지 생길 수도 있다고 볼 수 있는 거죠. 실제로 오픈 AI는 AI의 재앙적 위험에 대응하기 위해 'AI 재앙 대응팀'을 만들었는데요. 핵 개발처럼 화학적, 생물학적 위협을 포함해 AI가 자체 복제 행위 같은 위험 행동을 하는지, 인간을 속이고 있진 않은 지 등을 분석하고 방지하는 역할을 AI 재앙 대응팀에서 한다고 합니다.
[앵커]
AI 이야기가 나올 때 AI도 어쨌든 생각을 하면 할수록 똑똑해지기 때문에, 인간의 통제 너무 귀찮은데 이렇게 생각하면 어쩌지? 이런 고민을 하게 되는데, 이 영화도 마찬가지인 거 같습니다. 그래도 아직은 AI가 완전히 인간과 구별할 수 있는 수준은 아니다, 이렇게 보이고 있는데요. 그럼에도 인간 고유의 능력을 점차 학습하고 있다고요?
[기자]
그렇습니다. 지금의 AI가 대량의 데이터를 학습하는 방식이 주로 '강화학습'이거든요. 이 강화학습이 분류 데이터, 혹은 정답에 대한 행동 이런 것들이 아니라 AI가 어떤 행동과 선택을 했을 때 그거에 따른 보상과 실제로 실패를 받으면서 어떤 식으로 선택을 하면 좋은지를 배워가는 방식인데, 이게 바로 인간의 도파민 시스템에서 착안한 겁니다. 우리가 엄마한테 칭찬을 받기 위해서 어떤 좋은 일을 하면 기분도 좋아지고 보상도 받았을 때 이 일을 계속해야겠다 하는 것처럼 AI도 인간과 똑같은 방식으로 상황에 따라 최적의 의사결정을 하는 법을 배우고 있다는 거죠. 그런데 최근에는 인간만이 할 수 있다고 여겨졌던 능력까지 AI가 학습하는 데 성공했다는 연구결과도 나왔습니다. 미국 뉴욕대 연구팀인데요. 주어진 환경을 응용하는 '체계적 일반화' 능력을 구현한 AI 모델을 개발한 겁니다. 예를 들어 인간은 뛰는 법을 배우고 나면, 뒤로 뛰기, 장애물 넘어 뛰기, 손들고 뛰기, 옆으로 뛰기 등 일일이 배우지 않아도 말을 듣고 상황에 맞춰서 응용해 적용할 수 있지만, AI는 불가능하다고 여겨져 왔습니다. 그런데 뉴욕대 연구팀이 응용력을 습득할 수 있는 메타학습법을 AI 모델에 구현하는 데 성공한 건데요. 연구팀은 개발한 AI 모델이 인간과 비슷한 수준의 체계적인 일반화 사고 능력을 보였다면서 앞으로는 인간이 사고 능력을 습득하는 과정까지 따르는 후속 모델도 연구 중이라고 밝혔습니다.
[앵커]
인간의 도파민 시스템에서 착안을 한 모델들이 구현이 되고, 메타학습법까지 구현이 됐다고 하니까 점점 정말 영화에서처럼 언젠가는 인간의 통제를 벗어나는 AI도 등장할 수 있겠단 생각이 들기도 합니다. 인공지능 기술의 위험 상황은 어떤 게 있을까요?
[기자]
네, 단기적으로 지금 우리가 지금 겪고 있는 AI의 단기적인 위험이 있죠, 가짜 정보입니다. 실제로 챗 GPT의 답변이 그럴싸해서 속기 쉽다는 이야기가 나오는 것처럼 AI가 제공하는 정보들의 허위 여부를 가려내기가 쉽지 않잖아요. 그처럼 가짜 정보들이 AI들이 만들어내는 단기적인 위험이라고 할 수 있고요. 장기적으로 봤을 때는 바로 통제 불가능입니다. 그래서 신뢰할 수 있는 AI라는 조건이 있는데, 타당하고 안전하며, 보안이 철저하고, 책임질 수 있는 투명성을 갖고 있으며, 설명과 해석이 가능하고, 공정한 특성을 지녀야 합니다.
[앵커]
그래서인지 유럽과 미국은 물론 국내에서도 AI 윤리 기준을 정해서 발표를 하고 있는데요. 하지만 AI 관련 법안까지 진행된 해외와 달리 우리나라는 아직 AI 관련 법안 진행이 더디다고요?
[기자]
네 그렇습니다. 정부가 지난 2020년에 AI 윤리 기준을 제정하면서 AI 활용과 규제에 대한 입법 진행도 속도를 낼 것으로 기대했지만, 아직 제자리걸음 상태인데요. 또 지난 9월에는 AI를 포함해 디지털 전체를 포함한 규범 질서를 담은 '디지털 권리장전'도 발표도 했지만, 이건 어디까지나 기준이자 원칙일 뿐, 실제 활용을 위한 제제는 불가능 하기 때문에 관련 입법이 필요한 상황입니다. 현재 21대 국회에 발의된 AI 관련 법안은 총 13건인데, 이 가운데 단 한 건도 통과된 거 없이 모든 법안이 국회에 계류 중인 상태라고 하니까 사실상 빨리 입법이 진행되어야 하는 상황입니다.
[앵커]
그리고 지난 1일이었죠. AI의 위험성을 인지하고 국제적으로 협력하기 위한 회의가 열렸다고요?
[기자]
그렇습니다. 국내뿐 아니라 전 세계적으로 AI 위험성에 대해서는 심각하게 받아들이고 있는데요. 미국과 중국은 물론 영국, 유럽연합 등 28개국이 영국 블레츨리 파크에 모여 제1회 AI 안전 정상회의를 열었습니다. 이번 회의에서 AI가 재앙적인 피해를 일으킬 수 있는 만큼 이를 막기 위한 국제적 협력을 담은 '블레츨리 선언'이 발표하기도 했는데요. 세계 각국이 모여 AI 관련 공동 협력을 다짐한 건 이번이 처음인데, 강제성은 없지만, 전 세계 모든 나라가 AI 모델을 만드는 데 있어서 인간이 중심적으로, 신뢰성 높게, 그리고 책임감 있게 만들어야 한다는 데 동의했다는 점에서 의미가 큽니다. 선언에 맞춰서 미국과 영국, EU는 AI 규제에 서두르고 있는데요. 조 바이든 미국 대통령은 이번 정상회의를 이틀 앞두고 AI가 만든 정보에 식별표시를 붙이는 등의 내용이 담긴 행정명령을 발표해 AI 규제에 나섰고요. 2021년 세계 최초로 AI 법 초안을 만들었던 EU도 지난 6월 최종안을 마련해 올해 의회 통과를 준비 중이라고 합니다. 이종호 과기정통부 장관이 AI 안전 정상회의에 참석해 지난 9월에 발표했던 디지털 권리 장전을 설명하는 자리도 가졌다고 하지만, 앞서 이야기했던 다른 나라의 법안이나 행정명령 같은 강제성에 있는 것과 달리, 사실상 우리나라 권리장전은 그냥 원칙 수준이거든요. 이번 정상회의의 후속 정상회의가 6개월 뒤 한국과 프랑스에서 열리는데, 이때는 장소뿐 아니라 질적으로도 AI 규제에 선도하고 발전적인 내용도 함께 발표될 수 있길 기대해봐야겠습니다.
[앵커]
정말 요즘 AI에 대한 규제 윤리 문제는 지금도 고민하고 있지만, 앞으로도 치열하게 고민해야 할 문제일 거 같은데요. 이번 영화 '시뮬런트' 통해서도 많은 분들이 함께 고민해보셨으면 좋겠습니다. 양훼영 기자와 함께했습니다. 고맙습니다.
YTN 사이언스 양훼영 (hwe@ytn.co.kr)
[저작권자(c) YTN science 무단전재, 재배포 및 AI 데이터 활용 금지]