■ 권석화 / 과학뉴스팀 기자
[앵커]
지난 1월 우리나라에서 인공지능 기술 관련 법적 근거를 마련한 AI 기본법이 시행됐습니다.
시행 두 달이 지난 지금, 현장에서는 어떤 변화가 나타나고 어떤 반응이 나오고 있을까요?
권석화 기자와 함께 자세히 알아보겠습니다.
안녕하세요.
먼저 지난 1월 시행된 인공지능 기본법, 어떤 법인지 간단히 설명해주시죠.
[기자]
네, 한마디로 정리하면 'AI는 키우되, 위험은 관리하자'는 취지로 제정된 법입니다.
핵심은 인공지능을 위험도에 따라 나누고, 특히 사람의 생명과 권리에 영향을 줄 수 있는 고영향 AI를 별도로 관리하는 건데요.
의료와 금융, 채용처럼 의사결정에 직접적인 영향을 주는 분야가 여기에 해당합니다.
또 AI가 만든 콘텐츠라는 사실을 이용자에게 알리는 'AI 생성물 표시 의무'도 중요한 축입니다.
이런 규정을 통해 허위정보나 딥페이크 같은 AI로 인한 피해를 줄이겠다는 건데요.
또 규제뿐 아니라 인공지능 산업을 키우기 위한 진흥 정책도 담았습니다.
인공지능 기술 경쟁력을 높이기 위한 연구개발 지원과 함께 전문 인력 양성, 공공·민간 데이터 구축을 추진하고,
스타트업과 중소기업을 위한 사업화 지원과 실증 환경 제공 등을 통해 인공지능 산업 생태계를 전반적으로 육성하겠다는 내용이 포함돼 있습니다.
다만 전문가들은 지금 법이 유럽처럼 촘촘한 규제라기보다 큰 방향을 제시한 선언적 법이고 아직은 출발점에 가깝다고 평가하고 있습니다.
시행 두 달이 됐는데, 현장 반응은 어떻습니까?
[기자]
현장에서는 필요성엔 공감하지만, 기준이 여전히 모호하다는 반응이 많습니다.
실제로 정부가 운영하고 있는 '인공지능 기본법 지원데스크' 상담을 보면 가장 많은 질문이 투명성과 고영향 AI 해당 여부였는데요.
현장에서는 어디까지가 고영향이고 저영향인지 명확하지 않아 혼란이 이어지고 있는 상태입니다.
특히 기업들은 자신의 서비스가 규제 대상인지, 그리고 어디까지 의무를 지켜야 하는지도 판단하기 어렵다는 반응인데요.
특히, 고영향 AI로 분류될 경우 추가적인 인력과 비용이 발생할 수 있어 우려를 나타나고 있습니다.
관계자의 말 직접 들어보겠습니다.
[산업계 관계자 : "(기업 입장에서는) 투명성 관련해서 투명성을 어떻게 표시를 해야 되는지, 그리고 투명성 표시가 이 사업자가 본인이 투명성 표시 의무가 있는 사업자인지 개인인지 대상이 누구인지에 대한 질문이 가장 많이 있긴 합니다."]
또 연구자들도 후발 주자로 기술 개발에 집중해야 하는 상황에서 새로운 규제를 고려해야 하는 상황이 아쉽다는 반응입니다.
정부는 이런 혼란을 어떻게 보고 있나요?
[기자]
정부도 이 부분을 상당히 인지하고 있습니다.
그래서 최소 1년 이상의 계도기간을 두고 과태료 등의 제재를 바로 적용하기 보다 현장 적응과 기준 정비에 집중하고 있는데요.
법 시행과 동시에 기업의 법률과 기술 자문을 지원하는 '인공지능기본법 지원데스크'도 운영에 들어갔습니다.
이곳에서는 법과 제도, 기술 전문가들이 참여해 기업 문의에 비공개로 상담을 제공하고 있는데요.
또 법령에 대한 기업과 국민의 이해도를 높이기 위해 AI 기본법 기준과 적용 범위 등 주요 문의를 정리한 사례집도 이달 말까지 제작해 배포할 예정입니다.
정부는 스타트업 등 산업 현장을 직접 찾아가 AI 기본법을 설명하는 지역별 설명회를 열어 기업 이해도를 높일 계획인데요.
이와 함께 제도 개선 연구도 본격화했습니다.
산업계·학계·시민사회는 물론 글로벌 기업까지 참여하는 연구반을 구성해, 고영향 AI 기준·사업자 범위 등 쟁점을 검토하고 현장 의견을 반영해 법과 가이드라인을 계속 보완해 나가겠다는 입장입니다.
그럼 반대로, 규제가 부족하다는 의견도 있나요?
[기자]
네, 있습니다.
특히 시민사회에서는 인권 보호와 피해 구제 장치가 부족하다는 비판이 나오고 있습니다.
AI 기술의 발전 속도가 매우 빠른 만큼 이에 걸맞은 규제 체계도 시급한데, 현재 법은 그 부분이 충분히 반영되지 않았다는 건데요.
인공지능의 영향력이 빠르게 커지고, 미성년자를 포함한 이용자도 급격히 늘고 있는 상황에서 보다 강한 보호 장치가 필요하다는 목소리입니다.
특히 유럽의 인공지능법과 비교하면, 위험도에 따라 책임과 의무를 구체적으로 나누고 금지되는 AI까지 명확히 규정한 것과 달리,
우리 법은 책임과 의무, 금지 기준 등이 상대적으로 부족하다는 평가도 나옵니다.
시민단체의 말 들어보겠습니다.
[이 지 은 / 참여연대 공익법센터 간사 : "우리 법에는 영향 받는 자에 대한 명확한 권리가 제시되어 있지 않습니다. 그리고 AI로 인해서 피해가 발생했을 때 이 영향 받는 자들이 어떻게 구제를 받을 수 있을지에 대한 구제 절차도 없습니다."]
이런 가운데, 법의 모호성에 대한 지적도 나오고 있다고요?
[기자]
네, 맞습니다.
특히 법조계에서는 처벌 기준과 적용 범위가 구체적이지 않아 실제 사건에 적용하기 어렵다는 지적이 나오고 있습니다.
현재 AI 기본법은 큰 방향을 제시하는 데는 의미가 있지만, 어떤 경우에 위법이 되는지, 어디까지 책임을 물을 수 있는지에 대한 기준이 여전히 모호하다는 건데요.
이 때문에 현장에서는 법을 지키려 해도 기준이 불명확해 오히려 혼란이 커질 수 있다는 우려도 나옵니다.
즉, 선언적인 수준을 넘어 구체적인 적용 기준과 세부 규정이 필요하다는 지적입니다.
그렇다면 앞으로 이런 혼선을 해소하고 피해도 줄이기 위해 어떤 방향으로 가야 할까요?
[기자]
전문가들은 핵심은 균형과 속도라고 강조합니다.
AI는 기술 발전 속도가 매우 빠른 만큼, 기존처럼 고정된 형태의 법보다는 지속적으로 보완하고 개선하는 '동적인 규제 체계'가 필요하다는 분석입니다.
또 정부는 물론 산업계와 법조계, 시민사회까지 함께 참여하는 포괄적인 논의의 장을 만드는 것이 무엇보다 중요해 보이는데요.
전문가들은 앞으로 국가 안보와 인권 보호, 산업 육성 이 세 축을 중심으로 균형 있게 보완하는 것이 시급하다고 말합니다.
전문가의 말 직접 들어보겠습니다.
[최 병 호 / 고려대학교 인공지능연구원 연구교수 : "일단 시작점이기 때문에 균형을 잘 잡고 있다고 보기는 좀 어려운 측면이 있어요. / 일단 중요한 부분들은 일단 입법 그다음에 행정, 그다음에 사법. 이 국가 기관들이 모두 모여서 머리를 좀 맞댈 필요가 있어요. 특히나 여기 사이에 이제 산업이라든가 또는 이제 시민사회라든가 이런 부분이 모두 모여서 그 합리적인 방향을 좀 추구해야 되거든요."]
완성된 법이라기보다 기술 발전 속도에 맞춰 계속 진화해야 하는 진행형 AI 기본법.
기술 속도를 법과 제도가 얼마나 따라잡을 수 있느냐가 앞으로의 핵심 과제가 될 것으로 보입니다.
[앵커]
네, 지금까지 권석화 기자와 이야기 나눠봤습니다. 고맙습니다.
YTN 사이언스 권석화 (stoneflower@ytn.co.kr)
[저작권자(c) YTN science 무단전재, 재배포 및 AI 데이터 활용 금지]