‘이루다’ 논란으로 본 해외 사례
美·EU 편향성 조사 등 입법 움직임
“과잉 규제보다 가이드라인 마련부터”
인공지능 이루다. 출처:이루다 페이스북
12일 법조계 등에 따르면 각국의 인공지능 규제는 크게 의회 입법을 통한 하드 로(hard law)와 법적 구속력이 없는 소프트 로(soft law)로 나뉜다. 지난해 12월 한국 정부가 발표한 ‘국가 인공지능 윤리기준’을 비롯해 대부분의 국가에서 규범 차원의 가이드라인을 발표하는 추세지만 일각에서는 입법 움직임도 시작되고 있다.
2017년 미국 뉴욕시의회에서 통과된 ‘알고리즘 책임 법안’은 뉴욕시에서 구성한 특별위원회를 통해 시에서 사용되는 인공지능 알고리즘에 차별 요소가 없는지 조사를 의무화하는 것을 주요 내용으로 한다. 2019년 4월 미 상원에서 대기업의 머신러닝 시스템을 감독하기 위한 동명의 법안이 발의되기도 했다.
특히 인공지능이 치안·금융·행정·교육 등 각종 영역에 상용화되면서 편향적인 알고리즘이 실제 피해로 이어질 수 있다는 지적이 나온다. 미국 아마존은 인공지능 기반 채용 시스템이 여성에게 불리한 평가를 한다는 사실이 알려져 2018년 시스템 개발을 중단했다. 유럽연합(EU) 의회도 지난해 10월 포괄적인 AI법 권고안을 채택했다. 인공지능 기술이 심각한 윤리 원칙을 위반할 경우 인공지능의 자기학습능력을 비활성화하고 완전한 인간 통제하에 놓이도록 복원하는 내용이 담겼다.
다만 한국인공지능법학회장인 고학수 서울대 법학전문대학원 교수는 “구체적으로 무엇을 어떻게 규제할지 충분히 논의되지 않아 당장 입법은 불가능하다”면서 “기본적인 윤리 원칙을 다양한 개별 상황에 어떻게 적용할지 세부적인 가이드라인을 먼저 마련해야 한다”고 말했다.
기업 차원에서 자정 노력이 필요하다는 지적도 나온다. 마이크로소프트(MS)는 2016년 차별·혐오 논란에 휩싸였던 챗봇 ‘테이’ 사태 이후 사내 윤리위원회를 만들고 윤리 기준을 마련했다.
진선민 기자 jsm@seoul.co.kr
2021-01-13 2면
Copyright ⓒ 서울신문. All rights reserved. 무단 전재-재배포, AI 학습 및 활용 금지