법무부, 범죄 예측·대응 AI 등 개발
“‘미래의 범죄’ 효율적으로 차단”
“AI 위험도 평가 장치 마련해야”
인공지능(AI) 관련 이미지. 픽사베이 제공.
늦은 저녁 범죄 발생률이 높은 경기도의 한 우범지역. A씨가 이곳에 들어서자 휴대전화에 이 지역이 위험한 이유가 담긴 문자메시지가 발송된다. 문자로 최근 범죄 내용을 묻자 인공지능(AI)이 실시간 답장을 준다. 일부 골목에 설치된 AI 스피커는 도움을 요청하는 목소리나 범죄로 의심되는 행위가 벌어지면 이를 인지한 뒤 상황에 맞는 경찰관의 경고 목소리를 내보낸다.
법무부가 지난달 연구 용역에 착수한 ‘범죄예방 분야에서의 거대언어모델(LLM) 기술’이 실제 현장에 적용됐을 때 예상할 수 있는 모습이다. 거대언어모델은 학습한 데이터를 인간의 언어로 자연스럽게 답변하는 등 상호작용할 수 있는 AI 기술이다. 전문가들은 이 기술 연구가 이뤄지면 범죄 분야에 특화된 챗GPT는 물론 현장에서 인간의 언어로 대응할 수 있는 AI도 실현 가능할 거로 전망한다.
15일 법조계에 따르면, 최근 정부와 지방자치단체가 범죄를 감시·예방하는 AI 기술 개발에 나서면서 공상으로만 여겨졌던 ‘미래의 범죄’ 차단 가능성 등에 대한 기대감도 높아지고 있다. 영화 ‘마이너리티’처럼 범죄가 얼이나기 전 막는 시스템 개발이 점차 현실화되고 있는 것이다.
앞서 법무부는 지난 2월부터 과학기술정보통신부와 ‘재범징후 선제적 감지 및 대응력 강화사업 신규과제’의 일환으로 강력범죄를 예측·대응할 수 있는 AI 신기술도 개발 중이다. 법무부 측은 “범죄예방 업무에서 신기술 활용 가능성을 파악할 것”이라고 밝혔다. 대검찰청에선 검사 업무를 보조하는 이른바 ‘생성형 AI 수사관’도 연내 도입을 준비 중이다.
지자체에서 개발한 AI는 이미 현장에서 적극 활용되고 있다. 안면 인식 기술로 아동·청소년 성착취물을 특정하는 서울시의 AI 감시 기술, 사건·사고 빅데이터에 기반한 서울 서초구의 ‘범죄예측지도’ 서비스 등이 대표적이다.
다만 전문가들은 이런 기술이 기본권 등을 침해하지 않도록 유럽연합(EU)처럼 AI 위험도를 평가·규제할 수 있는 법안 마련에도 속도를 내야한다고 제언한다. EU는 지난 8월 1일 AI 규제법 발효로 AI를 위험 정도에 따라 차등 규제하고 있다.
김명주 서울여대 정보보호학과 교수는 “AI가 얼굴 등 생체 정보를 수집하거나 개인 데이터를 기반으로 범죄 가능성을 평가하고 신원을 특정하는 것만으로도 인권 침해의 소지가 생길 수 있다”고 말했다. 염흥열 순천향대 정보보호학과 교수는 “필요에 따라 AI 기술자에게 개발을 금지하거나 보완 지시를 할 수 있는 제도적 장치부터 마련할 필요가 있다”고 말했다.
Copyright ⓒ 서울신문. All rights reserved. 무단 전재-재배포, AI 학습 및 활용 금지