“아빠, 도와줘” 울먹이던 딸의 목소리…AI가 만든 가짜였다
“아빠 지금 5000만원만 빨리 입금해 줄 수 있을까? 지금 이 계좌로 좀 보내줘. 나중에 설명할게.”
울먹이며 읍소하는 목소리는 대학교수 A씨가 30년간 들었던 외동딸의 진짜 목소리였다. 돈을 보내려던 A씨는 혹시나 하는 마음에 다시 딸에게 전화를 걸었다. 그러자 “아, 보이스피싱인가봐”라는 답이 돌아왔다. 휴대전화 속 목소리는 인공지능(AI) 기술로 딸의 목소리를 흉내 낸 것이었다.
AI 기술이 발전하면서 이를 악용한 범죄가 진화하고 있다. 과거 보이스피싱은 가족과 지인의 목소리를 어설프게 흉내 냈다면, 이제는 실제 목소리 정보를 AI로 합성해 조작한다. 카카오톡 프로필 사진 등을 활용해 AI 조작 영상이나 사진을 만든 뒤 금융회사의 인증망을 뚫으려고 하거나 공문서를 손쉽게 조작하다 적발되기도 한다.
이른바 ‘딥보이스’는 먼저 목소리 정보를 얻어낼 상대방에게 전화를 걸어 짧게 통화하는 것으로 시작된다. 이 목소리 데이터를 AI프로그램에 합성하면 가족이나 지인의 음성을 유사하게 만들어 낼 수 있다.
실제 서울신문이 한 딥보이스 앱에 목소리 녹음 파일을 올리자 30초도 채 안 돼 패턴과 속도 등을 분석했다. 이후 “엄마 핸드폰이 고장 나서 그런데 100만원 입금해줘”라는 문장을 글로 입력하고, 상황 등을 설정하자 녹음파일의 목소리와 비슷한 음성이 흘러나왔다.
법무법인 청의 곽준호 변호사는 “목소리 녹음 파일만 있으면 누구나 쉽게 AI로 그럴듯하게 목소리를 만들어 내 범죄에 악용할 수 있다”고 했다. 경찰 관계자도 “목소리를 수집하는 역할을 하는 ‘콜센터’를 검거하기가 쉽지 않다”면서 “이런 유형의 보이스피싱이 빈번해지고 있다”고 전했다.
경찰청에 따르면 지난해 보이스피싱 피해액은 8545억원으로 1년 전보다 91% 늘었다. 하지만 최신 기술인 딥보이스가 악용된 경우가 얼마나 되는지는 공식 통계조차 잡히지 않는다. 황석진 동국대 국제정보보호대학원 교수는 “그동안 가족이나 친구의 목소리를 흉내 내는 방식은 성공률이 낮은 편이었지만, 기술의 발전으로 피해자들이 더 쉽게 속아 넘어갈 수 있게 됐다”며 “정확한 피해 규모를 파악하는 게 우선”이라고 말했다.
AI 기술로 조작되는 것은 목소리뿐만이 아니다. 카카오톡 프로필 사진 등 얼굴 사진을 도용해 영상과 사진으로 만드는 범죄도 여전히 잦다. 이미 심각한 사회문제가 된 딥페이크 성범죄뿐 아니라 최근에는 인터넷은행의 생체 인증 서비스를 딥페이크로 뚫으려다 적발된 사례도 있다.
금융권에 따르면 지난달 한 인터넷은행에서는 고객 개인정보를 탈취한 이들이 면허증의 사진 등을 AI로 조작해 얼굴 인식 등 금융사의 생체인증을 뚫으려고 시도했다. AI프로그램에 사진을 넣은 뒤 영상을 만들었고, 이를 이용해 스마트폰 얼굴 인식으로 본인 인증을 시도한 것이다. 하지만 수상함을 감지한 은행이 이들을 적발했고, 수사기관에 넘겼다.
법원의 압수수색·구속영장 허가서나 피의사건 처분결과 통지서 등을 공문서 조작은 더 쉬워졌다. 실제로 챗GPT에 ‘전자금융사기’ 죄목으로 ‘압수수색·구속영장 허가서’ 양식을 작성해달라고 요청하면, 사건 개요, 사건명, 관련 법률 등 필요 항목을 정리해준다. 여기에 더 정밀한 명령어를 내려 실제 문서까지 만들 수 있다고 한다. 법무법인 YK의 고두희 변호사는 “한국말을 잘 모르는 외국인 범죄자들이 AI를 통해 한국 수사기관의 공문서를 위조하기도 한다”고 전했다.
이처럼 범죄에 AI가 악용되는 경우가 늘어나고 있는 만큼 수사기관의 대응도 강화해야 한다는 지적이 나온다. 이건수 백석대 범죄수사학과 교수는 “기술이 좀 더 발전해 정교해진다면 조작된 목소리나 얼굴로 사람은 물론 디지털 인증 체계까지 속일 수 있다”며 “AI가 범죄에 활용되는 통계 집계부터 시작해 진화하는 수법에 대응하는 방법을 고민해야 할 시기”라고 말했다.