발언하는 성낙호 하어퍼스케일 AI 기술 총괄
성낙호 네이버클라우드 하어퍼스케일 AI 기술 총괄이 24일 서울 강남구 그랜드 인터컨티넨탈 서울 파르나스에서 열린 컨퍼런스 ‘단(DAN) 23’에서 발언하고 있다. 2023.8.24 네이버 제공.
환각 현상은 대규모언어모델(LLM)이 거짓 정보를 마치 사실인 것처럼 그럴듯하게 말하는 것을 의미한다. 네이버를 포함해 생성형 AI 서비스를 출시하는 회사 대다수는 이 현상을 ‘줄였다’고 밝히지만, ‘없앴다’고는 말하지 못한다. 환각 현상은 대화형 AI 서비스 기반이 되는 LLM에 아직까지는 필연적으로 존재할 수밖에 없기 때문이다.
언어 모델은 문장 내에서 단어들 사이의 관계를 파악하고 텍스트가 어떻게 이어져야 하는지를 추론해 문장을 이어 나가는 기술이라고 생각하면 쉽다. 그런데 이 모델의 학습 초점은 내용의 맞고 틀림을 분간하는 것보다 사람처럼 자연스럽게 말하는 데 있다.
할루시네이션은 이런 모델의 특성 때문에 일어난다. 앞에 제시된 단어나 문장 뒤에 더 자연스러운 단어를 선택해 이어 붙이는 식인데, ‘거짓’인 단어가 ‘참’인 단어보다 통계적으로 더 자연스러우면 선택될 수 있다. 예를 들어 미 항공우주국(NASA)의 제임스웹 망원경이 찍은 첫 번째 태양계 밖 행성 사진에 관한 기사와 텍스트 자료가 많다 보니 지난 2월 구글의 ‘바드’는 태양계 밖 행성을 찍은 역사상 첫 번째 사진을 이 망원경이 찍은 것처럼 말을 만들어 냈다.
이런 현상이 나타나서 오히려 AI에 대한 두려움이 다소 줄어들거나 맹신을 차단하는 순기능도 있었다. 하지만 실용적인 분야에 사용할 때 환각 현상이 발생하면 곤란하다. AI의 답변을 믿고 중요한 손님을 모시고 찾아간 식당이 실제로는 존재하지 않는 곳이라면 얼마나 난감할까. 다행히 네이버가 다음달 베타 출시하는 대화형 AI 검색 서비스 ‘큐’(Cue:)는 클로바X와는 작동 방식이 다르다. 네이버 측의 설명에 따르면 클로바X는 기반 모델인 하이퍼클로바X와 대화하는 서비스이고, 큐는 모델에게 검색을 시키는 서비스다. 여기에 3단계 기술을 적용해 환각 현상을 72% 줄였다고 한다. 기본 모델을 사용 목적에 맞게 미세 조정하는 파인튜닝도 할루시네이션을 줄이는 데 효과적이다. LG AI연구원이 최근 발표한 전문가용 대화형 AI 서비스는 검증된 논문만을 학습해 할루시네이션을 최소화했다고 한다.
2023-08-29 17면
Copyright ⓒ 서울신문. All rights reserved. 무단 전재-재배포, AI 학습 및 활용 금지