뷰페이지

[달콤한 사이언스] 생각을 말과 글로 바꿔주는 인공지능(AI) 등장하나

[달콤한 사이언스] 생각을 말과 글로 바꿔주는 인공지능(AI) 등장하나

유용하 기자
유용하 기자
입력 2019-01-04 14:19
업데이트 2019-05-28 11:26
  • 글씨 크기 조절
  • 프린트
  • 공유하기
  • 댓글
    14

뇌 언어영역 전기신호를 AI가 목소리나 글로 변환시켜주는 기술

미국 워싱턴대 감각운동신경공학센터(CSNE) 제공
미국 워싱턴대 감각운동신경공학센터(CSNE) 제공
이세돌 9단과의 대국에서 압승을 거둔 바둑 인공지능 ‘알파고’를 만들어 낸 구글 딥마인드가 지난해 말 보드게임 분야에서 활용가능한 범용 인공지능 ‘알파제로’를 공개해 전 세계를 놀라게 했다. 최근 인공지능 기술이 눈부시게 발전하고 있다고는 하지만 사람처럼 모든 분야를 배워 활용할 수 있는 수준에는 이르지 못하고 있다.

또 특정 분야에서 활용되는 인공지능 역시 아직까지는 완벽하지 못한 것이 사실이다. 일반 대중들이 가장 가깝게 느끼는 인공지능인 AI 스피커 같은 경우도 목소리를 정확히 인식해 명령을 수행하는데는 어려움이 있다.

그런데 최근 잇따라 사람들이 머릿 속 생각을 말이나 글로 바꿔주는 기술이 초보적이기는 하지만 가능하다는 연구결과가 발표되고 있다. 세계적인 과학저널 ‘사이언스’는 지난 2일자에 이와 관련한 연구 추세를 소개했다.

뇌신경 손상으로 인해 말을 하거나 글을 쓸 수 없는 환자들의 경우 머릿 속으로는 말하고자 하는 내용이 있지만 이를 밖으로 끄집어 낼 수 있는 방법이 아직까지는 없다. 그런데 미국 콜드스프링하버 연구소에서 운영하는 생물학 분야 출판 전 논문공개 사이트인 ‘’바이오아카이브’(bioRxi)에 최근 공개된 세 편의 논문에 따르면 뇌 속에 이식된 전극을 통해 얻은 신호를 신경망 컴퓨터를 이용해 단어와 문자로 재구성하는데 성공했으며 일부는 사람들이 바로 이해할 수 있을 정도의 수준이 됐다는 것이다.

지난해 초 타계한 세계적인 물리학자 스티븐 호킹처럼 눈이나 미세한 몸짓으로 컴퓨터 커서를 작동시키거나 화면의 글자를 선택해 말을 하거나 글을 쓸 수 있지만 언어의 톤이나 억양을 조절하거나 대화에 빠르게 끼어들지는 못한다.

연구팀들이 개발한 기술은 인공지능과 신경망 컴퓨터를 이용해 뇌 신호를 언어로 직접 전환할 수 있는 방법의 첫 발을 내딛은 수준이다.

우선 미국 컬럼비아대, 호프스트라 노스웰 의대 공동연구팀은 5명의 뇌전증 환자의 청각피질에서 얻은 전기신호를 바탕으로 연구를 수행했다. 연구팀은 환자들이 오디오북과 숫자를 말하는 사람들의 목소리를 들을 때 발생하는 전기신호를 분석해 생각을 언어로 표현할 수 있도록 구성했다. 그 다음 사람들의 신경 신호를 컴퓨터 음성으로 재구성해 사람들에게 들려준 결과 75% 정도의 정확성으로 알아들었다는 것이다. 이 연구는 지난해 10월 바이오아카이브에 실렸다.

바이오아카이브 11월 말에 실린 또 다른 논문에는 독일 브레멘대, 네덜란드 마스트리흐트대, 미국 노스웨스턴대, 버지니아 커먼웰스대 공동연구팀이 뇌종양 수술을 받은 환자 6명을 대상으로 한 연구결과가 실렸다.

연구팀은 환자들에게 한 음절씩 단어를 크게 읽도록 해 녹음하는 동시에 전극으로 뇌의 음성계획영역과 목소리로 단어를 발음하도록 명령을 내리는 운동영역의 전기신호를 기록했다. 연구팀은 신경망 컴퓨터로 전기신호를 오디오 기록과 매핑시킨 다음 환자들이 발음하지 않은 단어를 생각하도록 해 인공지능으로 단어를 말할 수 있도록 해본 결과 40% 이상 이해 가능한 것으로 나타났다는 것이다.
뇌전증 환자의 대뇌에 전극을 설치해 전기신호 이상 유무를 체크하고 있는 모습 사이언스 제공
뇌전증 환자의 대뇌에 전극을 설치해 전기신호 이상 유무를 체크하고 있는 모습
사이언스 제공
미국 캘리포니아 샌프란시스코대(UCSF) 의대 신경외과 연구팀은 세 명의 뇌전증 환자들에게 글을 읽도록 한 뒤 언어영역과 운동영역에서 포착된 뇌신호로 끄집어 낸 다음 이 신호들을 재조합해 컴퓨터가 문장을 구성하도록 했다.

이렇게 뇌 신호로만으로 만들어진 컴퓨터 언어를 166명의 일반인들에게 들려준 뒤 이해정도를 측정한 결과 80% 이상의 정확도로 이해가 됐다는 연구결과를 발표했다. 이들은 앞선 연구진들보다 한 발 더 나아가 문장을 생각하도록 하고 소리 내지 않고 입만 뻥긋하는 동안 전기신호만으로 인공지능 컴퓨터가 문장을 구성하는데도 성공했다.

크리스티앙 헤르프 네덜란드 마스트리흐트대 교수는 “뇌-컴퓨터 인터페이스 연구는 생각을 컴퓨터의 목소리로 즉시 구성해내는 것이 궁극적인 목표”라면서 “상상된 언어를 실제로 구현하기 위해서는 좀 더 노력이 필요하겠지만 AI 기술과 결합될 경우 말하지 못하는 환자들에게도 일종의 ‘언어보철물’이 생기는 것”이라고 설명했다.

유용하 기자 edmondy@seoul.co.kr

많이 본 뉴스

  • 4.10 총선
저출생 왜 점점 심해질까?
저출생 문제가 시간이 갈수록 심화하고 있습니다. ‘인구 소멸’이라는 우려까지 나옵니다. 저출생이 심화하는 이유가 무엇이라고 생각하시나요.
자녀 양육 경제적 부담과 지원 부족
취업·고용 불안정 등 소득 불안
집값 등 과도한 주거 비용
출산·육아 등 여성의 경력단절
기타
광고삭제
위로