“인간 지능 뛰어넘을 수 있어… 잠재적 위험 인지·대비해야”
세계적 물리학자인 스티븐 호킹(75) 박사가 “인공지능(AI) 기술이 인류 문명사에서 최악의 사건이 될 수 있다”고 경고했다.스티븐 호킹 박사.
AP 연합뉴스
AP 연합뉴스
그가 AI의 위험성을 경고한 것은 처음이 아니다. 지난 3월 영국 더타임스 인터뷰에서 호킹 박사는 기후변화와 AI를 인류가 직면한 새로운 도전이라고 정의하며 “우리는 이런 위협을 빨리 인지하고 그들이 조종 불능이 되기 전에 바로잡아야 한다”고 주장했다. 그는 이어 “이것은 새로운 형태의 세계정부일 수 있다. 그러나 이것은 독재가 될 수도 있다. 이 모든 것이 파국을 예측하는 것처럼 들리겠지만 나는 인류가 이런 도전에 응전할 수 있으리라고 본다”고 밝혔다.
최근 과학계와 정보기술(IT)업계 등에서는 AI에 대한 찬반양론이 거세다. 테슬라와 스페이스X의 최고경영자(CEO) 일론 머스크는 호킹 박사처럼 AI에 대해 우려하는 쪽이다. 그는 지난 9월 트위터를 통해 “북한 수소폭탄 실험은 사소한 위기에 불과하다. 현존 인류를 가장 위협하는 것은 국가 간 AI 경쟁이다. 이것은 3차 세계대전의 원인이 될 가능성이 크다”고 말하기도 했다. 반면 마크 저커버그 페이스북 CEO는 “AI의 미래에 대해 매우 낙관적”이라고 밝혔다.
김민희 기자 haru@seoul.co.kr
2017-11-08 27면
Copyright ⓒ 서울신문. All rights reserved. 무단 전재-재배포, AI 학습 및 활용 금지