AI 발전에 따른 양극화
신기술 사용 여부 따라 개인차 커사회과학·인문학·법률 등 전문가
개발 단계부터 팀 이뤄 문제 예방
AI기술 사용에 사회적 합의 필요
인간, 모든 의사결정 책임자 돼야
AI 지배 사회 예방할 제도 마련도
‘2023 서울미래컨퍼런스’ 참석자들이 25일 서울 중구 웨스틴조선호텔 그랜드볼룸을 가득 메운 채 강연자들의 토론을 경청하고 있다. 이번 컨퍼런스에서는 세션별 강연과 함께 4개의 토론이 마련됐다.
홍윤기 기자
홍윤기 기자
AI가 세상을 바꾸지만 누군가는 그 혜택을 받지 못하고 소외될 수 있다. 25일 서울 중구 웨스틴조선호텔에서 열린 ‘2023 서울미래컨퍼런스’에서 기조연설자인 제임스 랜데이(인간중심AI 연구소 부소장) 미국 스탠퍼드대 컴퓨터공학과 교수와 정재승 카이스트 뇌인지과학과 교수는 기술이 발전할수록 차별 문제가 심화될 수 있다는 데에 공감하고, 인간을 보다 존중하고 평등하게 하는 AI를 개발해 사용하기 위한 방법론에 관해 대담했다.
기술 발전이 초래하는 양극화는 기존 사회문제보다 심각하다. 랜데이 교수는 기조연설 중 “AI가 발달하면서 방사선사라는 직업이 사라질 것이라던 제프리 힌턴 캐나다 토론토대 컴퓨터공학과 교수의 예측은 틀렸다”며 “방사선사라는 직업이 아니라 AI를 사용하지 못하는 방사선사가 사라지게 되는 것”이라고 말했다.
정 교수도 토론에서 이 부분을 언급하며 “예를 들어 뇌에 캡슐을 삽입해 기억력을 강화하고 학습 효율을 높이는 여러 가지 기술이 등장하게 될 것 같다”며 “20~30년 뒤 이 기술을 사용한 사람과 그러지 않은 사람이 같이 입시나 취업, 고시를 치르게 될 수 있다”고 말했다. 토론 진행을 맡은 이정혜 서울대 공학전문대학원 교수도 “벌써 ‘챗GPT’를 빠르게 활용하는 사람들은 시험이나 숙제에 활용한다”며 “사회적으로 불평등을 심화시킬 수 있는 요인이 기술로부터 발현될 수 있다는 생각이 든다”고 말했다.
랜데이 교수는 이런 문제를 예방하기 위해 AI의 개발 단계부터 각 분야 전문가가 팀을 이뤄야 한다고 말했다. 그는 “AI 전문가와 디자이너도 필요하지만 사회과학과 인문학 쪽 사람들도 필요하며 작업하는 분야에 따라 의학, 법률, 환경 관련 전문가가 필요할 수 있다”면서 “이런 팀원들은 처음부터 진정한 파트너가 돼야 하고 나중에 안전을 확인해 달라고 요청하는 게 아니라 만들 때 신뢰를 얻어야 한다”고 말했다.
기술을 어디에 쓰느냐보다 기술이 사회에 미치는 영향을 학생들과 연구하는 정 교수는 “AI 기술은 어느 순간 부작용이 생겨서 금지하거나 누군가가 룰을 만들어서 규제할 수 있는 상황은 아닌 것 같다”며 “기술을 어떤 곳에서는 사용해도 되고 어떤 곳에서는 사용하지 말아야 하는지에 대한 사회적 합의, 시민들의 합의가 필요하다”고 말했다.
이 교수는 토론에서 “AI가 점점 똑똑해지면서 그 영향을 받아 의사를 결정하는 사람이 의사 결정의 주체가 맞을까라는 생각이 들 수밖에 없다”며 “진짜 의사 결정의 주체가 누구라고 생각하느냐”고 물었다. 이에 대해 랜데이 교수는 “인간이 책임자가 돼야 하며 아주 사소한 결정을 제외한 모든 결정을 내려야 한다”며 “사람의 건강과 고용 안정에 영향을 미치고 재정에 영향을 미치는 모든 결정엔 사람이 참여해야 한다”고 말했다.
반면 정 교수는 “책임은 인간이 지겠지만 결국 우리가 검색어를 입력하고 추천 목록의 맨 위의 것을 선택하듯 AI가 제시한 결과값만 따르는 문화가 생기게 될 것”이라며 “AI가 영화 ‘터미네이터’에서처럼 우리를 멸종시키려 하기보다 어느새 우리 사이에 들어와 사실상 사회를 지배하는 일들이 벌어지지 않도록 제도를 만들고 합의를 이끌어 내야 한다”고 말했다.
2023-10-26 2면
Copyright ⓒ 서울신문. All rights reserved. 무단 전재-재배포, AI 학습 및 활용 금지