유튜브 빠져 가족 전화 거절 버튼… ‘내가 보고 싶은 세상’에 갇혀 산다

유튜브 빠져 가족 전화 거절 버튼… ‘내가 보고 싶은 세상’에 갇혀 산다

입력 2022-01-03 20:48
수정 2022-01-04 03:31
  • 기사 읽어주기
    다시듣기
  • 글씨 크기 조절
  • 댓글
    0

[초연결 시대, 당신은 외로운가요<중>] 초연결의 역설… 고립 키우는 ‘소셜미디어 알고리즘’

플랫폼 오래 머물수록 광고 수익
정교한 취향 데이터로 중독 유도
나도 모르게 비슷한 콘텐츠 클릭
“가족·친구 전화 울려도 수신 거부”

견해 다른 게시물에 ‘비추천’ 남발
‘다른 생각’ 관용 줄고 편향성 커져 
“필터 버블·추천서 벗어날 권리를” 
이미지 확대
코로나19 팬데믹으로 외로움을 겪는 이들에게 소셜미디어는 도피처가 됐다. 하지만 소셜미디어는 외로움을 완전히 해소해 주지 못했다. 외로움을 느끼는 이들일수록 알고리즘이 보여 주는 자극적인 정보에 휩쓸리거나 편향된 생각 속에 스스로를 고립시키기도 했다. 초연결 시대의 역설을 마주한 우리는 공감의 반경을 다시 넓힐 수 있을까.

서울에 사는 직장인 최희수(33·가명)씨는 매일 6~7시간씩 스마트폰을 본다. 줌과 같은 화상회의 서비스로 지방에 사는 부모님과 이야기를 나눌 때도 있지만, 대부분의 시간엔 유튜브, 페이스북, 넷플릭스를 찾는다. 며칠 전에는 혼자 저녁식사를 하면서 영화 관련 유튜브 영상을 보다가 어머니의 안부 전화가 울리자, 1초 만에 수신 거절 버튼을 눌렀다. “지금은 무슨 영상이었는지 기억도 안 나요. 몰입했던 상태라 ‘10분만 더 보고 전화드려야지’ 하고 대수롭지 않게 수신 거부 버튼을 눌렀던 것 같아요. 10분 뒤 전화드렸는데, 그사이 어머니께서 주무셔서 그날은 결국 얘기를 못 했죠.”

온라인 동영상 시청은 우리 일상에서 떼려야 뗄 수 없는 일상이 된 지 오래다. 특히 코로나19 확산으로 가까운 가족 방문이나 친구와의 만남이 줄면서 자연스럽게 늘어난 혼자만의 시간을 취향에 맞는 영상을 보며 보내는 사람들이 급격히 늘었다. 실제 2018년 42.7%였던 온라인 동영상 서비스(OTT) 이용 비중은 지난해 66.3%로 올랐다. 유튜브나 넷플릭스 등 플랫폼 대부분은 사용자의 시청 내역이나 다른 콘텐츠에 대한 특정 반응 등을 분석해 ‘맞춤형’ 콘텐츠를 제공하며 사용자가 오래 머물도록 유혹한다. 이를 추천 알고리즘이라고 부른다.

추천 알고리즘은 크게 두 가지 방식으로 사용자의 관심사를 예측한다. 먼저 ‘협업 필터링’은 사용자와 성향이나 취향이 비슷한 다른 사용자가 선호하는 콘텐츠를 추천한다. ‘콘텐츠 기반 필터링’은 기존에 사용자가 선호했던 콘텐츠와 비슷한 콘텐츠를 추천해 준다. 영상뿐만 아니라 쇼핑, 음악 등의 분야에서 알고리즘이 작동하고 있다.

사용자가 클릭한 ‘좋아요’나 ‘구독’만 분석 대상이 되는 건 아니다. 사용자가 화면 스크롤을 내리다가 언제, 어떤 콘텐츠에서 몇 초 동안 머물렀는지까지 세세하게 취합된다. 이를 바탕으로 개인이 가장 좋아할 만한 콘텐츠가 눈에 띄도록 배치된다. 소셜미디어를 오랫동안 이용할수록 이러한 추천 알고리즘은 사용자의 수천개 행동 데이터를 취합해 더 정교해진다.

소셜미디어 회사들은 이를 통해 이용자가 선호하는 콘텐츠에 중독되도록 유도한다. 분노나 허위 정보를 조장하는 콘텐츠를 빈번하게 노출시켜 비판을 사는 일도 적지 않다. 이용자가 오랜 시간 플랫폼에 머물수록 기업은 더 많은 광고 수익을 얻기 때문이다. 구글은 지난 3분기에만 531억 3000만 달러에 달하는 광고 매출을 올렸다. 같은 기간 페이스북의 광고 매출은 282억 7600만 달러로 전체 매출액의 97.5%에 달한다.

일례로 워싱턴포스트에 따르면 페이스북은 2017년 사용자들이 다른 소셜네트워크서비스(SNS)로 이탈하는 현상을 막기 위해 주류 언론의 콘텐츠를 줄이고 이용자들의 상호작용에 대한 가중치를 높였다. 피드에 뜨는 게시글의 순서를 정할 때 감정 표현을 하는 ‘이모티콘’ 반응에는 5점을 부여하고, ‘좋아요’에는 1점을 매기는 식이었다. ‘재공유’된 글에도 가중치를 뒀다.

프랜시스 하우건 전 페이스북 수석 프로덕트 매니저가 지난해 10월 폭로한 문건에 따르면 페이스북은 2019년 이러한 알고리즘 개편이 잘못된 정보와 혐오를 확산시키는 데 일조했다는 사실을 파악했지만 즉각 조치하지 않았다. 내부 비판이 계속되자 2020년 9월에서야 ‘화나요’ 이모티콘 반응에 대한 가중치를 없앴다. 이용자들은 페이스북으로 멀리 사는 친구의 결혼이나 출산 소식 대신 알고리즘이 추천한 음모론을 봐야 했던 셈이다.

알고리즘의 작동 방식은 소셜미디어 이용자가 보고 싶은 정보 안에 갇혀 편향성을 띠게 하는 이른바 ‘필터 버블’ 현상을 낳는다. 한국언론진흥재단이 지난해 10월 여론조사기관 엠브레인퍼블릭에 의뢰해 소셜미디어 이용자 3000명을 조사한 결과 63.2%는 견해가 같은 게시물을 보면 ‘추천’이나 ‘좋아요’를 누른다고 답했다. 견해가 다른 경우 ‘비추천’(45.9%)하거나 ‘구독 취소’(40.0%)를 눌렀다. 황용석 건국대 미디어커뮤니케이션학과 교수는 “초연결 사회는 선호를 중심으로 연결되기에 나와 다른 생각을 가진 사람들을 접할 기회가 없어지고, 이는 다른 사람에 대한 이해나 관용을 떨어뜨린다”고 말했다.

유튜브에서 보수 성향 계정에는 보수 성향 영상이, 진보 성향 계정에는 진보 성향 영상이 더 많이 추천된다는 게 여러 연구자들의 결론이다. 이상우 연세대 정보대학원 교수는 “유튜버의 정치 동영상이 사람들의 정치적 정체성에 영향을 주고 사회적 이념 갈등을 고조시킬 수 있다”고 지적했다.

미국에서는 알고리즘이 만드는 필터 버블에서 이용자가 벗어날 수 있도록 권리를 보호하려는 움직임이 나타나고 있다. 지난해 11월 미국 하원에는 이용자가 플랫폼 사용 시 알고리즘 추천 여부를 인식하고 선택할 수 있도록 하는 ‘필터 버블 투명성 법안’이 발의됐다. 또 사업자가 개인 맞춤형 알고리즘으로 심각하게 유해한 콘텐츠를 추천한 경우 책임을 묻는 ‘악성 알고리즘 방지법’이 발의되기도 했다.

알고리즘의 폐해가 갈수록 늘어나는 만큼 소셜미디어 기업의 사회적 책임을 강화해야 한다는 목소리도 커지고 있다. 오세욱 한국언론진흥재단 책임연구위원은 “인간을 학습하는 알고리즘 기계는 공정할 수 없다는 한계를 인정해야 한다”면서 “이용자에게 최소한 추천된 이유를 알리고, 추천에서 벗어날 권리를 줘야 한다”고 말했다.

특별기획팀  기자
2022-01-04 8면
Copyright ⓒ 서울신문. All rights reserved. 무단 전재-재배포, AI 학습 및 활용 금지
close button
많이 본 뉴스
1 / 3
광고삭제
광고삭제
위로