
[아이뉴스24 이정일 기자] 인류가 화성에 갈 수 있네 마네 하는 이 판국에 ‘지구평면설’을 믿는 사람들이 있다. 21세기에 그것도 미국에서다. 인터넷을 처음 상용화하고 가장 먼저 달에 발자국을 찍은 그 과학 강국에서. 아이러니한 일이다.
수년 전 텍사스테크 대학의 에슐리 랜드럼 교수 연구팀이 지구평면설을 믿는 미국인 30명을 인터뷰했다. 결과는 뜻밖이었다. 30명 중 29명은 유튜브에서 지구평면설을 믿게 되었고, 나머지 한 명은 가족의 영향을 받았다. 연구팀에 따르면, 29명이 처음부터 확고했던 것은 아니다. 호기심에 관련 영상을 찾아보다가 유튜브가 비슷한 영상을 계속 추천했고 어느새 ‘지구는 평평하다’는 믿음이 생긴 것이다. 유튜브는 어쩌다 이들에게 잘못된 신념을 배양시켰을까.
유튜브 추천 알고리즘은 영업 비밀이지만 다음 두 가지가 유력하다. 이용자가 시청한 콘텐츠를 분석해 그와 비슷한 콘텐츠를 추천하는 콘텐츠 기반 필터링(contentbased filtering), 그리고 비슷한 성향의 다른 사용자들이 좋아하는 콘텐츠를 추천하는 협업 필터링(Collaborative Filtering). 즉, 내가 좋아하고 나와 비슷한 성향의 다른 누군가가 즐기는 콘텐츠를 끊임없이 추천해주는 식이다. 유튜브는 그렇게 사람들을 오래 붙잡아둔다. 여기까지는 자본주의의 그럴듯한 성공 스토리다.
하지만 그 이면은 불편하기 짝이 없다. 알고리즘은 관심 있는 콘텐츠를 제공하는 데 그치지 않고 더 강경하고 편향된 영상을 추천한다. 그 결과 ⓵이용자는 자기 반복적인 정보에만 노출되는 필터버블(filter bubble)에 빠지고 ⓶내 생각과 반대되는 정보를 회피하면서 무조건 내가 옳다고 믿는 ‘확증편향’이 생긴다.
노스캐롤라이나 대학의 제이넵 튜페크치 교수가 뉴욕타임즈 칼럼에서 ⓵과 ⓶의 위험을 경고한 것은 2018년이다. 그 이후 상황은 좀 나아졌을까. 로이터저널리즘연구소가 최근 펴낸 ‘2025년 저널리즘, 미디어, 기술트렌드와 예측' 보고서는 “인공지능(AI)의 가세로 알고리즘이 확증편향을 더욱 강화할 수 있다”고 경고했다.
알고리즘에 지배받는 ‘알고리즘 사회’는 우리가 상상하는 것 이상으로 위험할 수 있다. 베르나르 스티글러 교수는 저서 ‘자동화 사회’에서 알고리즘이 사람들을 극단으로 편향시키는 위험을 ‘알고리즘적 통치성’이라고 꼬집었다. 컬럼비아 대학의 제이넵 투펙치 교수는 ‘토끼굴’로 비유했다. ‘이상한 나라의 앨리스’에서 앨리스가 토끼굴에 들어가 비현실적인 세계에 빠져들 듯이 알고리즘을 통해 더 깊은 극단으로 끌려 들어간다는 의미다.
그러니 저 29명도 결국 그렇게 알고리즘에 지배돼 지구평면설에 빠져든 것이다. 그나마 지구평면설은 개인적인 신념에 그친다. 그저 이상한 사람 취급을 받을 뿐이다. 문제는 개인이 아니라 집단이, 약자가 아니라 권력자가 극단적 신념을 가졌을 때다.
탄핵 정국의 혼란스러운 상황에서 국민의힘 권영세 비상대책위원장이 의미심장한 말을 남긴 적이 있다. “(대통령에게) 편향되게 만드는 부분이 있어서 (유튜브를) 조심해야 한다. 레거시 미디어(전통 매체)를 보시라 했다.”(2월17일 관훈클럽에서).
윤 대통령에게 알고리즘의 위험성을 직언했다는 것인데, 글쎄다. 확증편향은 쉽게 귀를 열지 않는 법이다. 음모론과 확증편향에 빠진 권력자, 그리고 그것을 신념이라고 우기는 추종자들. 니체 말마따나, 신념을 가진 사람이 가장 무섭다. 그 신념이 알고리즘의 극단적 편향에 따른 결과라면 더더욱.
탄핵 정국은 종점을 향하고 있지만 알고리즘은 또 다른 숙제를 남긴다. 알고리즘 추천을 기술 발전의 편리함으로 간과할 것인가. 그렇게 배양되는 위험한 광신적 신념은 어쩔 것인가. 그렇다면 알고리즘의 편향성은 어떻게 해소할 것인가. 탄핵 정국이 끝나도 잊지 말아야 할 질문이다.
/이정일 기자(jaylee@inews24.com)
--comment--
첫 번째 댓글을 작성해 보세요.
댓글 바로가기