안철수 대표 향한 구글 직원의 섬뜩한 경고
[하성태의 사이드뷰] 넷플릭스 다큐로 보는 알고리즘의 폐해
"더불어민주당이 정부가 포털 기사 배열 순서를 조정할 수 있도록 하는 법안을 발의했다고 합니다. 법안이 통과되면, 문재인 대통령 찬양하는 기사를 포털의 제일 잘 보이는 위치에 정부가 직접 자리 선정을 할 수 있게 됩니다. 어떻게 이런 유치하기 짝이 없는, 반민주적인 발상을 할 수 있는지 할 말을 잃었습니다. 과거 전두환 정권 시절의 '보도지침'을 떠올리게 합니다."
지난 9일 안철수 국민의당 대표가 페이스북에 게재한 글 중 일부다. 여당 일각에서 제기된 이른바 '알고리즘 투명화' 입법 주장에 혹독한 비판을 가한 것이다. 과거 군사정권의 보도지침까지 들먹이면서 말이다.
대한민국에서 유독 심한 언론의 포털 종속화 및 포털의 뉴스편집 편향성은 사실 해묵은 주제이면서도 그 심각성에 비해 방치 수준이었다고 해도 과언이 아니다. 더 이상 포털의 자율 규제에 맡길 수 없다는 우려가 팽배한 반면 포털은 'AI 알고리즘에 의한 뉴스 편집'을 강조하며 책임을 회피 중이다.
이에 알고리즘 투명화법 입법 및 전문가 토론을 준비중인 김남국 민주당 의원은 최근 페이스북에 연달아 관련 글을 게재하며 "알고리즘 편향성의 문제는 최근 수년 동안 지적되어왔던 문제"라며 "공부 안 하는 안철수 대표 본인이 피해자가 될 수 있다는 것도 모른다. 안 대표가 언제부터 공부도 안 하고 콘텐츠 없는 '깡통 정치인'이 됐는지 모르겠다"고 응수했다.
또 김 의원은 2016년 5월 미 백악관이 알고리즘이 편향된 데이터를 반영할 가능성을 제기한 <빅데이터: 알고리즘 시스템, 기회와 시민권(Big Data : A Report on Algorithmic Systems, Opportunity, and Civil Rights)>이란 보고서를 소개하며 "알고리즘이 차별적인 결괏값을 도출할 수 있는 본질적인 문제가 있기 때문에 기술적이든 제도적이든 알고리즘의 책임성와 투명성을 제고하기 위한 사회적인 논의가 시급하다"며 이런 주장을 이어갔다.
"알고리즘 자체가 사람에 의해서 만들어지기 때문에 알고리즘을 짜는 사람의 편향성과 왜곡된 의도에 따라서 얼마든지 선입견이 반영할 수 있고, 알고리즘이 기반한 빅데이터가 어떤 것이냐, 이용하는 사람의 편견 등에 의해서도 여러 가지 차별적, 불공정한 결과가 나올 수 있습니다."
맞다. 국내에서는 아직 포털의 뉴스편집 알고리즘 정도가 문제시되는 수준이지만 미국과 유럽 등 서구 사회에서는 이미 거대 IT 기업의 알고리즘이 '빅 브라더' 사회로 가는 초석이 될 것이란 경고가 일상화된 지 오래다.
그래서 AI 알고리즘의 폐해가 어느 정도인지를 친절하게 파헤친 문제적인 다큐멘터리 3편을 소개한다.
여성혐오와 인종차별, 그리고 감시사회의 복무에 이르기까지
▲ 영화 <마이너리티 리포트> 스틸 이미지. ⓒ 이십세기폭스코리아㈜
우리에게도 친숙한 스티븐 스필버그의 2002년작 <마이너리티 리포트>는 그야말로 선구자적 작품이라 할 수 있다. 필립 K. 딕의 동명 원작이 제시한 '범죄 예방 프로그램'이란 SF적 상상력 때문만은 아니다.
누명을 쓰고 쫓기던 톰 크루즈가 홍채 인식 프로그램을 피하기 위해 눈알을 빼는 수술을 받던 장면을 기억하는가. 18년 전 영화 속 안면 인식 프로그램은 이제 우리의 일상이 됐다. 도주하던 톰 크루즈의 얼굴을 인식한 광고판이 맞춤형 제품을 알려주던 장면 또한 긴박함 속에 웃음을 자아낸 바 있다.
SF 영화 속 이야기가 아니다. 사실 우리가 매일 소셜 미디어를 통해 접하는 맞춤형 광고가 이에 해당한다. 비단 상업 광고의 문제만이 아니다. 영국 정부는 빅 데이터와 알고리즘을 통한 범죄자 인식 프로그램을 일반 시민들을 대상으로 한 검문의 근거로 활용 중이다.
넷플릭스 다큐멘터리 <알고리즘의 편견>(2019)이 잡아낸 소름끼치는 현장은 이랬다. 영국 런던의 번화가. 사복 경찰들이 흑인 학생 네 명의 지문을 채취하고 15분 넘게 수색을 벌였다. 10대 아이들이 충격을 받은 것은 당연지사. 안면 인식 시스템이 14살 흑인 소년을 용의자로 지목하자 경찰들이 영문도 모르는 소년과 친구들의 검문에 나선 것이다.
영국의 인권단체 '빅 브라더 워치' 소속 활동가들은 이런 알고리즘의 폐해의 직접적인 피해자는 시민들이라고 말한다. 사회주의 국가도 아닌 영국에서 이러한 반인권적인 국가의 감시가 대낮에 버젓이, 그것도 고작 14살 학생을 대상으로 자행되고 있다는 사실은 충격으로 다가온다.
오프라인 결제 등 안면 인식 시스템을 전면적으로 도입 중인 중국 항저우의 한 젊은 여성은 이러한 "(AI 알고리즘으로 연결된) 사회 신용 시스템이 정말 편하다"며 "사람들의 행동이 개선될 것 같다"고 전망하기도 했다. 중국 일부 도시는 개인의 신용도를 점수화하는 사회 신용 시스템을 도입 중이라고 한다. 공산당 1당 독재가 고착된 중국의 경우야말로 이러한 '빅 브라더' 감시 체제를 전면 도입하기 용이한 국가일 것이다. 그런데 이게 과연 사회주의, 공산주의 국가만의 문제일까.
"중국과 중국의 감시, 점수 시스템을 보며 많은 사람이 이러죠. '다행이다, 우린 거기 안 살아서'. 사실 우리 모두는 항상 점수가 매겨지고 있어요. 미국도 마찬가지죠. 알고리즘적 결정론과 우린 매일 씨름하고 있죠.
누군가의 알고리즘이 어딘가에서 여러분에게 점수를 줬고 그 결과 여러분은 온라인에서 화장실 휴지를 살 때 돈을 더 내기도, 덜 내기도 해요. 제시되는 대출 조건이 더 좋기도, 나쁘기도 하고 범죄자로 추정될 가능성이 더하기도 덜하기도 하죠."
미래학자이자 <빅나인>의 저자인 에이미 웹은 그러면서 "미국과 중국의 가장 뚜렷한 차이는 중국은 그 부분에서 투명하다는 점이죠"라며 씁쓸해 한다.
같은 맥락에서 현재 AI 알고리즘 기술을 선도하는 거대 IT 기업 중 미국이 6개, 중국이 3개란 사실 또한 시사하는 바가 크다. 특히 페이스북을 필두로 애플, 아마존과 구글, 마이크로소프트와 IBM 등 미국의 글로벌 IT 기업들은 우리네 실생활에까지 깊숙이 침투해 있지 않은가.
이렇게 <알고리즘의 편견>은 이들 글로벌 기업들의 AI 알고리즘이 인종차별과 여성혐오 등 사회적 편견에 기여하는 한편 기업 이윤 추구 및 정치적 편견을 강화하고 있다고 여러 여성(과 흑인) 활동가들과 이론가들의 활동과 증언을 통해 고발한다. 이들은 입을 모아 유색인종이, 그리고 특히 여성이 알고리즘에 의한 차별에 훨씬 더 쉽게 노출되고 있다고 목소리를 높인다.
영국의 예에서 볼 수 있듯, 이는 기업들만의 문제가 아니다. 미 휴스턴의 교원 평가 시스템의 알고리즘은 한 우수 교사를 한 순간에 문제 교사로 만들었고, 해당 교사는 똑같이 말도 안 되는 이유로 차별을 받은 동료들과 함께 소송을 벌이기도 했다. 인간이 개입하는 알고리즘이 언제든 당신을, 우리를 해고하고 범죄자로 인식하며 갖가지 평가를 내리는 세상이 도래한 것이다.
우리가 치를 사회적 비용
네이버와 다음은 뉴스 편집의 객관성을 담보하고 편향성을 방지하기 위해 AI 알고리즘을 도입했다고 주장한다. 거짓말은 아닐 수 있다. 하지만 그 AI 알고리즘도 결국 사람의 개입을 전제로 하고, 그 사람은 이윤을 추구하는 기업을 위해 일한다. 어찌됐든 인간이 개입할 수밖에 없는 구조란 얘기다.
역시나 넷플릭스 다큐 <소셜 딜레마>(2020) 속 구글, 페이스북, 트위터 등 글로벌 IT 기업의 전직 고위 직원들이나 개발자들 또한 공통적으로 AI 알고리즘의 균형과 객관성을 "믿지 말라"고 경고하고 있다. "세상에서 고객을 사용자라고 부르는 산업은 딱 두 가지, 불법 마약과 이 소프트웨어 산업"이라는 일깨움 역시 꽤나 신선하면서도 섬뜩하다고 볼 수 있다.
▲ 넷플릭스 다큐 <소셜 딜레마> 스틸 이미지. ⓒ 넷플릭스
고객을 사용자라고 부르는 이들 IT 기업들은 사용자들을 최대한 플랫폼에 상주시키는 것이 목적이다. 그래야 사용자들에게 광고를 더 오래, 많이 노출시킬 수 있기 때문이다. 그런 광고를 노출하는 알고리즘은 지극히 상업적이다. 정의나 공정이 끼어들 여지가 전혀 없다.
그런 알고리즘과 IT 기업들만의 상업화된 정의는 정치마저도 오염시켰다. <소셜 딜레마>가 소개한 미 유명 대학의 연구 결과를 보자. 1만 명의 미국인은 최근 20년 간 개인적, 정치적으로 가장 극단화된 것이 바로 '트럼프 시대'였다고 답했다. 소위 '트위터 정치'에 올인하며 인종 및 여성 혐오와 갖가지 가짜뉴스를 양산한 기지가 바로 트위터였다는 사실을 떠올려 보라.
이들 글로벌 IT 기업의 갖가지 플랫폼들은 이윤 추구만 가능하다면 가짜뉴스의 온상지는 물론 정치의 도구가 되는 것도 마다 않는다. 놀라울 정도인 AI의 학습 속도는 가짜뉴스가 퍼지는 속도와 정비례한다. <소셜 딜레마> 속 "한 쪽이 다른 쪽보다 6배나 유리한데 어떻게 이길 수 있느냐"던 어느 개발자의 한탄은 의미심장하다.
이를 투표에 최대한 활용한 것도 트럼프란 정치인이었다. 이에 대해서는 또 다른 넷플릭스 다큐 <거대한 해킹>을 통해 확인하시기 바란다. 영국의 데이터 분석업체 '케임브리지 애널리티카'의 내부고발자를 주인공 중 한 명으로 내세운 <거대한 해킹>(2019)은 이 회사가 빅데이터를 영국의 '브렉시트' 투표와 미 대선에 어떻게 활용했는지를 고발한 작품이다. 실제 해당 내부 고발자는 미 청문회의 증인으로 나서기도 했다.
이렇게 빅 데이터를 활용한 AI 알고리즘의 역기능은 당신들의 문제가 아닌 우리의 문제라고 할 수 있다. 미 백악관의 관련 보고서가 나온 것이 벌써 5년 전이고, 네이버가 'AI 알고리즘 뉴스편집'을 선언한 것이 2018년 5월의 일이다. 우리는 이제 뉴스편집과 관련된 논의를 시작했을 뿐이다.
반면 3편의 다큐가 소개한 해외 사례는 이 AI 알고리즘이 전 세계를 어떻게 바꾸어 놓고 있는지, 사회적 편견을 강화하는 것은 물론이요, 반인권적인 감시와 차별을 가능하게 만들고 어떻게 정치에 개입하고 있는지를 생생하고 무시무시하게 증명하고 있다. 우리 또한 더 많이, 더 넓게 관련 논의를 이어가야 할 이유다.
포털의 뉴스 편집 문제로 국한해 보면, 알고리즘 투명화법이 유일한 대안일 수 없다. 일각에서 시민사회 및 전문가 등이 참여하는 공영포털의 필요성을 제기하는 움직임을 반기는 것도 그래서다.
이미 심각한 문제가 제기돼 온, 우리 실생활에 깊숙이 침투한 이 AI 알고리즘의 명암에 대해 우리는 좀 더 말하고 토론하고 대안을 논의해야 한다. 더 큰 사회적 비용을 치르기 전에 말이다. 이미 AI 챗봇 '이루다' 논란을 통해서도 이 AI 알고리즘의 명암을, 폐해를 경험하지 않았는가.