3월15일 뉴질랜드 크라이스트처치의 이슬람 사원 두 곳에서 벌어진 테러는 여느 테러, 총기난사 범죄와 구별된다. 21세기 소셜미디어 시대에 개인이 기술을 이용해 극단적 증오범죄와 메시지를 얼마나 빠르게 멀리까지 확산시킬 수 있는지를 입증했다. 또한 그동안 개인정보 유출과 거래, 과도한 상업화, 편향된 정보 제공 등으로 비판받아온 소셜미디어 서비스의 사회적 책무에 대한 근본적 물음을 던졌다.
페이스북, 유튜브, 구글 검색은 테러용의자 브렌턴 태런트가 만들어 유통시킨 학살 동영상을 차단하기 위한 수고를 기울였지만, 이들 플랫폼은 결과적으로 전세계에 테러 동영상을 퍼뜨렸고 이는 테러범 의도를 도운 셈이 됐다. 유튜브와 페이스북 등은 이미 여러 차례 범죄 영상 유포로 인한 비판을 받아왔고, 대책으로 인공지능과 인력을 동원한 범죄 영상 차단 시스템을 구축해왔다고 홍보해왔다. 왜 최고의 기술력을 갖췄다는 소셜미디어 업체들은 테러 동영상을 차단하지 못했을까?
■ 신개념 테러의 등장
테러범은 범죄에 기술을 치밀하게 활용했다. 범행 직전에 극우 사이트(8chan)와 트위터에 범행을 예고하고, 영향력이 큰 유튜브 스타의 지지자들이 모여 있는 온라인 커뮤니티에 동영상을 공유해달라고 요청했다. 테러범은 범행 전에 이슬람 교도와 이민자들을 공격하는 74쪽짜리 선언문과 동영상 링크를 극우 사이트에 게시했다. 그는 “이것은 테러 공격”이라며 “유럽을 침략한 외국인들에 대한 복수”라고 선언문에서 말했다.
테러범은 카메라를 단 헬멧을 쓰고 무자비한 총기 난사 범행을 저지르는 17분 분량의 영상을 페이스북 라이브로 방송했다. 페이스북 라이브나 유튜브는 실시간 방송 스트리밍을 제공해, 누구나 이들 플랫폼을 이용해 영상을 방송할 수 있다. 이들 동영상 스트리밍 서비스는 실제 시간과 3초 안팎의 지연시간이 있을 뿐이다.
페이스북에 따르면, 페이스북에서 중계된 테러범의 라이브 동영상은 뉴질랜드 경찰의 연락 덕분에 방송이 시작된 지 몇 분 지나지 않아 삭제됐다. 페이스북은 테러 동영상의 실시간 중계 당시 동시 시청자가 10명에 불과했다고 밝혔다. 그러나 17분짜리 동영상이 대규모로 유통된 것은 페이스북 라이브로 최소 17분 동안 ‘테러 생중계’가 이뤄졌고 적지 않은 이용자가 이를 시청했을 뿐 아니라 자신의 기기로 내려받았음을 의미한다. 페이스북의 삭제에도 불구하고 테러 동영상은 커뮤니티와 소셜미디어, 다크웹 등을 통해 빠르게 확산됐다.
페이스북 뉴질랜드 대변인은 17일 범행 발생 24시간 동안 150만건의 관련 영상을 삭제하고, 120만건의 관련 영상을 업로드 도중 차단했다고 밝혔다. 페이스북이 삭제, 차단했다는 동영상의 숫자는 24시간 안에 얼마나 많은 동영상이 유통되었는지를 알려준다.
■ 어떻게 유통됐나
소셜미디어 업체들은 테러 동영상을 삭제했을 뿐 아니라, 다운받을 수 있는 경로를 찾게 해주는 검색어 자동완성도 수정해 안내를 막았다.
하지만, 테러범이 극우 사이트에 올린 선언문과 동영상 링크는 트위터, 유튜브, 레딧 등을 통해 빠르게 공유됐고 동영상 또한 다운로드됐다. 페이스북과 유튜브의 동영상 삭제에도 불구하고 다양한 형태의 동영상은 범죄자 이름, 뉴질랜드, 크라이스트처치 등과 같은 간단한 검색어로 찾아졌다.
언론도 테러 영상 콘텐츠 확산에 기여했다. 많은 언론사들은 범인이 총을 꺼내고 난사하는 장면을 편집해 방송하는가 하면, 테러범이 게시한 선언문 전체를 내려받을 수 있도록 해 비판을 받고 삭제하기도 했다.
범죄 동영상을 내려받은 이용자들은 동영상을 재게시하면서 동영상 편집도구를 이용해 손쉽게 동영상을 변형했다. 동영상에 애니메이션을 넣거나 워터마크를 추가하는 방법, 또는 동영상의 크기를 변경하는 방법이다. 일부 이용자들은 1인칭 총싸움 게임처럼 동영상 속의 사람을 애니메이션으로 변형하는 형태로 변경해 업로드하기도 했다.
뉴질랜드 크라이스트처치의 이슬람 사원 두 곳에서 50명의 목슴을 앗아간 총기 테러가 난 다음날인 16일, 사건 현장 인근의 추모 꽃무덤에 놓인 카드에 “당신들은 내 친구입니다. 당신들이 기도하는 동안 우리가 지켜드릴게요”라는 글귀가 쓰여 있다. 크라이스트처치/AP 연합뉴스
■ 테러 동영상을 왜 막지 못하나
페이스북과 유튜브는 불법 콘텐츠를 자동 감지하는 기술을 적용하고 있다. 페이스북은 마이크로소프트가 개발한 포토DNA를 사용해 아동 포르노, IS의 참수 동영상 등을 적발하고 있으며, 구글은 이와 유사한 기능을 오픈소스 버전으로 개발해 적용한다. 이들 업체들은 글로벌 인터넷 포럼이라는 조직을 만들어 저작권 위반 등 불법 콘텐츠 정보를 공유하며 해시값으로 불리는 디지털 서명을 만들어 재게시할 경우 차단한다.
유튜브의 경우 대부분의 문제 동영상이 자동화로 삭제되며, 업로드 직후 시청자가 1명도 없는 상태에서 즉시 삭제하는 경우가 전체 삭제 동영상의 73%에 이른다고 밝혔다.
하지만 해시값은 동영상을 단순 복제하거나 분할하는 경우 인식할 수 있지만, 애니메이션을 추가하거나 다른 형태로 편집하는 경우에는 유용하지 않게 된다.
포르노를 적발하는 데 활용되는 포토DNA의 자동영상 모니터링 또한 총격 범죄에서는 효율적이지 못하다. 총격 장면은 뉴스와 영화 등 다양한 맥락에서 등장하기 때문이다. 일괄 삭제할 경우, 콘텐츠 부당 검열·삭제 논란이 불가피하다. 사람이 해당 콘텐츠에 대한 뉴스가치, 공익성을 판단해야 하는 경우가 상당히 많다.
또한 페이스북과 구글 등은 인공지능을 극단적 콘텐츠 적발에 활용하겠다는 정책을 공표하고 있지만, 실제로 인공지능은 불법 콘텐츠 영상 검출에 효과적이지 못하다. 워싱턴대학의 페드로 도밍고스 교수(컴퓨터공학)는 <워싱턴포스트>와의 회견에서 “인공지능은 사람들이 믿는 것보다 크게 수준이 낮으며 정보기술 기업들은 경쟁적으로 실제보다 인공지능의 능력을 과장하고 있다”고 밝혔다. 이런 일이 일어날 때마다 구글, 페이스북 등 정보기술기업은 자신들이 홍보해왔던 인공지능이 얼마나 오류투성인지를 설명해야 하는 딜레마에 부닥치게 된다.
페이스북, 구글 등이 문제 콘텐츠 모니터링을 위해 선택한 방법은 결국 사람의 인식과 판단을 의존하는 길이다. 2018년 기준 페이스북은 약 7500명의, 구글은 약 1만여명의 콘텐츠 모니터링 요원을 확충한 상태이다.
‘테러와의 전쟁’에 정보기술을 더럽게 활용하는 범죄자와 동조자들이 소셜미디어를 토양으로 늘어난 상태다. 기술기업의 인공지능과 자동화 기술을 믿고 의존하기에 너무 심각한 상태다.
구본권 선임기자 starry9@hani.co.kr