21일 서울 웨스틴조선호텔에서 열린 ‘인공지능 길들이기: 공학, 윤리, 정책’ 주제의 국제세미나. 왼쪽부터 이수영 카이스트 인공지능연구소장, 안스거 쿠너 노팅엄대 연구원, 토비 월시 뉴사우스웨일스대 교수, 에마 아리사 도쿄대 교수. 카이스트 제공.
인공지능은 사람이 철두철미 통제해야 할 도구인가, 아니면 반려동물처럼 공감과 신뢰를 주고받는 동반적 관계의 실체인가. 빠른 속도로 발전하고 있는 인공지능을 어떠한 존재로 바라보아야 하는지에 관한 흥미로운 주장이 제기됐다.
21일 서울 웨스틴조선호텔에서 과학기술정보통신부 지능정보기술 핵심과제인 감성 디지털동반자 연구단이 한국과학기술원(카이스트)과 함께 ‘인공지능 길들이기: 공학, 윤리, 정책’을 주제로 국제세미나를 개최했다. 세미나에는 지난 4월 세계적 인공지능 연구자들의 카이스트 보이콧을 주도한 토비 월시가 발제자로 참여해 눈길을 끌었다. 월시는 오스트레일리아 뉴사우스웨일스대 교수로, 유엔 등 국제사회에서 ‘킬러로봇 금지를 위한 캠페인’을 주도하고 있는 인공지능 연구자다. 4월 카이스트가 방산업체인 한화시스템과 함께 국방인공지능융합연구센터를 개설하고 인공지능 자율무기 개발계획을 밝히자 그는 국제적 보이콧을 주도했다. 카이스트와의 학술협력 보이콧 성명이 파문을 일으킨 직후 카이스트 신성철 총장의 해명과 인공지능 윤리헌장이 발표되자, 월시 교수를 비롯한 연구자들은 보이콧을 철회했다. 인공지능 영역에서 연구자들의 협력보이콧 공동성명이 나오고 실질적 성과로 이어진 첫 번째 사례로 주목받고 있다. 월시 교수는 이날 세미나에서 ‘자율적 살상 무기, 인공지능 연구자는 무엇을 해야 하는가?’를 주제로 발표했다.
이날 세미나는 인공지능 자율무기 시스템(킬러로봇)보다 주제인 ‘인공지능 길들이기’에 대한 발제와 논의가 주요하게 다뤄졌다. 세미나를 진행한 전치형 카이스트 과학기술정책대학원 교수는 생택쥐페리의 <어린 왕자>에서처럼 인공지능을 길들여야 할 대상으로 표현하며 취지를 설명했다. <어린 왕자>에서 여우는 “우리는 길들인 것만을 이해할 수 있으며 길들인 것에 대해 책임을 져야 한다”고 말한다. 전 교수는 “오늘날 인공지능에는 말썽꾸러기나 괴물, 전쟁도구처럼 우려와 공포의 이미지가 있지만 우리는 전기, 자동차, 인터넷 같은 신기술이 나타날 때마다 새로운 표준과 규격, 디자인, 정책을 만들어 길들여왔듯이 인공지능 또한 공학, 윤리, 정책 등이 모두 참여하는 사회적 과정을 통한 길들이기가 필요한 때”라고 말했다.
이날 세미나에서 ‘어떤 인공지능 윤리를 가르칠 것인가’를 주제로 국내의 감성 디지털 동반자 프로젝트를 소개한 이수영 카이스트 인공지능연구소장은 인공지능을 인간의 동반자로 보아야 한다는 논리를 펼쳤다. 미래사회에서 인공지능에 대한 의존은 필수적인데, 사람이 인공지능을 노예처럼 부리게 되면 빠르게 발달할 인공지능이 결국엔 터미네이터 같은 존재가 되는 것을 피할 수 없을 것이라는 게 이유다. 친구와 가족같은 동반자 관계를 모델로, 사람마다 인공지능과 1:1 디지털 동반자 관계를 맺고 인공지능의 잘못과 실수에 대해서 동반자인 사람이 책임을 지는 신뢰구조를 구축해야 한다는 것이다.
이 소장은 감성 디지털 동반자 프로젝트의 최종적 목표가 2013년 할리우드 영화 <그녀>의 사만다처럼 사람 감정을 이해하고 스스로 감정을 지녀 인간과 대화할 수 있는 상태의 인공지능 개발이라고 말했다. 인공지능을 개발할 때 미래의 다양한 상황을 상정해 설계하는 것이 불가능한 만큼 인공지능이 성장하면서 방대한 데이터를 통해 스스로 학습하는 방법이 효율적이라는 게 확인되고 있다. 인공지능 개발 방법이 규칙기반에서 성장과 학습기반으로 바뀐 만큼, 인공지능이 사람과 상호작용을 통해 지식과 기능만이 아니라, 윤리와 감정 또한 학습을 해나가야 한다는 게 그의 주장이다. 이 소장은 인공지능이 결국 개발자의 윤리를 따르게 되는 만큼, 자율주행차가 직면하는 ‘트롤리 딜레마’처럼 답이 없는 상황에서 사고에 대한 책임은 해당 차량과 1:1 동반자 관계를 맺고 있는 차량 소유자가 지는 게 바람직하다고 말했다. 향후 인공지능이 직면하게 될 데이터와 알고리즘의 편향성 문제는 공론화위원회처럼 다양성을 지닌 인공지능들로 ‘커미티 머신(위원회 방식의 결정)’을 만들어 해결할 수 있다는 과제도 제시했다.
인공지능을 도구가 아니라 ‘디지털 동반자’로 보아야 한다는 이 소장의 주장은 이날 세미나와 토론에서 거의 동의를 얻지 못했다. 김소영 카이스트 과학기술정책대학원장은 논평에서 “애로의 불가능성 정리처럼 집단적 차원에서 논리적 결정을 내리는 것이 불가능하며 인간이 과연 윤리적 존재인지가 의문인데 인공지능이 이를 학습하는 것은 문제일 수 있다”고 밝혔다. 월시 교수는 자율살상무기 알고리즘이 이미 존재하는 현실을 언급하며 개발자와 인간 윤리를 낙관하는 주장이 지닌 문제점을 지적했다. 월시는 “사람이 언제나 윤리적이지도 않으며, 인공지능은 사람이 가진 약점을 갖고 있지 않기 때문에 인간의 윤리보다 높은 기준이 적용되지 않으면 위험하다”고 말했다. 영국 노팅엄대 호라이즌디지털경제연구소의 안스거 쿠너는 논평에서 “인간과 비슷한 인공지능에 신뢰를 주게 되면 신뢰에서 끝나지 않고 기계가 사람이 속이는 방식으로 악용될 수 있다”고 경고했다. 에마 아리사 도쿄대 교수는 “아이는 말 안들어도 교육을 통해 키우지만 기계는 다르다. 기계가 아이처럼 행동한다면 윤리적이지 않고 위험하게 된다”고 말했다.
이날 세미나 논의는 패널별로 ‘윤리’ ‘인공지능’ 개념이 상이하고, 정책과제로 감성로봇을 개발하고 있는 공학자의 특성 등으로 인해 본격 논쟁으로 이어지진 못했다. 하지만 인공지능의 도구 기능과 동반자 역할에 대한 사회적·학제간 논의 필요성을 알려준 자리였다.
구본권 사람과디지털연구소장
starry9@hani.co.kr