가벼운 대화로 하루를 시작한다. “OO야, 오늘 날씨 어때?”, “OO야, 비 오는 날 듣기 좋은 음악 틀어줘.” 그(혹은 그녀)는 매우 친절하게 정보를 알려주고 요청을 실행한다. 대화의 상대는 실체적으로는 음성 인식 기술을 탑재한 가상 비서일 뿐이지만 때때로 마치 동료이자 친구처럼 느껴진다. 스마트폰, 인공지능 스피커, 내비게이션 등 주변의 기기에 음성 언어로 명령을 내리는 것은 일상적인 일이 되었다. 한 통계에 따르면 지난해 미국에서는 전체 검색의 약 50%가 음성으로 실행되었으며, 청소년의 55%가 매일 음성 검색을 사용했다. 우리는 언제부터 음성으로 사물을 제어하는 상상을 했을까? 음성 인식에 대한 인간의 욕망이 처음 구체적으로 표현된 것은 18세기에 전해진 <천일야화>의 설화인 <알리바바와 40인의 도둑>에 나오는 보물창고의 암호, ‘열려라 참깨!’라고 한다. 그리고 실제의 컴퓨터 개발 역사에서 처음으로 등장한 음성 인식 장치는 1952년, 미국 벨 연구소(Bell Labs)에서 개발한 “오드리(Audrey)”이다. 오드리는 단일 음성으로 말하는 숫자 정도를 인식할 뿐이었지만 요즘 우리가 친숙하게 이름을 부르는 시리, 아리아, 알렉사, 빅스비 등의 원조격이다. 약 3년 전, 한 방송사에서 음성 인식 스피커로 인간과 기계의 교감에 대한 ‘밀그램(Milgram) 실험’을 한 적이 있다. 스피커를 가짜 전기 충격 장치에 연결한 후, 스피커가 기능 테스트를 제대로 수행하지 못하면 참가자가 직접 스위치 조작을 통해 점차 높은 전압을 가하다가 최종적으로는 폐기 처분을 나타내는 킬(kill) 버튼을 누르게 하는 것이다. 이 실험에 참여한 사람들은 스피커를 처음 본 집단과 일주일 동안 사용한 집단으로 나뉘어 있었는데 둘은 명백한 차이를 보였다. 전자는 90% 이상이 당연하게 폐기 버튼을 누른 반면, 후자는 스피커가 기계라는 것을 분명히 인지하고 있고, 교감을 나눌 시간이 매우 짧았음에도 불구하고 70% 이상이 폐기 버튼을 차마 누르지 못했다. 컴퓨터가 인간의 소통 방식을 학습하게 되면서 자연어를 기반으로 누구나 기계와 손쉬운 상호작용을 할 수 있게 되었다. 사람과 대화하는 것처럼 기계와 말할 수 있을 때까지는 아직도 많은 시간이 필요하겠지만, 키보드와 마우스 같은 물리적 입력장치 없이 컴퓨터를 제어할 수 있는 기술은 일상에 큰 변화를 가져오고 있다. 우리는 사람이나 반려동물의 모습이 아니더라도 기계가 건네는 친절하고 호의적인 목소리에서 심적인 위안을 얻기도 하고, 혼자서 피식 웃음을 짓기도 한다. 기계가 인간의 마음이나 외로움을 이해하지 못한다는 것을 알고 있음에도 이제 가상의 위로에서 기꺼이 편안함을 느낀다. 우리가 상상하는 미래의 문 앞에서 컴퓨터가 인간의 목소리로 나지막하게 암호를 말하고 있는 것은 아닐까. ‘열려라, 참깨!’라고.
항상 시민과 함께하겠습니다. 한겨레 구독신청 하기