생성형 인공지능 챗지피티(ChatGPT)가 그려낸, 인공지능 기술로 해킹 공격이 더 악랄해진 미래 사회 모습. 챗지피티 생성
글과 그림은 물론 컴퓨터 명령어(코딩)까지 뭐든 생성해내는 인공지능(AI) 기술의 가파른 발전으로 진짜와 가짜의 구별이 어려워지면서 내년에는 이를 악용한 사이버 범죄가 늘어나고 ‘당한 줄도 모르는 새 당하는’ 사이버 보안 사고가 늘어날 것이라는 전망이 나왔다.
과학기술정보통신부는 한국인터넷진흥원(KISA)과 ‘사이버 위협 인텔리전스 네트워크’와 함께 ‘2023년 사이버 보안 위협 분석과 2024년 사이버 보안 위협 전망’ 보고서를 17일 내놨다. 사이버 위협 인텔리전스 네트워크는 사이버 보안 위협 정보 공유 및 침해사고 공동 대응을 위한 협력체로, 안랩·지니언스·이글루코퍼레이션 등 국내 업체와 카스퍼스키(Kaspersky)·마이크로소프트(MS)·트렌드마이크로 등 국외 기업들이 참여한다.
보고서에 따르면, 2024년에는 생성형 인공지능을 악용한 사이버 범죄가 증가할 것으로 전망됐다. 생성형 인공지능 기술의 급속한 발전으로 보안에 대한 전문적인 지식이 없는 이들까지 손쉽게 악성코드 제작뿐 아니라 취약점 확인, 사회 공학적 공격, 음성 위·변조 등 다양한 사이버 공격에 나설 수 있다는 것이다. 나아가 공격 대상의 정보를 수집하고 분석하는 것도 생성형 인공지능을 이용해 더욱 자동화하고 가속화할 수 있다.
상대를 속이는 기술도 생성형 인공지능 기술에 힘입어 더 정교해질 전망이다. 공격자가 기술 용어나 특정 비즈니스 영역에 능통하지 않더라도 공격 대상이 쉽게 속을 수 있도록 정교하게 이메일 본문을 작성하고 악성 프로그램을 제작해 주는 등 피싱 이메일 공격을 도와주는 생성형 인공지능 기반 사이버 범죄 도구가 최근 발견되기도 했다. 기존 백신이 탐지하기 어려운 변종 악성코드를 만드는 데 악용될 수도 있다.
보고서는 이같은 인공지능 기술 악용 범죄에 대응하기 위한 보안기술 개발 필요성이 높아지고 있다고 짚었다. 공격 가능성이 큰 취약점을 미리 식별하고 대응하기 위한 기술 개발이나, 생성형 인공지능 모델의 결과물을 식별하고 진위 여부를 판별할 수 있는 기술 등이 당장 현장에서 필요하다는 것이다.
특히 내년에는 ‘공격을 받았다는 사실조차 인지하지 못한 상태에서 피해를 입는 방식’의 보안 사고가 이어질 가능성이 높을 것으로 전망됐다. 개발자들이 인터넷에 무상으로 공개된 소스 코드나 소프트웨어를 이용하는 것을 악용해, 유명 오픈소스를 사칭하거나 변조된 코드를 배포하는 공격이 확대될 수 있다는 것이다. 정상 소프트웨어·서비스 제작 과정에서 악성코드가 포함돼 배포되면, 악성코드에 오염된 사실조차 인지하지 못해 연쇄적인 피해로 이어질 수 있다.
홍진배 과기정통부 네트워크정책실장은 “사이버 공격은 이제 단순히 서비스 장애나 불편을 넘어 사회 전체를 마비시키고 생명을 위협할 수 있는 중대사고로 이어질 수 있다”며 “민관이 협력해 이미 알려진 사이버 위협은 재발하지 않도록 대책을 마련하고, 새로운 위협은 선제적으로 예방할 수 있도록 노력할 것”이라고 말했다.
임지선 기자
sun21@hani.co.kr