누리소통망(SNS) 서비스 페이스북을 운영하는 메타가 올 초 선보인 인공지능(AI) 초거대 언어모델(LLM)
‘라마’(Llama) 새 버전의 설계도를 공개했다. 개인 개발자나 기업들이 라마를 연구 목적뿐 아니라 상업 목적으로도 활용할 수 있도록 한 것이다. 초거대 언어모델 관련 기술의 세부 사항을 비밀에 부치는 오픈에이아이(OpenAI)·구글 등과 상반된 행보라는 점에서 눈길을 끈다.
메타는 차세대 초거대 언어모델 ‘라마2’를 제3자가 연구 및 상업 목적으로 활용할 수 있도록 오픈소스(개방형 접근) 형태로 공개한다고 20일 밝혔다. 메타 쪽은 “개방형 접근 방식을 통해 생성형 인공지능 기술의 발전과 안전한 개발을 도모하겠다”고 설명했다.
앞서 메타는 올 초 연구원들을 대상으로 초거대 언어모델 ‘라마’의 설계도를 공개했다. 메타는 “라마 출시 뒤 연구원들로부터 받은 접근 요청은 7월 현재 누적 10만건을 넘어섰다”고 밝혔다.
메타에 따르면, 라마2는 라마에 견줘 40% 더 많은 2조개 토큰(말뭉치 데이터)을 학습했다. 하나의 언어모델이 처리할 수 있는 토큰의 양을 뜻하는 컨텍스트 길이 역시 라마에 비해 2배가량 길다. 메타는 “컨텍스트 길이가 길수록 언어모델이 더 많은 정보와 맥락을 이해할 수 있다”고 설명했다. 라마2는 70억개, 130억개, 700억개 등 파라미터(매개변수) 규모에 따라 3가지 모델로 출시됐다. 메타 관계자는 “경량화된 모델이 필요한 경우에는 매개변수가 작은 버전을 선택하는 등, 개발자들이 각자 필요한 조건에 따라 모델을 골라 쓸 수 있다”고 말했다.
라마2는 제3자가 연구 목적뿐 아니라 상업 목적으로도 활용할 수 있다는 점에서 오픈에이아이(OpenAI)와 구글 등 경쟁 기업 것과 차별점을 갖는다. 메타는 우선 마이크로소프트(MS) 클라우드 플랫폼 ‘애저’에 라마2를 제공하기로 했다. 엘지(LG)·아마존·퀄컴 등과 협력도 예고했다. 반면, 오픈에이아이는 지난 3월 선보인 최신 언어모델 지피티(GPT)4의 설계도(소스코드)를 공개하지 않았을 뿐 아니라, 매개변수 규모와 학습 데이터 양 같은 기술 관련 정보도 비밀에 부치고 있다.
마크 저커버그 메타 최고경영자(CEO)는 이날 자신의
페이스북을 통해 “메타는 오래 전부터 인프라 및 인공지능 작업물들을 오픈소스화해 왔다. 이를 통해 우리는 산업 전반의 발전을 주도하며 더 나은 제품을 만들 수 있었다. 소프트웨어를 오픈소스로 공개할 경우 더 많은 개발자들이 이를 세심하게 살펴 잠재적인 문제를 찾아내 고칠 수 있어, 안전성과 보안성을 높이는 데에 도움이 된다”고 밝혔다.
메타가 올 초 선보인 초거대 언어모델 ‘라마’의 새 버전을 19일(현지시각) 오픈소스로 공개했다. 라마 공식 블로그 갈무리
업계에선 뒤늦게 초거대 언어모델을 공개한 메타가 오픈소스 전략을 통해 생태계 내 영향력을 빠르게 넓혀 가려는 전략이란 분석이 나온다. <로이터>는 이날 “라마만큼 정교한 모델을 기업들이 널리 사용할 수 있도록 무료 개방함으로써 오픈에이아이 같은 선수들이 생성형 인공지능 소프트웨어 초기 시장에서 구축한 선점 효과를 (메타가) 위협할 수 있을 것”이라고 보도했다.
일각에선 기술 성숙도가 충분히 올라오지 않은 상태에서 섣불리 언어모델을 오픈소스화할 경우, 가짜 정보 범람과 혐오 발언 생성 등 부작용을 겪을 수 있다는 우려도 나온다. 오픈에이아이는 2015년 설립 당시 “인공지능 기술을 특정 기업이 독점해선 안 된다”며 기술을 오픈소스로 공개하기로 했다가 최근 철회했다.
한편, 그동안 인공지능 개발에 소극적인 것으로 알려졌던 애플도 자체 초거대 언어모델을 개발 중이다. <블룸버그>는 19일(현지시각) 익명 관계자 말을 인용해, 애플이 자체 인공지능 초거대 언어모델을 개발하기 위해 ‘에이잭스’라는 이름의 조직을 출범하고, ‘애플 지피티’라는 이름의 챗봇 서비스를 만들었다고 보도했다.
정인선 기자
ren@hani.co.kr