두달 전 초거대 인공지능(AI) ‘라마2’를 선보인 메타(옛 페이스북)가 후속작 개발에 속도를 내고 있다. 챗GPT 개발사 오픈AI의 ‘GPT4’에 뒤쳐지는 성능을 빠르게 개선하는 한편, 프로그램 설계도를 공개하는 오픈소스 정책으로 초거대 AI 시장의 주도권을 잡아내겠다는 전략이다.
11일 월스트리트저널(WSJ)은 메타가 기존 라마2보다 수배 더 강력한 AI 모델을 개발 중이라고 보도했다. WSJ은 “과거 보고되지 않았던 새 AI 모델이 2024년 초 학습을 시작할 전망”이라며 “메타가 새 AI 개발을 위해 더 많은 엔비디아 H100 칩셋을 사용한 데이터센터 건설에 착수 중”이라고 전했다. 라마2는 MS 클라우드 ‘애저’ 위에서 작동 중이다. 메타의 새 데이터센터 건설은 오픈AI 최대주주인 MS 의존도를 떨어뜨리기 위한 조치로 풀이된다.
메타는 새 AI가 오픈AI의 GPT4를 넘어서길 기대하고 있다. 일반적으로 생성형 AI 성능은 학습에 쓰인 매개변수(파라미터)에 비례한다. GPT3에 쓰인 매개변수는 1750억 개로, GPT4는 1조5000억 개에 이르는 것으로 추정된다. 반면 메타가 공개한 라마2의 매개변수는 700억 개에 불과하다. 절대적인 학습량 차이가 극명하다.
대신 메타는 오픈소스로 높은 활용성을 제공하는 데 초점을 뒀다. 오픈AI나 구글과는 달리 설계도를 공개해 누구나 라마2를 최적화할 수 있게 하는 전략이다. 이 덕분에 라마2는 일부 분야에서 GPT3.5를 뛰어넘는 성능을 내고 있다.
메타는 한발 더 나아가 기초체력인 매개변수를 높인 ‘라마3’로 AI 시장 패권다툼에 뛰어들겠다는 계획이다. WSJ은 “AI시장에서 뒤쳐진 마크 저커버그 메타 최고경영자(CEO)가 오픈소스와 무료화라는 방식을 통해 주요 세력으로 부상하려 한다”고 평가했다.
< 저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지 >