엔씨소프트(036570)가 오픈소스 모델 기반 튜닝 거대언어모델(LLM)인 ‘라마 바르코 LLM’을 26일 공개했다.
라마 바르코 LLM은 오픈소스 모델 ‘라마 3.1’에 엔씨소프트의 자체 기술력을 더해 한국어 성능을 향상시킨 튜닝 모델이다. ‘소규모-고성능’이 특징으로 한국어 LLM의 사고력을 특정하는 로직kor 벤치마크에서 파라미터 100억 개 이하 동급 공개모델 중 1위의 성능을 기록했다.
라마 바르코 LLM을 △챗봇 △품질보증(QA) △자연어 생성 등 다양한 분야에서 활용 가능한 것도 특징이다. 엔씨소프트 관계자는 “라마 바르코 LLM은 한국어 인공지능(AI) 서비스 지원을 위해 소규모-고성능의 LLM이 필요한 기업에게 최적의 솔루션을 제공할 수 있다”고 설명했다.
국내 게임사 최초로 자체 언어모델을 개발한 엔씨소프트는 시장의 요구에 맞는 비용 효율적인 모델을 꾸준히 선보인다는 방침이다. 지난 4월에는 다국어를 지원하는 향상된 성능의 ‘바르코 LLM 2.0’을 선보였으며, 이달 LLM 성능을 검증하는 평가모델 ‘바르코 저지 LLM’을 공개한 바 있다.
한편 엔씨소프트는 AI 생태계 발전과 자유로운 연구 지원을 위해 ‘라마 바르코 LLM’을 AI 플랫폼인 허깅 페이스에 배포하고 오픈소스로 제공한다. 엔씨소프트 측은 “앞으로도 자체적인 AI 기술력 검증과 연구 커뮤니티 소통을 위해 오픈소스 기반 모델을 지속 공개할 계획”이라고 밝혔다.
< 저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지 >