전체메뉴

검색
팝업창 닫기
이메일보내기

“구글·메타보다 낫다”…구광모 신무기 LG '엑사원 3.0' 공개 [biz-플러스]

■ 차세대 LLM '엑사원 3.0' 공개

성능 56% 늘리고 비용 72% 낮춰

크기 100분의 3까지 줄여 최적화

하반기 신모델 적용한 제품 출시

임직원 'AI 비서' 베타 서비스도

경량모델 국내 첫 오픈소스 공개

AI 연구 생태계 발전에 기여나서

배경훈 LG AI연구원장이 지난달 제주 롯데호텔에서 열린 ‘2024 한경협 CEO 제주하계포럼’에서 회사의 AI 솔루션인 엑사원을 소개하고 있다. 사진 제공=한국경제인협회




LG(003550)그룹이 자사의 인공지능(AI) 대규모언어모델(LLM) ‘엑사원 3.0’을 공개했다. 이번 신모델은 이전 모델보다 추론 처리 시간은 절반 넘게, 구동 비용은 3분의 1 수준으로 줄였다. 성능 면에서는 메타의 라마나 구글의 젬마 등 글로벌 빅테크 모델들과의 비교에서 우위를 차지했다. LG는 엑사원 3.0 경량 모델을 국내 최초로 오픈소스로 공개해 AI 연구 생태계 발전에 기여한다는 방침이다.

LG AI 연구원은 엑사원 3.0 경량 모델을 연구 목적으로 활용할 수 있도록 오픈소스로 공개한다고 지난 7일 밝히면서 모델 학습 방법, 성능 평가 결과 등을 담은 기술 보고서(technical report)를 발표했다. 지난해 7월 엑사원 2.0을 공개한 후 1년 1개월 만에 신모델을 선보인 것이다.

엑사원 3.0은 전작 대비 추론 시간은 56%, 메모리 사용량은 35% 절감했다. 그러면서도 구동 비용을 72% 줄였다. AI로 인해 촉발된 소비 전력 문제를 해결하기 위해 경량화·최적화 기술 연구에 집중해 초기 거대 모델 대비 성능은 높이면서도 모델 크기는 100분의 3으로 줄이는 데도 성공했다.



신모델은 메타와 구글 등 빅테크가 개발한 동일 크기의 오픈소스 AI 모델과 비교해 코딩과 수학 영역 등 13개 벤치마크(성능 평가 지표) 점수 순위에서 1위를 차지했다.

실제 사용성 면에서는 엑사원 3.0이 57.5점으로 1위를 차지한 가운데 젬마 2(54.1점)와 마이크로소프트(MS)의 파이 3(45점)가 뒤를 이었다. 코딩 면에서는 엑사원 3.0이 59.7점으로 1위, 라마 3.1과 젬마 2가 각각 58.3점과 57.8점을 기록했다. 한국어 성능 면에서도 세계 최고를 기록했다. 기술 보고서에는 MT-벤치를 비롯해 AI 모델의 대화 성능 등 실제 사용성을 종합적으로 평가하는 대표적인 벤치마크와 함께 평가에 활용한 25개 벤치마크의 개별 점수 및 영역별 평균 점수가 모두 공개됐다.

엑사원 3.0은 다양한 산업 활용을 위해 특허와 소프트웨어 코드·수학·과학 등 국내외 전문 분야 데이터 6000만 건 이상을 학습했다. 연말까지 의료나 바이오·법률 등 분야를 확장해 학습 데이터양을 1억 건 이상으로 늘려 성능을 더 끌어올린다는 계획이다. 엑사원을 고도화하는 단계에서 구글의 클라우드 맞춤형 머신러닝 하드웨어인 ‘클라우드 텐서처리장치(TPU)’도 적용하며 빅테크와의 협업 범위도 확대했다.



하반기부터 LG 계열사를 시작으로 엑사원 3.0이 적용된 제품과 서비스도 본격 출시한다. LG AI연구원은 온디바이스 AI에 들어갈 수 있는 초경량 모델부터 범용 목적의 경량 모델, 특화 분야에 활용할 수 있는 고성능 모델까지 활용 용도에 따라 모델 크기를 다르게 설계했다. LG 계열사들은 각 사가 보유한 데이터를 기반으로 엑사원을 사업과 제품, 서비스 특성에 맞게 적용할 수 있다. LG 계열사뿐 아니라 외부 기업이나 기관과의 글로벌 파트너십 논의도 활발히 진행하고 있다.

챗엑사원(ChatEXAONE)의 지시문(Prompt) 추천 기능. 사진제공=LG


LG는 임직원의 AI 비서 역할을 수행할 생성형 AI인 ‘챗엑사원’ 베타 서비스도 시작했다. 챗엑사원은 △실시간 웹 정보 기반 질의응답 △문서 이미지 기반 질의응답 △코딩 △데이터베이스 관리 등의 기능으로 업무 편의성과 효율성을 높일 수 있다. LG AI연구원은 연말까지 베타 서비스를 진행하며 임직원들의 의견과 아이디어를 반영한 업데이트를 주기적으로 시행한다는 계획이다. 별도의 특화 서비스 구축도 계열사별로 이뤄지고 있다. 6월 LG디스플레이(034220)는 사내 문서 30만여 건을 AI 모델에 추가로 학습시켜 제품 품질 등 공정 관련 질의응답이 가능한 생성형 AI를 구축했다.

글로벌 AI 시장에서는 거대화와 효율화 등에 초점을 둔 신모델 개발이 속속 이어지며 각축전이 전개되고 있다. 메타는 4월 라마 3를 공개한 지 3개월 만인 지난달 라마 3.1을 내놓으며 빠른 업데이트에 나섰다. 라마 3 공개 한 달 뒤인 5월 오픈AI는 GPT-4o를, 구글은 소형 모델 제미나이 1.5 플래시를 공개했다.

배경훈 LG AI연구원장은 “특화된 성능과 경제성을 갖춘 엑사원으로 LG 계열사와 외부 기업 및 기관과의 파트너십을 강화해나갈 계획”이라며 “국내에서는 처음으로 자체 개발한 AI 모델을 오픈소스로 공개해 개방형 AI 연구 생태계 활성화와 더 나아가 국가 AI 경쟁력을 높이는 데 기여하고자 한다”고 말했다.

< 저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지 >
주소 : 서울특별시 종로구 율곡로 6 트윈트리타워 B동 14~16층 대표전화 : 02) 724-8600
상호 : 서울경제신문사업자번호 : 208-81-10310대표자 : 손동영등록번호 : 서울 가 00224등록일자 : 1988.05.13
인터넷신문 등록번호 : 서울 아04065 등록일자 : 2016.04.26발행일자 : 2016.04.01발행 ·편집인 : 손동영청소년보호책임자 : 신한수
서울경제의 모든 콘텐트는 저작권법의 보호를 받는 바, 무단 전재·복사·배포 등은 법적 제재를 받을 수 있습니다.
Copyright ⓒ Sedaily, All right reserved

서울경제를 팔로우하세요!

서울경제신문

텔레그램 뉴스채널

서울경제 1q60