‘성능 향상’ ‘대화 이해력 증대’ ‘오류 감소’ ‘다양한 주제 확장’ ‘사용자 적응성 강화’
GPT-4로 엔진을 바꿔 단 챗GPT에게 “체험기를 쓰려는데 어떤 점을 부각하면 좋을까”라고 묻자 얻은 답이다. 오픈AI는 지난 14일(현지시간) 자사 최신 거대언어모델(LLM)의 새 버전인 GPT-4를 내놨다. 챗GPT가 자화자찬한 것처럼 GPT-4는 미국 변호사 시험과 대학입학자격시험(SAT) 등 전문 역량을 요구하는 다수의 시험에서 전작을 압도하는 성적을 거뒀다. 문자만 인식했던 것과 달리 이미지를 인식하고 한번에 인식할 수 있는 문자 수(책 약 50페이지 분량)도 대폭 늘려 사용성을 개선했다. 오픈AI는 잘못된 내용을 진실처럼 전달해 혼란을 주는 일명 ‘할루시네이션(환각)’도 줄었다고 설명했다. 말투나 어조도 조절할 수 있다. 기존 버전의 말투가 딱딱하고 장황하다는 비판을 받아들인 것이다.
GPT-4를 사용하려면 현재 두 가지 방법이 있다. 먼저 월 20달러를 내고 유료 구독 상품인 ‘챗GPT 플러스’를 사용하는 방법이다. 유료 버전을 사용하면 3.5버전이나 4버전 중 원하는 것을 선택해 사용할 수 있다. 다른 하나는 새 모델이 적용된 마이크로소프트(MS)의 검색 엔진 ‘빙’을 무료로 쓰는 것이다. 다만 검색 서비스에 녹아있어 3.5버전을 사용할 수 없다. 대신 창작·균형잡힘·정확함 등 세 가지 모드를 선택할 수 있다. 창의성과 정확성을 적절한 비율로 섞어 사용자가 원하는 대로 골라 쓸 수 있게 했다.
두 가지 방법 모두 새 모델을 기반으로 한다는 점은 같지만 같은 질문에도 답변하는 형식에서 차이를 보인다. ‘3월 17일에 어울리는 시를 쓰되 하늘을 주요 시상(詩想)으로 삼아줘’라고 물으면 빙은 검색엔진답게 하늘을 시상으로 하는 주요 시를 열거하고 하늘 시상의 시에 어울릴 요소들을 추천해준다. 그 뒤로 자작시가 따라 붙는다. 반면 유료 버전에서는 오로지 시만 작성한다.
실제 사용하는 이용자 입장에서는 속도가 중요하다. 특히 한국어를 사용하면 영어를 사용할 때보다 속도가 확연히 느린 점이 국내 이용자들에게는 불만요소다. 유료 구독 모델을 사용하는 경우 GPT-4의 체감 속도는 GPT-3.5 보다 확연히 느리다. GPT-3.5 모델은 유료 구독자들에게 제공되는 터보 모드와 기존 모드를 이용할 수 있는데 두 가지 모두 4세대보다 빨라 일상적인 내용에 관해 물을 경우 속도는 3.5 버전이 빠르다. GPT-4는 앞서 말한 285자 분량의 시를 쓰는 데 약 1분 30초가량이 걸렸다.
챗GPT를 사용하는데 큰 장애물이 돼 온 환각 문제에 대해 오픈AI는 전작 대비 40% 향상됐다고 밝혔지만 여전히 문제점이 발견됐다. 환각을 유도하기 위해 예컨대 존재하지 않는 ‘권검춘법’이라는 무예에 대해 설명해 달라고 질문하자 없는 단어에 한자 표기까지 붙여가며 조선시대의 유명한 무예 서적이라고 소개했다. 다만 그동안 이용자에게 널리 알려진 환각 사례들은 일부 고쳐졌다.
새 버전에 추가된 이미지 인식 기능은 아직 사용해볼 수 없어 아쉬웠다. 새 버전은 이미지 학습을 통해 사진이나 이미지까지 인식할 수 있게 되면서 언어 모델의 사용성을 한 단계 끌어 올렸다고 평가받았다. 이미지를 설명·분석하거나 이미지를 기반으로 추론하는 것까지 가능하다. 게다가 오픈AI가 음성 인식 모델(위스퍼AI)과 이미지 생성 서비스(Dall-E·달리) 등을 보유하고 있어 이를 통합하면 보다 완성도 높은 멀티모달 서비스가 탄생할 수 있을 것으로 기대된다.
< 저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지 >