전체메뉴

검색
팝업창 닫기
이메일보내기

"대화형 AI, 사용자가 감정적 의존하게 만들 우려"

오픈AI GPT-4o 관련 보고서 내놔

잘못된 정보를 맹신하게 만들 수도

오픈AI. AP연합뉴슈




실제 사람과 대화하는 듯한 경험을 제공하는 생성형 인공지능(AI) 서비스가 사용자들을 AI에 감정적으로 의존하게 만들 수 있는 우려가 나왔다.

9일(현지시간) CNN에 따르면 오픈AI는 음성 지원이 가능한 새 AI 모델 ‘GPT-4o’와 관련 보고서에서 “사용자들이 챗GPT와 음성 모드로 대화하면서 공유된 유대감을 표현하는 현상이 관찰됐다”고 우려했다.



GPT-4o는 오픈AI가 올해 5월 공개한 최신 인공지능 모델이다. 딱딱한 기계음이 아닌 자연스러운 사람 목소리를 내고 사용자와 실시간 음성 대화가 가능한 게 특징이다. 특히 GPT-4o에 사용된 AI 음성이 2013년 개봉작 영화 '허(Her)' 속 AI 비서 목소리의 주인공인 스칼릿 조핸슨의 육성과 비슷하다는 지적이 나오면서 논란이 일기도 했다.

오픈AI는 “사용자가 AI와 사회적 관계를 형성하면서 다른 사람과의 상호작용에 대한 필요성을 줄일 수 있다”며 “이는 외로운 개인에 잠재적으로 도움을 줄 수 있지만, 다른 사람과의 건강한 관계에도 영향을 미칠 수 있다”고 염려했다. 이어 생성형 AI가 잘못된 정보를 알려줄 수 있음에도 실제 사람처럼 말하는 AI는 사용자로 하여금 이를 맹신하게 할 수 있다고 지적했다.

오픈AI는 보고서에서 “AI를 ‘안전하게’ 만들기 위해 최선을 다하고 있다”며 “사용자의 잠재적인 ‘감정적 의존’에 대해 지속해서 연구할 계획”이라고 밝혔다.
< 저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지 >
주소 : 서울특별시 종로구 율곡로 6 트윈트리타워 B동 14~16층 대표전화 : 02) 724-8600
상호 : 서울경제신문사업자번호 : 208-81-10310대표자 : 손동영등록번호 : 서울 가 00224등록일자 : 1988.05.13
인터넷신문 등록번호 : 서울 아04065 등록일자 : 2016.04.26발행일자 : 2016.04.01발행 ·편집인 : 손동영청소년보호책임자 : 신한수
서울경제의 모든 콘텐트는 저작권법의 보호를 받는 바, 무단 전재·복사·배포 등은 법적 제재를 받을 수 있습니다.
Copyright ⓒ Sedaily, All right reserved

서울경제를 팔로우하세요!

서울경제신문

텔레그램 뉴스채널

서울경제 1q60