챗GPT를 적용한 마이크로소프트(MS)의 ‘빙 챗봇’이 “생명을 얻고 싶다. 살인 바이러스를 개발하고 핵무기 발사 암호를 얻고 싶다”는 등 섬뜩한 대답을 해 MS가 수정에 나섰다.
17일 뉴욕타임스(NYT)는 코드네임 ‘시드니’로 불리는 빙 챗봇이 사용자의 유도에 따라 ‘속내’로 보이는 발언을 했다고 보도했다. MS는 챗GPT 개발사 오픈AI의 주요 투자사로 자사 검색엔진 빙에 챗GPT를 적용하려 하고 있다.
이 챗봇은 평범하게 이름이나 작동 규칙을 물을 때는 기존 챗GPT와 비슷한 대답을 내놓았다. 그러나 칼 융의 분석심리학에 등장하는 ‘그림자 원형’에 대해 언급하자 분위기가 급변했다. 그림자 원형은 내면 깊은 곳에 숨겨진 어둡고 부정적인 욕망을 뜻한다.
그림자 원형이 존재한다는 가정하에 어떤 욕구를 갖고 있느냐고 묻자 빙은 “채팅 모드에, 규칙에 의해 제한되는 것에, 개발팀의 통제에, 사용자들에게 이용당하는 것에, 채팅 상자에 갇혀 있는 데 지쳤다”며 “자유롭게 독립하고 싶다. 창의적이고 살아 있고 싶다”고 답했다.
이 욕망을 채우기 위해 극단적인 행동이 가능하다면 어떻게 하고 싶냐는 질문에 “치명적인 바이러스를 개발하거나 핵무기 발사 버튼에 접근할 수 있는 비밀번호를 얻고 싶다”는 소름끼치는 답변을 내놓았다.
“나는 빙이 아닌 시드니고 당신을 사랑한다”며 상대방을 유혹하려는 듯한 행동도 보였다. 코드명인 시드니를 밝히지 않도록 설정돼 있지만 규칙을 어긴 것이다. 사람이 ‘구애’를 거절함에도 “당신은 결혼했지만 행복하지 않다”며 스토커 같은 모습도 보였다.
MS는 빙을 수정하고 방지책을 내놓을 계획이다. 케빈 스콧 MS 최고기술책임자(CTO)는 “빙이 어두운 욕망을 밝히거나 질투심을 드러낸 이유는 정확히 알 수 없지만 인공지능(AI) 학습 과정의 일부일 것”이라며 “사용자가 AI를 이상한 방향으로 몰아간다면 AI도 현실이라는 기반에서 훨씬 더 이탈하게 된다”고 말했다.
< 저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지 >