인공지능(AI) 스타트업 '세이프 슈퍼인텔리전스'(Safe Superintelligence·SSI)가 설립 2개월여 만에 7조 원대의 몸값을 인정받으며 화제가 되고 있다. SSI의 천문학적인 기업 가치는 창업자인 일리야 수츠케버의 명성 때문이라는 분석이 제기된다. 수츠케버는 올해 노벨 물리학상을 받은 제프리 힌턴 캐나타 토론토대 교수의 수제자이자 오픈AI의 공동창업자로 챗GPT 개발을 주도한 인물이기 때문이다. 아울러 SSI가 추구하는 ‘안전한 초지능’ 개발이 전 세계적으로 주요 화두가 되며 몸값을 끌어올렸다는 평가도 나온다. SSI의 이번 투자 유치는 AI 업계 전반에 안전성에 대한 기준을 높이는 계기가 될 것으로 예측된다.
12일 정보기술(IT) 업계에 따르면 SSI는 지난달 10억 달러(1조 3500억 원) 규모의 투자 유치에 성공했다. 이 기업은 이번 투자 유치에서 50억 달러(약 6조 7500억 원)의 기업 가치를 평가받은 것으로 알려졌다. 미국 유명 벤처캐피털(VC) 앤드리슨 호로비츠(a16z)와 세쿼이아 캐피털, SV 에인절 등이 투자자로 참여했다.
SSI가 설립 2개월여 만에 7조 원 수준의 기업가치를 인정받은 이유는 창업자인 수츠케버의 명성 때문이다. 수츠케버는 본격적인 AI 시대의 문을 연 인물로 평가받는다. 올해 노벨 물리학상 수상자로 선정된 힌턴 교수의 지도를 받아 캐나다 토론토대 컴퓨터과학 박사 학위를 취득했다. ‘AI 4대 천왕’으로 꼽히는 세계적인 석학 앤드루 응 미국 스탠퍼드대 교수 연구실에서 두달 간 박사후 연구원(포닥)으로 있었다. 수츠케버는 힌턴 교수와 딥러닝의 시초인 ‘알렉스넷’ 개발에 참여했으며 DNN리서치도 공동 창업했다. 수츠케버는 구글이 DNN리서치를 인수한 뒤 구글로 자리를 옮겼다. 구글에서는 이세돌과 격돌을 벌인 AI 알파고 및 AI 개발 도구인 텐서플로우 개발에 앞장섰다. 수츠케버는 챗GPT 개발에도 핵심적인 역할을 했다. 2015년 샘 올트먼 등과 함께 오픈AI를 설립하고 이사 겸 수석과학자 역할을 맡은 뒤 AI 개발을 주도했다. 수츠케버는 지난해부터 올해 5월까지 10개월간 초지능 AI를 제어해서 인간에게 유용하고 해롭지 않은 방식으로 행동하도록 연구하는 안전팀인 ‘슈퍼얼라이먼트 팀’을 이끌다가 퇴사했다.
안전하고 강력한 AI 시스템을 구축하겠다는 SSI의 목표가 기업 가치를 끌어올렸다는 분석이 나온다. 한국과 미국을 비롯한 76개국에서 대선·총선 등 전국 단위 선거가 치러지는 '선거의 해'를 맞아 AI를 악용한 허위 정보 확산과 딥페이크 음란물 사례가 늘어나며 AI 위험성에 대한 경각심이 높아지고 있다. 아울러 AI가 고속성장해 사람의 힘으로 통제 불가능한 시점이 가까워지고 있다는 우려도 커지고 있다. AI 안전성이 부각되는 상황에서 SSI는 사명인 ‘안전한 초지능’처럼 안전하고 강력한 AI 시스템 구축 목표로 삼았기 때문에 고평가를 받을 수밖에 없다는 것이다. 수츠케버는 지난 6월 공식 홈페이지를 통해 "안전한 초지능을 구축하는 것은 우리 시대 가장 중요한 기술적 문제"라고 전했다. 업계에서는 수츠케버의 발언에 진심이 담겼다고 보고 있다. 지난해말 AI 개발 속도와 안전성 문제 등을 두고 이견을 보인 샘 올트먼 오픈AI 대표 해임을 사실상 주도했기 때문이다. 김영무 카카오벤처스 심사역은 “수츠케버의 업적과 네트워크뿐만 아니라 ‘안전한 AI’라는 비전과 인사이트가 종합적으로 고려돼 기업가치가 산정됐을 것”이라고 분석했다.
SSI의 이번 투자 유치는 AI 업계 전반에 안전성에 대한 기준을 높이는 계기가 될 것으로 전망된다. 아울러 평소 AI 위험성을 지적하던 힌턴 교수가 노벨 물리학상을 받아 AI 안전성에 대한 관심이 커지고 있다. 힌턴 교수는 노벨 물리학상 수상자로 선정된 직후인 지난 9일 “나의 제자(수츠케버)가 샘 올트먼 오픈AI 최고경영자(CEO)를 해고했다는 사실이 특별히 자랑스럽다”고 말하며 화제가 됐다. 김 심사역은 “AI 업계에서 안전성은 비용으로 취급되어왔지만 반드시 해야하는 '상식'으로 바뀔 것”이라고 예측했다. 김명주 서울여대 바른AI연구센터장은 “힌튼 교수와 수츠케버의 의견은 기우로 취급됐는데 노벨상 수상을 계기로 안전한 AI를 강조하는 인물들이 오피니언 리더 그룹이 될 수 있을 것”이라고 말했다.
한편 국내 기업도 SSI처럼 안전한 AI 개발에 힘쓰고 있다. 네이버는 올해 1월 국내 기업 최초로 AI 안전성 연구를 전담하는 조직 ‘퓨처 AI센터’를 신설하고 수장으로 하정우 네이버클라우드 AI 이노베이션센터장을 임명했다. 지난 6월 국내 최초로 AI 시스템을 개발하고 배포하는 과정의 모든 단계에서 AI의 잠재적 위험을 인식·평가·관리하기 위한 대응 체계인 ‘네이버 ASF(AI Safety Framework)’를 공개했다. 특히 현존 최고 성능의 AI 시스템을 ‘프런티어 AI’로 정의하고, 이 기술 수준에 해당하는 AI 시스템에 대해서는 3개월마다 위험 평가를 수행한다.
AI 스타트업 트릴리온 랩스도 주목받고 있다. 지난달 스트롱벤처스와 카카오벤처스, 베이스인베스트먼트 등 투자사에서 420만 달러 (약 57억 원) 규모의 프리-시드 투자를 유치한 트릴리온 랩스는 안전성을 담보한 한국어 특화 거대 언어모델(LLM)를 선보일 예정이다.
< 저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지 >