생성형 인공지능(AI) 기술이 상상 이상으로 빠르게 발전하면서 기대와 우려가 교차하고 있는 가운데 네이버가 국내 정보기술(IT) 업계 최초로 AI 안전성 연구를 전담하는 조직을 신설했다. 최고경영자(CEO)인 최수연 네이버 대표 직속으로 운영되는 연구 조직은 AI 기술 고도화와 안전성 강화 작업을 병행하면서 위험성을 최소화하고 윤리적인 AI 개발을 꾀하겠다는 의지로 풀이된다.
3일 정보기술(IT) 업계에 따르면 네이버는 지난 1일 글로벌 AI 연구·정책 조직인 ‘퓨처 AI센터(Future AI Center)’를 신설하는 조직 개편을 단행했다. 퓨처 AI센터는 AI 안전성을 연구해 책임감 있는 AI 개발을 위해 운영된다.
네이버가 AI 안전성 연구 센터를 설립한 것은 전세계적으로 신뢰성을 높인 AI 기술을 요구하는 목소리가 커지고 있기 때문이다. 특히 유럽을 시작으로 AI 기술 규제 움직임이 빠르게 확산하는 상황에서 안전한 AI 개발 중요성이 강조되고 있다. AI 안전성과 신뢰성을 높이지 않으면 글로벌 시장에서 경쟁력을 갖기 어렵다는 분석이 나오는 이유다.
이에 네이버는 초거대 AI ‘하이퍼클로바X’를 기반으로 한 클로바X(대화형 AI 서비스)에 멀티모달 기능을 추가하는 등 기술 고도화 작업과 동시에 안전한 AI 사용을 위한 다양한 활동을 전개했다. 2021년에는 자사의 모든 구성원이 AI 개발과 이용 과정에서 준수해야 할 ‘AI 윤리 준칙’을 발표했으며 AI 윤리 자문 프로세스(체크·CHEC)도 운영 중이다. 특히 국제사회에서 AI 안전성을 강화하려는 논의가 급물살을 타면서 이같은 흐름에 뒤처져서는 안된다는 게 최 대표의 판단이다.
퓨처 AI 센터는 약 100명 규모로, 네이버의 AI 전략을 수립·총괄하는 하정우 네이버클라우드 AI 이노베이션센터장이 수장을 맡았다. 하 센터장은 "올해는 생성형 AI가 모든 산업에서 혁신을 만들어내는 원년이 될 것이며 안전하고 책임감 있는 AI의 중요성도 커질 것"이라며 "퓨처 AI센터를 통해 한국이 글로벌 AI 안전 논의에서도 리더십을 발휘할 수 있도록 적극 기여할 것”이라고 포부를 밝혔다.
퓨처 AI센터에서 다룰 첫 과제로는 ‘초연결교환(HCX) 안전성 확보를 위한 연구 주제 도출’과 ‘팀네이버의 AI 기술 및 서비스 안전성 관리 체계 검토’가 선정됐다. 아울러 퓨처 AI 센터에서는 AI 안전성을 높이기 위한 다양한 기술을 연구하고 네이버 AI 윤리 정책을 수립할 예정이다. 하이퍼클로바X의 안전한 서비스 개발과 리스크 관리를 통해 안전성이 강화된 초거대 AI 생태계를 구축한다는 목표다. 이밖에도 국내외 연구기관들과 협업해 AI 안전성 기술 연구도 고도화할 계획이다. 앞서 네이버는 2021년 독일 튀빙겐대학과 ‘안전하고 신뢰 가능한 AI 연구 개발 업무협약’을 맺었으며 캐나다 토론토대학과 AI 공동 연구도 진행하고 있다. 네이버 관계자는 “글로벌 시장에서 AI 사업을 본격적으로 추진하기 위해 올해 주요 아젠다로 ‘AI 안전성'을 설정했다"고 말했다.
업계에서는 네이버의 퓨처 AI센터 운영을 계기로 생성형 AI를 개발한 국내 IT기업들을 중심으로 AI 안전성 연구가 지금보다 확대될 것이란 전망이 나온다. 이미 안전한 AI를 위한 국제 공조 움직임이 활발히 이뤄지고 있다. 정부는 오는 5월 영국 정부와 함께 ‘AI 안전성 정상회의’를 국내에서 개최하고 AI의 신뢰성을 확보하기 위한 글로벌 거버넌스 구축에 적극 나설 예정이다.
< 저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지 >