“‘초지능(Super Intelligence)AI’가 5~20년 안에 개발될 것이다. 인공지능(AI)에 대한 통제 방안을 한시라도 빨리 만들어야 합니다.” 올해 노벨물리학상을 수상한 제프리 힌턴 캐나다 토론토대 교수는 최지능AI의 개발 속도에 맞춰 통제 방안을 구축해야 한다고 목소리를 높였다.
노벨화학상 수상자인 데미스 허사비스 구글 딥마인드 최고경영자(CEO)도 “AI는 인류가 개발한 가장 강력한 기술 중 하나인 만큼, 그 위험성을 매우 심각하게 다룰 필요가 있다”고 경고하고 나섰다.
7일(현지 시각) 스웨덴 왕립과학한림원에서 열린 물리·화학·경제학상 수상자 공동 기자회견에서 올해 노벨물리학상을 받은 힌턴 교수는 “예전에는 인간을 뛰어넘는 ‘초지능 AI’가 개발되는 시기가 훨씬 더 늦을 것이라 예상했지만, 최근 개발 속도를 보면 5~20년이면 될 것 같다”며 “AI에 대한 통제력을 유지할 방안을 고민해야 한다”고 말했다. 그는 “AI의 안전성에 대한 고민을 더 빨리 했어야 했다”며 통제 방안을 고민하지 못했던 점을 가장 후회한다고도 답했다.
힌턴 교수는 AI의 단기적 위협으로 ‘자율 살상 무기 체계(LAWS)’의 개발을 꼽았다. LAWS는 AI가 적을 스스로 인식하고 공격할 수 있는 체계를 일컫는다. 그러면서 “각국 정부는 LAWS와 관련해 규제를 스스로 만들려고 하지 않는다”며 “예컨대 유럽의 AI법은 AI의 군사적 활용을 제외한 상황”이라고 지적했다. 오히려 군비 경쟁에 AI를 활용하는 상황이라는 점에 우려를 표했다.
단백질 구조를 파악하는 ‘알파폴드’ 개발 공로로 올해 노벨화학상을 받은 허사비스 CEO 역시 비슷했다. 그는 “AI는 질병이나 에너지, 기후 등 오늘날 인류가 직면한 문제를 돕는 훌륭한 도구가 될 것”이라면서도 “AI는 인류가 개발한 가장 강력한 기술인 만큼, 위험성에 대해서도 심각하게 고려해야 한다”고 했다. 그러면서 “AGI(범용 인공지능)만큼 혁신적인 기술은 없을 것이라고 생각한다. 불이나 전기의 발명처럼 엄청난 기술 개발의 다음 단계로 나아가기 위해서는 특별한 주의가 필요하다”며 “이 기술을 안전하게 관리할 수 있다면 AGI는 결국 궁극적인 범용 도구가 될 수 있다”고 했다. 이어 “AI를 제대로 규제하는 것이 매우 중요하다”며 “기술이 빠른 속도로 진화하고 있어 불과 몇 년 전 논의한 규제 방법이 지금 논의할 만한 규제가 아닐 수 있다”며 신속한 국제 협의 필요성을 강조했다.
< 저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지 >