‘인공지능(AI) 서울 정상회의’를 계기로 각국 정부의 AI 규제가 본격화할 것으로 전망되는 가운데 국내외 테크 기업들이 자구책 마련에 부심하고 있다. 혐오와 편견 학습, 가짜뉴스 생산과 환각, 저작권과 개인정보 침해, 딥페이크 등 부작용이나 악용 우려에 맞서 ‘안전한 AI’를 개발하자는 주요국 간 합의가 이뤄진 가운데 기업들도 관련 규제에 대응하면서 기술 개발과 시장 선점을 꾀해야 하기 때문이다.
21일 업계에 따르면 최근 KT는 사상 첫 AI 거버넌스(의사결정 체계) 전담 인력 채용에 들어갔다. AI 기술의 안전성을 평가·관리하고 관련 정책을 수립하는 등 기존 KT경제경영연구소나 연구개발(R&D) 조직이 겸했던 업무를 전문화하겠다는 것이다. KT는 해당 인력을 편입해 최근 신설한 AI 거버넌스 조직 ‘책임감 있는 AI 센터(RAIC)’를 본격적으로 운영한다.
네이버는 올 들어 최고경영자 직속으로 ‘퓨처AI센터’를 신설했고 카카오도 최고AI책임자(CAIO)를 임명했다. SK텔레콤도 ‘AI 거버넌스 태스크포스(TF)’를 운영하고 있다.
글로벌 빅테크들도 AI 안전성 확보 노력을 한층 강화하고 있다. 구글 AI 사업의 중추인 딥마인드는 17일(현지 시간) 미래의 AI 위협을 미리 감지하고 적절히 대응할 수 있는 ‘프런티어 안전 프레임워크(개발 방식)’를 공개했다. 자율성·생체보안·사이버보안·기계학습 등 AI 위협에 특히 민감한 4개 분야를 중심으로 위험 수준을 평가하고 기술이 일정 수준을 넘지 않도록 조절하는 개발 방식을 내년 초까지 도입할 방침이다.
앤트로픽도 20일(현지 시간) 4단계의 ‘AI 안전 수준(ASL)’을 정하고 관리하는 프레임워크를 고도화해 조만간 공개한다고 밝혔으며 이와 관련한 ‘위험 관리자’ 인력을 모집하고 있다. 같은 날 메타와 아마존은 AI 안전성 확보에 협력하는 만든 빅테크 비영리단체 ‘프런티어모델포럼’에 가입했다. 앞서 아마존은 2월 미국 국립표준기술연구소(NIST) 산하 ‘AI안전연구소’ 컨소시엄에 합류해 기술 지원 등 협력을 시작했다. 마이크로소프트는 앞으로 매년 발간할 ‘투명성 보고서’를 이달 처음 공개하며 책임감 있는 AI 조직 확대, AI 생성 이미지의 악용을 막기 위한 워터마크 도입, 안전성 테스트 조직인 레드팀 운영 등 지난해 자사의 노력을 소개했다.
전 세계적으로 통용되는 AI 규제는 자국 기업의 경쟁력과 직결되기 때문에 각국은 주도권을 쥐기 위해 경쟁을 벌이고 있다. 영국은 전날 ‘AI안전연구소’의 첫 해외 사무소를 빅테크 산실인 미국 샌프란시스코에 개소하며 역할 확대를 꾀한다. 프랑스는 한국에 이어 내년 초 ‘AI 정상회의’를 연다. 유럽연합(EU)에 이어 미국·일본·한국도 AI 관련 입법을 추진하고 있다.
< 저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지 >