25일 과학기술정보통신부와 인공지능(AI) 기업들은 급속도로 발전하는 AI의 윤리적, 법적 우려에 대응하기 위해 생성형 AI 분야별 가이드라인 마련과 AI 생성물 워터마크 삽입 등 기술적, 제도적 기반을 만들기로 발표한 바 있다.
국제인공지능윤리협회는 성명을 통해 “최근 진일보한 생성형AI 기술이 등장하고 인공지능이 빠르게 대중화되면서 이에 따른 윤리적, 법적 문제가 증가하고 있다. 윤리와 제도가 뒷받침되지 않은 기술은 안전성과 신뢰성이 위협받게 된다”고 밝혔다.
협회는 “이러한 상황에서 생성형AI 분야별 가이드라인 마련, AI 생성물 워터마크 삽입, 민간 자율 AI 신뢰성 검인증, 고위험 영역 AI 개발 및 실증과 같은 기술적?제도적 기반 구축은 AI의 윤리성과 신뢰성을 강화하는 중요한 단계”라면서도, AI 윤리에 관한 인식의 확산과 AI 윤리 관련 업무를 수행할 수 있는 전문 인력의 양성이 병행돼야 한다고 밝혔다.
이를 위해 “정부 유관 부처와 대학교, 민간기관이 유기적인 전문가 양성을 위한 체계를 구축하고, 초중고생, 대학생, 공무원, 직장인, 교사, 시민 등 모든 주체를 대상으로 한 지속적인 AI 윤리 교육도 시행돼야 한다”고 강조했다.
끝으로 안전하고 공정한 AI 기술의 발전에는 민·산·학·연·관 등 모든 주체가 함께 노력하고 기여해야 하며, 발표된 AI 윤리성 및 신뢰성 강화 추진계획과 추진 과제들이 구체적으로 실천되기를 촉구했다.
이번 성명에 대해 국제인공지능윤리협회 전창배 이사장은 “최근 생성형 AI를 악용하여 사기 범죄나 정치적 명예훼손 등으로 악용하는 사례들이 늘어나고 있다. 우리나라에도 내년에 총선이 있는 만큼 사전에 미리 대응해야 한다”며, “생성형 AI를 이용해 만든 콘텐츠를 경제적, 정치적 목적으로 활용할 경우에는 사전에 AI로 만들었음을 고지하고, 워터마크를 표시하도록 하는 제도를 시급히 마련할 필요가 있다”고 밝혔다.
< 저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지 >