구글의 생성형 인공지능(AI) 모델 제미나이가 최근 독일 나치군을 아시아인으로 묘사한 이미지를 생성하는 등 논란을 일으켰다. 구글은 제미나이의 이미지 생성 기능 서비스를 잠정 중단했다. 다른 빅테크기업들의 생성형 AI에서도 크고 작은 논란이 끊이지 않고 있다.
챗GPT 등 생성형 AI의 급속한 진화 과정에서 생성형 AI의 안전성과 윤리가 도마에 오르고 있다. 생성형 AI가 차별· 혐오 표현이나 가짜뉴스, 위험하거나 선정적 정보를 학습하는 경우도 적지 않기 때문이다. 세계적으로 AI와 윤리, 표준화에 관해 논쟁이 이어지는 게 이 때문이다.
변순용 한국인공지능윤리학회장(서울교대 윤리교육과 교수)은 8일 ‘지속가능한 AI 포럼’에서 “국내에서 4차 산업혁명의 1차 쇼크가 2016년 이세돌 9단과 알파고의 바둑 대결이었다면 2차 쇼크는 생성형 AI의 급속한 발전”이라며 “AI 학습 데이터와 저작권을 둘러싼 윤리적 이슈가 커지며 AI 기술 발전과 사회적 변화에 대한 정확한 판단을 내리지 못하는 ‘윤리적 진공상태’에 처했다”고 진단했다. 그는 “생성형 AI의 윤리적 문제를 해결하기 위해서는 제한되고 윤리적이고 지속가능한 AI의 의미를 충족시켜야 한다”고 주장했다.
김정남 한국교육학술정보원 선임연구원은 “138억년 전 빅뱅과 같이 AI 기술의 폭발적 발전에 따른 부작용으로 인해 유네스코는 2021년 AI 윤리영향평가 도입을 촉구했다”며 “EU의 인공지능법(AI Act)에서는 교육 분야를 고위험군으로 분류하며 AI가 윤리를 지켜야 한다고 했다”고 소개했다. 교육 분야에서 AI 시스템을 적용할 때 이해관계자의 참여 보장, 안전한 시스템의 개발과 운영, 사생활 보호가 이뤄져야 한다는 게 김 연구원의 생각이다.
박용주 한국전자기술연구원 팀장은 “EU·미국·중국의 AI 표준화 규제에 대응해 국내에서도 산업계 등의 의견을 반영해 표준화에 나서고 있다”고 소개했다. 그는 “지난해 6월 처음 만들어진 AI KS 고유표준은 ‘AI 윤리에 대한 이해관계자 공통 영향 요소와 활용사례 수집 양식’으로 현재 국제표준에 넣기 위한 시도가 이뤄지고 있다.”며 “ ‘전기전자제품 AI 윤리 가이드라인’에 관한 KS 고유표준은 올 상반기 나올 것”이라고 전했다.
곽준호 한국정보통신기술협회 AI신뢰성센터 팀장은 “우리는 과학기술정보통신부와 함께 생성형 AI의 신뢰성 확보를 위한 민간자율인증 체계를 마련해 글로벌 호환성과 공신력을 갖추기 위해 노력하고 있다”며 “생성형 AI의 위험을 발굴하고 대응하기 위한 레드팀 챌린지도 다음달 준비 중”이라고 귀띔했다. 미국은 지난해 8월 해커톤 형태로 AI 레드팀 챌린지를 실시했다.
김명주 국제인공지능윤리협회장은 “‘AI가 생성한 출력물을 또 다른 AI가 학습 데이터로 사용하면 무슨 일이 벌어질까’라는 질문도 나온다”며 “최근 영국 연구진은 ‘반복의 저주’라는 논문에서 ‘다양한 학습모델이 망가진 성능을 보일 것이다. 인간의 저작물을 AI 생성물과 구분해 소중히 여겨야 한다’고 제안했다”고 말했다. 이상종 국가교육위원회 직업평생교육특별위원은 “AI 기술을 초중고 교육에 적극 활용하되 교사와 학생에게 AI 윤리 교육을 잘 시키는 게 중요하다”고 힘줘 말했다. 송석준 국민의힘 의원은 “AI 윤리야말로 AI 개발 속도 못지 않게 중요한 과제”라며 AI 개발과 윤리의 균형을 강조했다.
< 저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지 >