정부가 국내외 정보기술(IT) 기업들을 상대로 생성형 인공지능(AI) 개발 과정에서 ‘개인정보 자기결정권’을 제대로 보장했는 지에 대한 실태 조사에 착수했다. 플랫폼 이용자들이 작성한 글 등 각종 정보가 생성형 AI 학습에 활용되지 않을 권리를 개발사들이 얼마나 잘 보장하고 있는 지를 따져보고 필요할 경우 대응책을 마련하겠다는 취지다.
4일 업계에 따르면 개인정보보호위원회는 지난해 말부터 생성형 AI를 보유한 네이버와 카카오, 구글 등 국내외 IT 기업들을 대상으로 개인정보 자기결정권 보장과 관련한 사전 실태점검에 착수했다. 점검 대상 기업은 약 10여 곳으로 알려졌다.
주된 점검 항목은 생성형 AI 개발사들이 원작자의 데이터가 생성 AI학습에 활용되지 않을 권리를 제대로 보장했는 지 여부다. 정부가 생성형 AI 개발사를 대상으로 개인정보 자기결정권에 대한 점검에 나선 것은 이번이 처음이다.
개인정보위가 사전 점검에 나선 것은 생성형 AI 개발·학습 과정에서 다양한 데이터가 활용되고 있기 때문이다. 초거대 AI ‘하이퍼클로바X’를 가진 네이버나 ‘코지피티(KoGPT)’를 개발한 카카오는 블로그·카페 등 다양한 채널을 운영하고 있어 학습에 활용할 수 있는 데이터가 다양하다. 그렇다 보니 정치 성향 등 민감한 개인정보가 포함된 데이터도 해당 채널들을 통해 생성형 AI 학습에 활용돼 개인정보 자기결정권을 침해할 가능성이 있다. 사안에 정통한 한 관계자는 “검색 포털 등 플랫폼 이용자들이 생성형 AI 학습에 자신의 데이터가 사용됐다면 이를 빼달라고 요청할 있는 권리가 보장되거나 기능이 있는지를 살펴보겠다는 취지”라고 말했다.
개인정보위는 대다수 생성형 AI 개발사들이 이같은 권리 보호 장치를 충분히 마련하지 않은 것으로 보고 있다. 실제로 네이버나 카카오, 구글 등에서는 이용자들이 자신의 글이나 콘텐츠를 AI 학습 과정에서 이용하지 말 것을 요청할 수 있는 별도 창구를 찾아보기 어렵다. 국내외 주요 AI개발사들은 “별도 창구 마련을 아직 검토하지 않고 있다"고 전했다. 개인정보위는 점검 결과를 분석하고 해외 사례 등을 참고해 생성형 AI 개발사들에 대해 개선 및 권고 여부 등을 결정할 예정이다.
< 저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지 >