AI는 유튜브의 동영상 추천부터 인터넷 검색창, 스마트폰 메시지 입력창의 문자 자동완성 가능에 이르기까지 일상에 매우 깊이 스며들었다. 그런데 AI가 발전하면서 소셜미디어의 알고리즘에 지적되는 ‘필터 버블’ 등 기존에 없던 문제도 생겨난 것이 사실이다.
고학수 서울대 법학전문대학원 교수는 신간 ‘AI는 차별을 인간에게서 배운다’에서 AI도 인간이 만든다는 점에서 이들 문제가 모두 인간의 문제라고 지적한다. 인간이 갖는 오류와 편견이 들어간 데이터를 제공하면 AI는 이를 여과 없이 스폰지처럼 빨아들이고 학습한다. AI 챗봇 이루다가 소수자 혐오 발언을 한 것도, 아마존의 AI 채용 알고리즘이 여성이라는 요인을 부정적으로 평가한 것도 결국은 인간이 입력한 학습 데이터가 문제였다는 얘기다. 인간 사회의 편견과 편향은 AI 개발의 모든 단계에 영향을 미칠 수 있으며, AI는 그런 차별을 인간보다 훨씬 ‘투명하게’ 드러낸다.
저자는 AI 윤리에 대해 지속적인 관심을 갖고 사회적 신뢰를 충분히 쌓기 위해 노력해야 한다고 지적한다. AI 알고리즘의 학습 데이터나 입력값 등을 통제하지 않으면 사회적 차별과 같은 부작용은 더 커지고, 반대로 이를 통제하면 성능 저하를 피할 수 없다. 두 걱정거리를 극복할 유일한 방법은 결국 신뢰다. 1만 6000원.
< 저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지 >