“인공지능(AI)이 잘못된 데이터를 받아들여 학습하면 왜곡된 결과를 내놓을 수 있습니다. 이미 많은 분야에서 AI가 쓰이고 있는 만큼 AI로 인해 사회문제가 생길 수 있다는 점을 염두에 둬야 합니다.”
일반인에게 AI는 어떤 모습으로 다가올까. 이세돌 9단과 바둑을 둔 알파고를 떠올리는 사람도 있을 것이고 공상과학영화에 나오는 것처럼 인간을 지배하는 초지능을 생각하는 사람도 있을 것이다. 고학수 신임 한국인공지능법학회장(서울대 법학전문대학원 교수)은 “AI는 자동차처럼 실체를 가지고 있는 경우가 드물어 사람마다 받아들이는 개념에 큰 차이가 있다”며 “AI는 현실 사회에서는 잘 보이지 않지만 이미 광범위하게 쓰이고 있다”고 말했다. 그는 “인간의 판단과 행동에 AI가 개입하면서 생길 수 있는 사회문제를 예상하고 이 문제가 불거지지 않도록 사전에 법·제도·환경 등을 정비해야 한다”고 강조했다. 고 학회장에게 AI가 발전하는 과정에서 어떤 문제가 생길 수 있고 사회가 어떤 준비를 해야 할지 등에 관한 견해를 들어봤다.
-AI가 뭔가.
△AI는 사람처럼 사고하고 결론 내고 판단하는 어떤 것이라고 할 수 있다. 이렇게 정의하면 AI는 사람이 하는 역할을 대체하는, 이를테면 인조인간 같은 것이다. 이런 식으로 접근하며 실제 기업이나 연구현장과는 갭이 생긴다. AI는 쉽게 생각하면 내비게이션, 네이버나 구글의 검색 기능, 스팸을 걸러내는 기능들이라고 보면 된다. 이런 AI는 특정 분야에서 자동화를 통해 편의성을 높여준다.
-특정 AI와 일반 AI, 또는 약한 AI와 강한 AI로 구분하면 될까.
△비슷하다. 집으로 치면 대들보부터 시작해 전체 얼개를 잡는 방식이 있을 수 있고 이 집 안에 들여놓은 AI 스피커가 어떤 기술을 쓰고 어떤 부작용이 있는지 등을 파악하는 방식이 있을 수 있다. 현실 사회에서는 AI 스피커처럼 구체적인 개별 기능 차원에서 접근하는 것이 바람직하다. AI를 어떻게 생각하느냐에 따라 연구나 관심의 출발선이 매우 달라진다.
-구체적으로 어떻게 달라지나.
△최근 외국의 AI 포럼 행사에 참여한 적이 있다. 오전에는 이탈리아에서 온 연구자가 오픈 소스를 이용해 개발한 오이 분류 AI에 대해 얘기하는 것을 들을 수 있었다. 이 AI는 오이농장에서 매일 생산되는 오이를 사진으로 찍어 인식하며 상품성에 따라 분류하고 불량품을 걸러내는 일을 한다. 오후에 열린 다른 세션에 갔더니 법철학 연구자들이 모여 AI에 법인격을 부여해야 하는지에 대해 심각한 토론을 벌이고 있었다.
-오이 분류 AI는 단순한 자동화 기계라고 볼 수 있지 않나.
△현실에서는 그런 AI가 대부분이다. 현재 AI가 많이 활용되는 영역으로 보건의료, 금융 산업, 인터넷 플랫폼 등을 들 수 있다. 예를 들어 병원에서 AI를 가장 많이 사용하는 곳은 영상의학과인데 여기에서 AI가 하는 일을 들여다보면 오이 분류 AI와 원리가 같다. X레이 같은 사진을 찍어 흰 부분이 나오면 질병을 의심해보는 식이다.
-오이 분류 AI나 영상의학과 AI가 판단을 하나. 판단을 해야 AI라고 할 수 있지 않나.
△분류하는 것도 판단이다. 정상인지 비정상인지를 구분하는 것도 판단이다. 왓슨(IBM이 개발한 의료용 AI)을 보면 환자의 검사 데이터를 분석해 강력추천·보통·비추천 등 세 가지의 치료 방법을 알려준다. 왓슨은 판단을 하는 의사 역할에 가깝다. 진단이나 치료라는 용어를 쓰지 않을 뿐이다. 그런 용어를 쓰면 법상 이슈가 생길 수 있다.
-왓슨이 제시한 방법대로 환자를 치료했다가 환자가 죽었다고 치자. 이때 책임은 누가 어떻게 져야 하나.
△그런 일이 머지않은 장래에 이슈가 될 것이다. 왓슨 입장에서는 의사에게 권유 내지는 참고자료로 제시한 것뿐이다. 실제 치료는 의사의 몫이다. 의사가 왓슨의 도움 없이 검사자료와 환자만 보고 A라는 치료 방법을 선택했는데 왓슨도 A를 제시하면 의사의 마음이 편할 것이다. 왓슨이 B라는 답을 주면 의사는 자기 판단을 바꿔야 하는지를 고민할 것이다. 환자가 이 사실을 알고 있다면 의사에게 왜 A라는 방법을 쓰지 않느냐고 추궁할 수도 있다. 왓슨은 전 세계 수많은 의사가 연구하고 치료한 결과를 배경으로 가지고 있다. 베테랑 의사가 아니라 이제 갓 수련의를 거친 의사라면 왓슨이 자기 생각과 다른 방법을 제시할 경우 흔들릴 것이다. 사회에서 의사 판단에 대한 신뢰의 문제가 대두될 수 있다.
-자율주행은 AI가 조만간 현실 세계에서 모습을 드러내는 대표 사례일 것 같다. 전체 네트워크를 설계할 때 자율주행차가 임박한 교통사고를 피하는 순서 같은 것을 만들 필요가 있지 않나. 핸들을 돌리지 않으면 10명이 죽고 오른쪽으로 돌리면 1명이 죽는 경우가 있다면 어떤 선택을 하도록 해야 하나.
△다수를 구하기 위해 소수를 희생할 수 있는지를 판단하게 하는 트롤리 딜레마를 얘기하는 것이다. 이런 사안은 강의실에서 토론하기 좋은 주제다. 현실에서는 그냥 차가 고장 난 것이다. 이럴 때는 핸들을 돌리거나 돌리지 않는 게 아니라 그냥 작동을 멈추도록 하면 된다. 그것보다 더 중요한 것은 사고는 발생할 수밖에 없고 결국 인명과 재산의 피해가 생길 텐데 이를 사회적으로 처리하는 방법이다.
-자동차보험을 얘기하는 것인가.
△자율주행차가 도로를 달리려면 사고에 대비한 보험이 있어야 한다. 그런데 보험상품을 만들려면 그 전에 어떤 사고가 어떤 식으로 얼마나 나는지 등에 대한 데이터가 있어야 한다. 우리나라는 그런 데이터가 없다.
-우리나라에서는 자율주행을 도입하기 어렵겠다.
△서울대 순환도로를 달리는 자율주행차가 있었다. 이 차는 순환도로를 여러 번 돌아서 데이터가 많이 쌓여 있다. 적어도 순환도로에서는 달인 수준이다. 이 차를 혼잡한 서울시청 앞에 가져와 달리게 하면 교통사고를 낼 확률이 높아진다. 서울시청 앞에서는 주행해본 데이터가 없기 때문이다. 미국과 한국의 차이가 이런 것이다. 미국은 어느 도시에 큰 행사가 있을 경우 자율주행 버스가 손님을 실어나르며 데이터를 확보한다. 자율주행차는 실버타운 도로도 다니고 피닉스처럼 건조한 기후의 도로도 달리며 다양한 상황에서 데이터를 얻는다. 이런 데이터가 모이면 보험상품의 얼개를 잡을 수 있다. 우리나라는 보험이 먼저 만들어져야 자율주행을 할 수 있다며 시험주행도 허용하지 않는다. 이런 환경에서는 자율주행을 도입할 수 없다.
-자율주행에서 보험이 빠져 있는 것처럼 이미 AI가 도입된 분야에서 갖추지 못한 부분이 있을 것 같다.
△파악 자체가 안 돼 있는 게 문제다. 우리나라의 경우 제조현장에서 로봇을 많이 쓴다. 로봇에 센서 등이 추가되면서 AI 기능이 조금씩 들어가고 있다. 하지만 지금 제조현장에서 AI가 얼마나 쓰이는지, 제대로 쓰기 위해서는 어떤 문제를 해결해야 하는지 등을 전혀 파악하지 못하고 있다. 예를 들어 로봇이 작업 도중 사람을 만나면 스스로 판단해 멈춘다거나 더 진화하면 우회할 수 있다. 이처럼 AI 로봇이 어느 단계까지 도달해 있는지를 알아야 법과 제도도 정비할 수 있다.
-외국은 법과 제도 측면에서 AI를 어떤 식으로 바라보고 있나.
△세계적으로 실정법, 즉 의회를 통과한 법으로 AI를 규율하는 나라는 없다. 연성법 형태, 이를테면 정부나 의회의 선언 형태가 많다. 미국은 정부가 AI를 열심히 지켜보고 있다는 수준의 선언을 가지고 있다. 실정법으로 규제하거나 정부가 개입하는 것은 아니지만 그렇다고 시장 기능에만 맡기지는 않겠다는 것이다. 정부가 개입해야 한다는 판단이 서면 개입하겠다는 메시지를 시장에 주고 있다.
-우리는 어떤가.
△방송통신위원회가 지난해 사람 중심의 서비스 제공 등 일곱 가지 원칙을 윤리규범으로 내놓은 것이 있지만 전반적으로 볼 때 이에 대한 논의는 사실상 없다.
-법과 제도 측면의 규율을 서둘러야 하나.
△AI는 데이터가 제일 중요하다. 네이버에서 구두 이미지를 검색하면 대부분 남성 정장용이 나온다. 온라인에서 남성 정장용 구두가 주로 거래되고 이를 AI가 학습했기 때문이다. 여기에는 여성용 구두의 경우 소비자가 오프라인 매장에서 구매한다는 전제가 깔려 있다. 사람 눈에는 하이힐도 구두인데 AI는 이런 데이터로 훈련받지 못했다. 이런 부분은 더 나아가면 남녀차별 문제가 제기될 수도 있다. 반대로 구글에서 구두 일러스트를 찾으면 이번에는 남성 구두는 보이지 않고 하이힐만 나온다.
-아직 닥치지 않은 문제 아닌가. 당장 문제가 된 사례도 있나.
△몇 년 전 미국 법원에서 죄수의 가석방을 허가하는 데 AI를 활용한 적이 있다. 핵심은 재범 여부다. AI가 분석한 결과 흑인의 재범 가능성이 더 높았다. 나중에 실제 가석방으로 풀려난 죄수의 재범 여부를 조사해보니 백인이 더 높았다. AI가 잘못된 판단을 했고 이를 법원이 받아들였다고 해서 논란이 된 적이 있다.
-왜 이런 일이 벌어졌을까
△AI가 잘못된 판단을 하는 것은 들어간 데이터가 왜곡됐기 때문이다. 미국에는 백인, 그것도 남성 이미지가 많다. 재작년 안면인식 AI가 미국 의원의 사진을 보고 이름을 얼마나 제대로 맞히는지 실험해본 적이 있다. 이 AI는 백인 남성 의원은 거의 100% 맞힌 반면 흑인이나 여성 의원은 높은 오류율을 보였다. 이것은 AI가 백인 남성 이미지 데이터를 상대적으로 많이 훈련받았기 때문이다. 다시 생각하면 미국 의회의 의원 분포 비율이 그랬기 때문이다.
-안면인식 AI는 중국이 앞서가지 않나.
△미국 국립표준기술연구소(NIST)가 100개가 넘는 안면인식 AI의 성능을 확인한 적이 있다. 조사 결과 아시아에서 만든 AI는 아시아 사람을 더 잘 인식했다. 한국 경찰이 중국 안면인식 AI를 들여와 범인을 잡는다면 중국인과 비슷하게 생긴 사람은 범인 누명을 쓸 가능성이 높아진다. 머지않은 장래에 현실이 될 이슈다.
he is…
1967년 서울에서 태어났다. 서울대 경제학과를 졸업한 후 미국 컬럼비아대에서 로스쿨을 마치고 경제학 박사 학위도 받았다. 미국 월스트리트의 로펌에서 일하다 한국에 와서 국내 대형 로펌에서 근무했다. 연세대 법과대학을 거쳐 현재 서울대 로스쿨 교수로 재직하고 있다. 빅데이터와 인공지능, 그리고 개인정보 보호 등 데이터를 키워드로 하는 분야에 관심이 많다. 최근에는 인공지능이 사회와 경제에 어떤 변화를 가져오는지에 대해 연구하고 있다. 한국인공지능법학회 회장, 아시아법경제학회 회장, 서울대 아시아태평양법연구소 소장, 서울대 인공지능정책 이니셔티브 공동디렉터, 서울대 AI위원회 위원 등으로 활동하고 있다. /한기석논설위원 hanks@sedaily.com
< 저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지 >