어려운 시국에도 ‘인공지능(AI) 발전과 신뢰 기반 조성 등에 관한 기본법’이 지난해 12월 26일 국회 본회의에서 의결됐다. 이로써 우리나라는 유럽연합(EU)에 이어 세계에서 두 번째로 AI를 포괄적으로 규제하는 법률을 갖추게 됐다. 큰 맥락에서 두 법의 상이점을 살펴보면 다음과 같다.
우선 법의 기본적인 내용에서 차이가 난다. EU의 AI 법은 규제적인 측면에만 중점을 뒀지만 한국의 AI 기본법은 AI 기술 개발 및 산업 활성화가 법안의 큰 부분을 차지한다.
두 번째로 EU의 AI 법은 위험 기반 접근 방식에 따라 AI를 위험 수준별로 4개 등급으로 구분해 차등 규제하는 반면 한국의 AI 기본법은 ‘고영향’ AI만을 대상으로 한다. 고영향 AI는 사람의 생명·안전·기본권에 중대한 영향을 미칠 수 있는 AI로 EU AI 법안에서 ‘고위험’ AI의 정의와 일맥상통한다.
마지막으로 과태료 금액에서 큰 차이가 난다. EU AI 법은 글로벌 연간 총매출액의 6%까지를 과태료로 부과하는데 한국의 AI 기본법은 최고 3000만 원이다. 과태료 세부 기준 등 구체적인 사항은 추후 시행령으로 정해질 예정이지만 다국적기업들에 3000만 원의 과태료는 매우 미미한 수준이다.
이러한 차이점에 비춰봤을 때 한국의 AI 기본법은 규제보다는 산업 진흥에 무게를 두고 있는 게 분명한 것 같다. 하지만 규제적인 요구 사항에 대해 긴장을 늦추면 안 된다. 한국의 AI 기본법은 EU의 AI 법과 유사하게 투명성 확보 의무와 안전성 확보 의무를 요구하며 구체적으로는 위험 관리 방안과 설명 방안의 수립·이행을 제시한다.
더불어 법안에 과학기술정보통신부라는 표현이 40번이나 명시돼 있을 만큼 과기정통부에 매우 폭넓은 권한을 부여한다. 여기에는 법 위반 시 조치 권한은 물론 여러 지원과 혜택을 제공할 수 있는 권한도 포함돼 있다. 일례로 과기정통부는 사실 조사를 이행하고 위반 사례에 대한 중지 및 시정 조치를 명할 수 있는 권한(제40조)은 물론 AI 기술 표준화 사업을 추진할 수 있는 권한(제14조), 학습용 데이터 관련 시책을 수립할 수 있는 권한(제15조), AI에 대한 영향 평가를 할 수 있는 권한(제35조), 전문 인력 양성 및 지원(21조) 등 굉장히 많은 권한을 갖는다. 정부에서 제공하는 지원·혜택을 누리기 위해서는 징계 여부를 떠나 기본적인 안정성·투명성 확보 등의 요구 사항에 우선 부합해야 할 것으로 보인다.
규제적 요구 사항들을 충족하기 위한 가장 좋은 방법은 AI 거버넌스로부터 시작하는 것이다. 데이터 전문가, 윤리 전문가, 법률 전문가, 개발자 등 광범위한 이해관계자들이 참여해 AI의 개발 단계부터 혁신과 신뢰를 동시에 촉진할 수 있는 내부 통제 정책을 수립하고 운용하는 거버넌스 말이다. 날카로운 ‘칼날’은 그 자체는 매우 위험하지만 손잡이를 붙이면 매우 유용한 ‘칼’이라는 도구로 쓰일 수 있다. AI 또한 거버넌스를 통해 처음부터 안전한 손잡이를 디자인해야만 제대로 된 도구로 그 용도를 다할 수 있을 것이다.
< 저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지 >