국내 정보기술(IT) 업계는 ‘고영향 인공지능(AI)’에 대해 유럽연합(EU)이 다음달 내놓을 구체적인 지침에 주목하고 있다. 22일 시행을 앞둔 AI 기본법에는 고영향 AI의 범위가 모호하게 규정돼 있어 AI 기업들의 불확실성이 크기 때문이다.
19일 IT 업계에 따르면 EU 집행위원회는 다음달 2일(현지시간)까지 AI법의 6조와 관련한 실질적인 실행 가이드라인을 공개할 예정이다. 6조는 한국 AI기본법상 고영향 AI에 해당하는 고위험(high-risk) AI에 대한 분류 체계를 다루고 있다. EU 집행위는 가이드라인을 통해 고위험 AI 시스템 사용 사례에 대한 지침을 내리고 시장 모니터링 계획도 마련할 방침이다.
EU AI법은 AI 시스템을 위험도에 따라 △금지된 AI 시스템 △고위험 AI 시스템 △제한적 위험 AI 시스템 △최소 위험 AI 시스템 등 4가지로 구분하고 차등적 의무를 부과한다. 이 중 고위험 AI 시스템에는 적합성 평가와 기본권 영향평가 의무가 부과된다.
국내 IT 기업들은 AI기본법상 고영향 AI 규정 근거인 ‘사람의 생명, 신체의 안전 및 기본권의 보호에 중대한 영향’의 범위가 불분명하다며 우려하고 있다. EU처럼 실제 사례별로 접근하는 가이드라인이 필요하다는 목소리가 나오는 이유다. 우리 정부는 지난해 9월 AI기본법 하위법령집을 공개하며 고영향 AI에 포함되는 영역으로 에너지, 보건의료, 범죄 수사·체포, 교통 등 10가지를 제시했지만 여전히 범위가 불투명하다는 지적이 나온다. IT 업계 관계자는 “현재까지 마련된 정부의 AI기본법 지침만으로는 AI 사업자가 판단하기 어려운 점이 많다”면서 “AI 서비스의 고영향 AI 해당 여부에 대해 정부가 최대한 신속하게 확인해줄 필요가 있다”고 진단했다.
< 저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지 >





coldmetal@sedaily.com








