전체메뉴

검색
팝업창 닫기
이메일보내기

AI 시대의 '답설(踏雪)'을 생각하다 [김윤명박사의 AI웨이브]

김윤명 디지털정책연구소장





올 겨울은 유난히 눈이 잦다. 눈이 많이 내리면, 보리가 풍년이라고 한다. 눈 속에 묻힌 보리싹이 겨울 바람을 피할 수 있기 때문이다. 이처럼 세상은 상대적이고, 때론 역설적이다. 인공지능(AI)도 마찬가지이다. ‘두 번의 겨울(AI winter)’을 지났던 인공지능은 어느 때보다 활성화하고 있다. 인공지능이 많은 면에서 인간에게 혜택을 주지만, 다양한 위험도 가져오고 있다. 여전히 미지의 기술인 인공지능에 다가서는 길은 낯설다.

조선시대의 고승 서산대사의 ‘답설(踏雪)’이라는 시를 본다.

“눈 덮인 길을 걸어갈 때 함부로 어지럽게 걷지 말라. 오늘 내가 밟고 가는 이 발자국은 뒷사람의 이정표가 될 것이니”

누군가는 그 길을 갔고, 새롭게 길을 내었지만 제대로 된 길인지는 알지 못한다. 그렇기 때문에 처음 길을 가는 사람은 자신의 발자국이 이정표가 된다는 것을 알아야 한다.

눈 속에 무엇이 있을지 모르기에, 어디에서건 안전은 보장되어야 한다. 그래야, 그 안전체 내에서 불안전한 것을 시도하고 탐색할 수 있기 때문이다. 불안전한 상태에서는 어떤 시도가 이루어지기 어렵다. 말하자면, 표현의 자유가 없다면 누군들 자신의 표현을 제대로 펴기 어려운 것과 비슷한 논리이다.

AI 기본법이 화두가 된 이유는 불안전한 정치 환경에서 법적인 가치를 투영함으로써 일관된 AI 정책을 펼 수 있게 하자는 합의이기 때문이다. AI 기본법에서 반복되는 ‘신뢰성’과 ‘AI 윤리’는 우리의 윤리와는 다른 서구의 개념과 문화의 산물로 이해된다. 주관적 가치체계 내에서 다루어지는 윤리가 법적인 책임까지 확산하는 것은 서구의 공리주의 윤리관과 맞물려 있기 때문이다.

윤리가 이처럼 강조된 입법은 유례가 없다. 가장 과학적인 법으로 생각되는 AI 기본법에 윤리와 신뢰라는 주관적이고, 객관화하기 어려운 가치를 수도 없이 반복하는 이유는 무엇일까. 상당한 내용을 조문으로 규율하기 어렵기 때문이다.

법은 정치해야 한다. 즉, 정교하고 치밀해야 한다는 의미이다. 물고기를 잡아야 할 그물이 아무것도 잡을 수 없는 상태라면, 입법 효과를 기대하기 어렵다. 물론, 바람까지 잡으려 들면 그 것은 더 이상 법이 아니다. 수범하기 어려운 법은 아무런 의미가 없기 때문이다. 법률은 바람이 솔솔 스며드는 그물과 같아야 한다. 법은 인간적이다. AI 기본법은 물론, 다른 산업법도 마찬가지다. 법이 참견하는 것은 그 속에 삶을 영위하는 사람이 있기 때문이다.

안전하다는 것. 그 것은 심리적으로나 물리적으로나 중요한 가치이다. 헌법상 행복추구권의 파생적 권리로서 안전권(安全權)을 이해할 수 있다. 국민의 안전보장은 국가의 존재 이유와 같다. AI가 발전하고 있고, 이중용도(dual use)라는 이유로 규제를 받기는 하지만 이러한 흐름을 벗어나기 어렵다. 그리고 어렵더라도, 그 흐름에 휩쓸리지 않도록 해야 한다. 기술에 대한 투자를 하되, 기술과 그 이용이 오남용되지 않도록 해야 한다. 안전한 상태는 무념무상이 아닌 변화무쌍한 AI로부터의 안전이다. 안전 기준을 기술적인 것으로 삼는다면 기술의 발전에 따라 끊임없이 근거를 고민해야 한다. 문제는 예측가능하지도 않은 기준을 규제 근거로 삼는다면, 법적 안정성까지 훼손될 수 있다는 점이다.



법은 또한 명확해야 한다. 무엇을 하자는 것인지 뚜렷하여 틀림이 없는 명확성 원칙에 따라 제정되어야 한다. 그래야, 수범자는 입법목적을 예측할 수 있다. 법률이 때론 규제가 되곤 하지만, 규제라는 것이 문제가 되는 것은 예측하기 어려운 때이다. 규제의 높고 낮음의 문제는 그 다음이다. 높은 규제라고 하더라도, 그 높이에 맞게 대응하면 되겠지만 보이지 않는 규제는 대응 자체가 어렵기 때문이다.

AI를 선도하는 기업들의 족적이 선명하지만, 난무하다. 어떤 원칙에 따라 개발되고 서비스되고 있는지 명확하지 않다. 출처를 밝히기도 어려운 데이터로 학습된 AI 시스템은 데이터에 담긴 인간의 문제를 그대로 복제해 내곤 한다. 경쟁자의 서비스에서 합성해 만든 데이터도 상당하다. 심각한 데이터 윤리의 문제이다.

딥시크(deep seek)의 경우, 아예 챗GPT(ChatGPT)를 이용한 합성데이터를 증류하여 유리한 출발(headstart)을 하고 있다. 물론, 기본적인 기술력이 있을 것으로 보인다. 중국의 기술력은 어느 나라보다 우수할 수밖에 없다. 이는 정부의 초법적인 지원이 있기 때문이다. 정부의 지원이 아닌 시장논리에 따라 경쟁이 이루어진다면 어떻게 될까. 어쩌면 시진핑 이후의 중국은 많은 변화가 있을지도 모를 일이다.

AI 기본법은 인공지능 기술과 산업 발전에 대해 정책적 고민이 담겨있다. 그렇지만, 생각해 보자. 다른 나라는 왜 규제라 불리우는 안전장치를 법률에 담고자 했을까. AI가 보이지 않는 기술이지만, 그 미치는 파급력은 가늠하기가 어렵기 때문일 것이다. 우리도 고영향 AI에 대한 사업자 의무를 규정하고 있지만, 별다른 강행규정을 두고 있지 않다. AI 안전은 시장경쟁에서 이루어지는 것만은 아니다. 국가의 책무에서 비롯된다는 점을 정책하는 사람은 알아야 한다.

이제 소프트웨어(SW)로서 AI는 물리적 AI(physical AI)로 진화하고 있다. 로봇이 AI 모델이라는 두뇌를 담고 활보하는 모습은 머지 않았다. AI나 로봇에 대한 투자가 이루어지는 만큼, 우리 일상에 미치는 영향과 문제에 대해서도 관심도 비례해야 한다. 지능형로봇법과 AI 기본법의 커플링이 이루어져야 할 때다.

이를 위해서는 부처간 협력이 무엇보다 중요하다. 과거 진대제 장관 시절, 정보통신부의 ‘IT839 전략’에서 임베디드 SW와 지능형 로봇을 핵심산업으로 이끌었던 것을 반추해 보면 좋을 것이다. 거의 모든 영역에 임베디드 SW가 부품처럼 스며들어 있다. 묘하게도, 지금은 두 영역이 산업부의 주된 사업으로 추진 중이다.

물리적 로봇의 대표는 자동차이다. 자동차의 SW R&D 비중은 50%를 넘어선지 오래다. EU처럼 AI를 포함한 SW의 제조물책임을 인정하는 입법이 이루어져야 한다. 안전하지 않는 제품, 결함있는 제품을 소비자에게 제공하는 것을 방관하는 것은 입법권의 소극적 남용이다. 제조물 책임법이 AI 시대에 안전을 위한 법으로 제대로 작동할 수 있도록 개정되어야 하는 이유이다.

앞으로 있을 헌법 개정에서 안전권을 명시적으로 규정할 필요가 있다. 안전에 관한 수많은 법률이 제정되었지만, 우리 사회의 안전을 위해서 필수적이다. 아울러, 인공지능 시대에 걸맞게 정보국가원리와 같은 통치이념이 헌법에 담기는 것도 큰 의미를 가질 것이다. 헌법은 가장 정치적인 법률이다. 정치적인 타협의 산물이기 때문이기도 하지만, 한 나라의 체계가 고스란히 담겨있기 때문이다.

서경In
< 저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지 >
주소 : 서울특별시 종로구 율곡로 6 트윈트리타워 B동 14~16층 대표전화 : 02) 724-8600
상호 : 서울경제신문사업자번호 : 208-81-10310대표자 : 손동영등록번호 : 서울 가 00224등록일자 : 1988.05.13
인터넷신문 등록번호 : 서울 아04065 등록일자 : 2016.04.26발행일자 : 2016.04.01발행 ·편집인 : 손동영청소년보호책임자 : 신한수
서울경제의 모든 콘텐트는 저작권법의 보호를 받는 바, 무단 전재·복사·배포 등은 법적 제재를 받을 수 있습니다.
Copyright ⓒ Sedaily, All right reserved

서울경제를 팔로우하세요!

서울경제신문

텔레그램 뉴스채널

서경 마켓시그널

헬로홈즈

미미상인