AI 웨이브
AI가 가져올 수 있는 여러 위험을 시장의 자율에 맡길 것인가, 아니면 국민의 안전을 위해 규제를 통해 관리할 것인가는 복잡한 문제이다. 자율과 규제는 상호보완적인 관계에 있으며, 어느 한쪽에 치우친 접근은 문제가 될 수 있다. 기술과 이용이 상호 연관되어 있듯이 자율과 규제도 균형을 이루어야 한다. AI는 블랙박스 특성을 가지므로 그 작동 원리와 결과를 예측하기 어려운 경우가 많다. 따라서, 안전한 AI를 구현하기 위해 기술적, 제도적 측면에서 다양한 방안이 필요하다. 예를 들어, 설명가능한 AI 기술의 발전과 국제표준화가 이루어지고 있으며, 이는 기술외교의 중요한 요소로 작용한다. AI와 관련된 글로벌 논의와 정책은 국가별로 다르게 전개되고 있다. 2023년 11월, 영국 블레츨리에서 AI 안전에 대한 글로벌 논의인 AI Safety Summit이 있었고, 블레츨리 선언(Bletchley declaration)이 이루어졌다. 2024년 5월, 서울에서 후속 논의인 AI Seoul Summit이 개최된 바 있다. AI의 편향, 공정, 신뢰의 가치를 넘어 AI 안전이라는 의제를 다루었다. 또한, AI 안전을 위한 정책과 기술 모니터링을 위한 AI 안전연구소 설립도 발표되었다. AI 안전연구는 특정 부처만의 역할이 아닌 범부처의 역할로 보아야 한다. AI는 고도의 알고리즘을 통해 구현되는 의사결정시스템이다. 조건에 맞게 작동하며, 그 조건에 부합하지 않을 경우 ‘결함’이 있는 상태가 된다. 그동안 SW 안전에 대한 논의에서는 SW의 결함이 수용 가능하거나 대응 가능한 수준이라면 큰 문제로 보지는 않았다. 그렇지만, AI는 블랙박스로서 원인과 결과를 예측하기가 쉽지 않고, 인과관계가 아닌 상관 관계의 추론에 머무는 수준이다. 그렇기 때문에 AI 안전을 위한 기술적 측면, 제도적 측면 등 여러 가지 방안이 강구되고 있다. 설명가능한 인공지능은 다양한 영역에서 연구되고 있으며, 국제표준화작업이 진행 중에 있다. 표준화는 기술외교의 한 방편이다. 특히, 국제표준은 글로벌 AI 정책이나 기술에 있어서 헤게모니를 가질 수 있다는 점에서 중요한 기술외교의 영역으로 볼 수 있다. 설명가능성을 높이기 위한 입법이 이루어지고 있으며, 이는 기술의 과정에서 이용자에게 신뢰성을 얻기 위해서는 필수적이다. 최근에는 생성물로 인한 안전을 담보하기 위해 환각현상을 완화할 수 있는 방법으로 검색증강생성(RAG) 기술이 제시되고 있다. 검색증강생성은 고전적인 AI인 전문가시스템(expert system)으로 볼 수 있다. AI 겨울을 초래했던 전문가시스템이 새롭게 그 역할을 인정받는 시대에 이르고 있다. 이처럼 기술 발전은 서로 융합되거나 기술로 인한 문제를 해결해가는 수단이 될 가능성도 높다. 다만, 기술의 문제를 기술로 해결하려는 것은 지양될 필요가 있다. 기술의 문제에 대한 최종적인 판단과 책임 주체는 사람이어야 하기 때문이다. 그렇지 않을 경우, 기술의 문제에 대한 사람의 책임이 배제될 수 있기 때문이다. AI로 인한 여러 문제에 대한 투명성, 공정성, 책무성 등을 강조하는 정책들이 제안된 바 있다. 결국, 최종적인 이용자인 일반 국민의 안전을 위한 것이라고 하겠다. 클로드 AI(Claude AI)에서 적용하고 있는 헌법적 AI(constitutional AI)는 답변 과정에서 법적인 사항까지도 체크한다. 이처럼 AI가 생성하는 결과물에 대해 위법한 내용에 대해 문제가 있다는 점을 명확히 하는 것도 의미있다. 헌법적이라는 표현을 쓰고있지만, 사람이 갖추어야할 윤리적인 내용을 체계적으로 정리하고 기술에 적용한 모델로 볼 수 있다. 최상위 규범을 정하고, 그 규범에 따른 하위 규범이 구체화된 것으로 볼 수 있다. 일종의 입법체계가 AI 모델에서 구현된 것이다. 이와 같이, 결과만을 생성하는 것이 아닌 질문의 맥락을 파악하고 그 내용이 법률적으로 문제가 되는지에 대한 조언까지 제시한다면, 이용자는 자신의 행위에 대한 윤리적인 판단을 할 수 있기 때문이다. 물론, 자기검열로서 역할을 할 수도 있을 것이다. 다만, 그 과정에서 타인의 명예훼손이나 나의 위법행위에 대한 판단을 내릴 수 있다는 점에서 표현의 자유를 훼손한다고 단정하기는 어렵다. 결국, 최종적인 판단은 이용자 스스로 선택에 따른 결과이기 때문이다. 사회 규제가 갖는 성격상 안전을 위한 것이라는 점에서 기술의 안전을 확보하기 위한 규제는 필요충분성을 갖추어야 하기 때문이다. 즉, 최소한의 안전성이 보장된 상태에서 신기술이나 신사업이 허용되도록 하고, 발전과정에서 안전성 보장을 조정하고 강화하여야 한다. 결국, AI에 대한 규제의 성질은 그 특성에 따른 규제 접근이 필요하다. 기업들이 선호하는 자율 규제라는 것은 기업이나 개발자 스스로 AI보다 더 윤리적이어야 하다는 전제에 기반한다. ‘선허용 후규제’가 논란이 된 적이 있지만, 사전적인 규제가 없다는 점이 반드시 긍정적으로 작동하는 것은 아니다. 이러한 규제가 강한 규제로 실시되거나 예측하지 못한 규제가 되는 경우에 막대한 투자가 물거품이 될 수 있기 때문이다. 이처럼 미지의 기술인 AI에 대한 사전적 규제없이 시장 출시를 허용할 경우, 사업자는 이에 대한 리스크나 예측가능성을 충분히 대응할 수 있을지 의문이다. 따라서, AI의 성질이나 목적에 따라 구체적인 기준을 제시함으로써 사업자나 이용자에게 예측가능하고 신뢰가능하도록 해야할 것이다. 정부의 규제는 AI 윤리에서 EU AI법과 같이 법적 규제로 넘어가고 있지만, 모델 자체는 여전히 사람과 같이 윤리적 가치가 우선적으로 적용될 수밖에 없다. AI 안전은 궁극적으로 국민의 안전을 위해 존재하며, 이를 위해 적절한 규제가 필요하다. 자율 규제는 기업이 스스로 윤리적 기준을 지켜야 한다는 전제에 기반하지만, 예측 가능한 범위 내에서 안전 규제를 통해 AI 기술의 문제를 관리하고, 국민의 신뢰를 얻는 것이 중요하다.
2024.07.07 09:37:27