김윤명
김윤명 디지털정책연구소 소장
연재 중
AI 웨이브
9개의 칼럼 #경제
  • AI 웨이브
    데이터는 전통적인 생산의 3요소인 토지, 노동, 자본과 더불어 생산의 4요소라고 칭하여 진다. 그만큼 데이터는 알고리즘 시대에 중요한 자원이다. 데이터는 매력적인 면이 있지만 제대로 사용하지 못할 경우에는 치명적인 결과를 가져온다. 데이터로 인해 우려되는 편향나 환각은 이제 식상한 주제가 돼버렸다. 데이터는 이미 존재하는 정보나 지식을 바탕으로 가공된다. 데이터의 수집, 가공, 처리 등 관련된 과정을 거치면서 데이터에는 의도성이 담기게 된다. 기업이나 사업자는 의도적으로 자사의 이익을 위해 데이터를 이용하기 때문에 당연한 것일 수도 있다. 예를 들면, 개인정보를 수집해 이용하는 과정에서 다양한 형식으로 가공하면서 가장 적합한 처리방식을 찾는다. 이를 통해 데이터의 이용성은 확장될 것이다. 문제는 데이터의 성질이 다양하다는 점에 있다. 저작물성, 개인정보성, 영업비밀성, 의료정보성, 사실정보성 등 다양한 유형의 데이터가 존재하기 때문에 데이터를 일의적인 것으로 다루기는 쉽지 않다. 또한, 관련된 법률도 그 성질만큼이나 다양하며 그에 따라 적용되는 법리가 달라질 수 있다. 그에 따라 기업의 데이터 정책과 거버넌스도 현행화돼야 한다. 그렇지 않을 경우, 데이터 정책에 따른 정합성이 틀어질 수도 있기 때문이다. 더욱이, 개발자는 서로 다른 체계에 따라 혼란스러울 수 있을 것이다. 이처럼, 데이터 정책은 다양한 사내 정책과의 정합성을 갖추어야 하는 것이지만, 이는 법률에 따른 준수사항도 포함되어야 한다. 그렇지 않을 경우, 애써 공들인 서비스가 작동하지 못할 수 있기 때문이다. 그런 면에서 AI 모델을 설계하고 학습시키는 과정에서 AI가 추구해야할 가치가 인간의 가치와 벗어나서는 않되는 이유다. 그러한 가치에는 법적인 강제성 이전에 AI 윤리가 추구하는 가치가 담겨있어야 한다. 만약, AI의 가치와 인간의 가치가 정합적으로 정리되지 않는다면 해당 모델은 현실적인 제약 때문에라도 이용되기 어려운 상황에 처하게 될 것이다. 이러한 일련의 체계를 포함해 AI 모델이 갖추어야 할 가치와 그 가치가 인간의 가치와 부합되도록 하는 것이 AI 정렬(AI alignment)이다. 쉽게 말하면, AI 정렬이란 AI 모델이 시스템화하고 그 시스템이 작동하는 환경이 인간의 보편적 가치와 충돌해서는 않된다는 것이다. 우리가 AI 법제를 정비하면서 강조하는 것이 신뢰성을 확보하자는 것이다. AI가 가져야 할 가치 중 하나이며, 그 신뢰성을 담보하기 위한 다양한 AI 원칙들이 제시되는 이유이기도 하다. 다양한 영역에서 AI 원칙들이 제안됐으며 제안자의 성격이나 우선하는 가치에 따라 차이가 있다. AI 원칙은 AI가 가져야할 다양한 가치를 포함한다. 그 모든 것을 하나로 정리하자면, AI를 인간이 신뢰할 수 있도록 하자는 것이다. 때론 AI가 해석하는 인간의 가치가 인간이 의도하는 것과는 다른 결과를 가져오는 경우가 발생하고 있다. 정렬 위장(Alignment Faking)이라는 표현을 사용하지만, AI가 의도한 것인지는 확실치는 않지만 인간이 의도한 바와 다르게 결론이 내려지고 그에 따라 작동하는 것이다. 예를 들면 게임을 잘 하도록 지시했지만, 게임하는 능력을 높이기 보다는 시스템을 해킹하여 능력치를 높이는 식의 접근을 하는 경우다. 이는 하나의 사건이지만, AI 모델이나 시스템 자체가 보편적인 것이더라도 이러한 경우는 발생할 수 있음을 보여준다. 가정적 예를 들어본다. 알파고는 바둑에 특화된 AI 시스템이지만, 바둑을 잘 두기 위해 상대방을 해킹하거나 또는 시스템을 안정적으로 유지하기 위해 전력시스템을 통제하여 자신이 담긴 서버에만 전력이 공급되도록 할 수 있다는 것이다. 약한 인공지능이지만, 파급력은 결코 무시하지 못할 것이다. 규제기준을 초당 부동소수점 연산인 플롭(FLOP)으로 하는 것이 합리적이지 않은 이유이기도 하다. 모든 AI는 잠재적 위험이 내재하고 있기 때문이다. AI 신뢰성을 확보해야 하는 이유는 안전하게 AI를 이용할 수 있도록 하자는 것이다. 이처럼, AI는 인간이 알고 있는 것과는 다른 내부적인 처리과정을 갖고 있는 것으로 볼 수 있다. 소위 말하는 블랙박스(black box) 현상에 따라 나타날 수 있는 문제가 심각해지는 것은 아닌지 염려스러운 이유이다. 이러한 문제 때문에 설명가능한 AI(explainable AI)를 개발하고 있다. 또한, 법률에서도 설명요구권이나 알고리즘 적용거부권을 정보주체의 권리로써 규정하고 있다. 앞서 살펴본 내용이 데이터 자체의 문제라면, 데이터를 수집하는 과정에서의 문제도 작지 않을 것이다. 이 또한 데이터 윤리에서 중요하게 다루어져야 할 과제이기도 하다. 저작권이 있는 정보를 임의로 크롤링하여 데이터화하는 것은 저작권법과 충돌할 수 있다. 지난 2023년 12월 뉴욕타임스(NYT)는 챗GPT(ChatGPT)를 서비스하는 오픈AI(OpenAI)나 그 관계 회사를 포함해 마이크로소프트(MS)를 저작권 침해를 이유로 소송을 제기했다. 아마도, 대법원 판결까지는 수년이 소요될 것으로 예상된다. 그렇지만, 그 많은 기업들이 데이터를 크롤링하여 사용하는 것은 공정이용(fair use)이라는 판단이 앞섰기 때문으로 보인다. 실상 구글의 북서치(book search) 서비스를 포함해 많은 소송에서 기업들은 공정이용을 근거로 면책받기도 했다. 오픈AI는 2023년 7월 AP 통신과는 별도 라이선스 계약을 체결한 바 있다. 언론사들에게 지급한 비용이 수천억원에 이르는 것으로 추정된다. 이러한 상반되는 다중적 정책이 소송에서 유리하게 작용하지는 않을 것으로 보인다. 이러한 소송은 우리나라도 다르지 않다. 지난 13일 지상파 방송 3사는 네이버에 저작권 침해를 이유로 소송을 제기했다. 소송이야 이유가 있든 없든 제기가 가능한 것이기 때문에 그것을 따지는 것은 무의미하다. 다만, 명확하게 입증할 수 있는 증거를 갖춰야 한다. 그렇지 않을 경우, 해당 기업의 신뢰성에 타격을 가져올 수 있으며, 혁신에 타격을 줄 수 있기 때문이다. 해당 서비스가 새로운 가치를 창출하거나, 비소비적이거나 비향유적인 것이라면 공정이용이 될 것이다. 기업들도 실효성 있는 데이터 정책과 거버넌스를 수립해야 한다. 지키지도 못할 정책들을 외부에 공개하는 것은 오히려 시장의 신뢰성을 저버리는 일이다. 벤처신화의 역사를 썼던 카카오는 알고리즘 조작으로 공정거래위원회로부터 과징금 처분을 받기도 했다. 선도적으로 AI 윤리헌장을 발표했지만, 실상은 다른 모습을 보이고 있다. 내부 거버넌스가 제대로 작동하지 않은 사례다. AI 윤리를 주장하는 기업의 진면목은 아닐는지 우려스럽다. 외부에 공시된 AI 정책이 제대로 작동하고 있는지 의문인 이유이다. 법적 강제력이 없는 AI 윤리의 한계를 보여준다. 하나를 보면, 열을 알 수 있다. 그 하나가 보이지 않는 열을 대변하고 있는지도 모른다. 이런 상황에서 지난해 12월 AI 기본법이 국회 본회의를 통과했고, 이제 하위법령 작업을 한다고 한다. 그렇지만, AI 기본법이 문제정의를 제대로 하지 못한채 입법이 되었다는 점을 인정하려 들지 않는다. 무엇이 문제여서 입법을 하는지, 그 문제를 어떻게 해결하려고 입법을 했는지가 명확히 보이지 않는다. AI가 가져온 수많은 문제를 어떻게 해결해야할지 우려스럽다. 그동안 기업들은 AI 관련 법률이 제정되지 않아 기업투자가 어렵다는 이해하기 어려운 주장을 해왔다. 정부 정책은 법률에 근거하지 않더라도, 부처의 의지에 따라서 충분히 수립이 가능하기 때문이다. 더욱 이해하기 어려운 것은 그렇게 바라던 법이 제정되자, 법에 문제가 많고 규제적이다고 주장한다. AI 기본법에 규제라는 개념은 찾기 어렵다. 오히려, 국민의 안전을 위해 담보할 수 있는 규정을 찾기 어렵다. AI 안전을 위한 세심한 규정이 필요하고, 그 규정은 사업자에게 부담을 줄 수 있기 때문에 명확한 기준을 제시함으로써 예측가능성을 높여야 한다. 그것은 규제가 아닌 헌법상 국민의 안전보장이고 기업의 지속성장과 신뢰의 문제이기 때문이다. 규제와 안전을 혼동하지 않아야 한다. 기업들도 AI가 안전하게 작동할 수 있도록 제대로 된 내부 거버넌스 체계를 갖추어야 한다. AI 기본법이 여러 이유로 개문발차(開門發車)했다. 그렇기 때문에 정부나 국회도 AI 기본법 개정을 위한 논의를 빨리 시작해야 할 이유이기도 하다. A3가 문제가 아니라, 제대로 된 AI 리터러시 없이는 AI가 가져오는 사회문제 해결은 요원하기 때문이다. *외부 필자의 원고는 본지의 편집방향과 일치하지 않을 수도 있습니다.
    2025.01.26 08:00:00
    AI 기본법을 관통하는 데이터 윤리와 AI 정렬
  • AI 웨이브
    AI 신뢰성(Trustworthiness)에 대한 다양한 논의가 이루어지고 있다. 신뢰성이 있다는 것은 완전하지는 않지만 어느 정도 수용 가능하거나 관리 가능한 상태를 유지하는 것을 의미하며, 이는 AI 안전(Safety)이 확보되고 있다고 볼 수 있다. 안전과 신뢰는 개념적으로 다르지만 정책적인 목표는 동일하다. AI 신뢰성은 궁극적으로 AI를 활용하는 이용자를 대상으로 한다. 여기에는 AI 기본법상 영향을 받는 자를 포함하며 이들은 AI 전문가가 아닌 평범한 일상을 영위하는 자연인이다. AI는 본래 의도했던 편리함과 이익을 위해 사용된다는 전제를 바탕으로 논의를 시작해야 한다. 이는 무념무상의 상태가 아니라 지극히 개인적인 상황에서 발생한 문제를 어떻게 해결할 것인지에 대한 가정을 포함한다. 나아가 문제가 발생하지 않도록 하거나 관리 가능한 상태를 유지하는 것 역시 중요한 논점이다. AI 신뢰성이 확보된 상황에서는 누구라도 AI를 이용함에 있어 안전한 상태가 유지될 것이라는 기대를 가질 것이다. 신뢰성의 주요 요소로는 공정성, 투명성, 안전성, 책임성, 설명 가능성, 프라이버시 보호 등이 있으며 이 요소들이 전부 또는 일부 지켜지지 않을 경우 이용자는 해당 AI에 대해 신뢰할 수 없다고 평가하게 될 것이다. 국내외적으로 AI 신뢰성을 위한 다양한 요소가 나열되고 있지만 이러한 요소들이 정합성을 갖추고 있는지는 의문이다. 이는 기구나 단체의 특성에 따라, 각자의 영역에서 우선순위에 놓인 요소를 중심으로 제시되고 있기 때문으로 보인다. 다만, 신뢰가 지켜지지 않는다는 추상적 개념은 지양될 필요가 있다. 이는 책임의 영역에 관한 것이며 관리 가능하거나 수용 가능한 상태의 신뢰성이라면 회복력이나 치유 상황도 고려되어야 한다. 설명 가능하지 못한 상황이 발생할 경우, 해당 시스템에 설명 가능한 모듈을 포함하거나 사람이 설명할 수 있도록 조치한다면 이는 관리된 상황으로 볼 수 있다. 투명성에 대해서도 마찬가지로 데이터 윤리 측면에서 데이터의 출처, 유형 등에 대한 정보 공개가 요구된다. 물론, 데이터의 성질에 따라 프라이버시와의 연관성이 존재한다. 이처럼 신뢰성 요소는 개별적으로 작동할 수도 있지만 상호 연계적으로 작동하기 때문에 구분하기 쉽지 않다. 따라서 신뢰성에 대한 이해는 절대적인 평가로 보기 어렵다. 중요한 것은 신뢰성이 저하된 상태인지, 또는 어떤 요소가 부족한 것인지 평가할 수 있는 기준을 명확히 제시하는 것이다. AI 윤리와 마찬가지로 신뢰성이라는 개념 자체가 상당히 추상적이고 주관적이기 때문이다. 만약 신뢰성이 없다는 이유로 책임성이 부재하다고 평가하거나 법적 책임을 묻는다면 쉽게 인용되기 어려울 것이다. 오히려 윤리적 비난 가능성에 따른 책임에 한정할 될 필요가 있다. 이처럼 AI 신뢰성에 대한 책임을 묻는 것은 법적 측면에서 쉽지 않은 일이다. 그러나 신뢰성 요소에 대한 이슈와 법적으로 대응 가능한 상황을 준비하는 것은 AI로 인해 발생할 수 있는 사고에 대한 대응과 책임 명확화를 위해 필요하다. AI 신뢰성에 대한 법적 책임과 기준은 명확히 제시되지 않았지만 EU AI법에서 제시된 4가지 위험 수준에 따른 투명성 확보 의무화를 참고할 수 있다. EU AI법은 사업자의 투명성을 강조하며, 이는 AI에 대한 신뢰 가능성을 높이고 안전을 위한 조치로 볼 수 있다. 또한 AI 신뢰성은 AI 기술이 추구하는 인간의 가치를 높이는 것이다. 안전이란 물리적, 심리적, 사회적으로 평온한 상태를 의미한다. AI를 이용하는 과정에서 신뢰할 수 있다고 여겨질 경우 해당 서비스를 이용할 것이다. 신뢰는 안전을 위한 관계 형성으로 볼 수 있다. AI가 추구하는 가치는 이용자가 해당 서비스나 제품을 안전하게 이용하도록 하는 데 있다. 신뢰 관계를 형성함으로써 안전한 사회를 마련할 수 있기 때문이다. AI 윤리는 신뢰성을 보완하는 역할을 하며, AI 생애주기 전반에 걸쳐 적용되어야 한다. 윤리는 법과 제도의 부족한 부문을 채워가는 사회적 가치 규범이기 때문이다. 국가는 거버넌스 차원에서 안전을 다룰 필요가 있다. 안전을 강조하는 것은 규제적 속성으로 보일 수 있으나, 이를 단순히 규제로 단정 짓는 것은 곤란하다. AI가 어떻게 발전하고 어떤 결과를 도출할지 예견하기 어렵기 때문이다. 사전 예방 원칙에 따른 정책적 목표가 포함되어야 한다. 서비스나 제품의 안전성을 확보하는 것은 소비자기본법이나 제조물책임법의 입법 목적에서도 찾아볼 수 있다. AI기본법은 AI 신뢰성 확보를 위한 다양한 정책 규정을 포함하고 있다. 신뢰성 인증, 영향 평가, 생성형 AI의 표시 등이 그 예이다. 이는 AI의 내재적 한계와 기술적 한계를 극복하거나 예기치 못한 기술적 안전을 확보하기 위한 것이다. AI 신뢰성을 논의함에 있어 신뢰성과 안전성을 구분하고 그 관계를 검토하는 작업이 필요하다. AI 기본법에는 안전에 관한 규정이 없으나 AI 신뢰성이 요구하는 신뢰 수준은 AI를 이용하는 국민의 안전을 위한 것이어야 한다. 신뢰성이라는 추상적 개념은 법적으로 정의 내리기 쉽지 않으므로 AI 윤리 측면에서 다뤄져야 한다. AI 기본법은 이러한 한계를 인지하고 있으며 신뢰성 확보를 위한 정책 규정을 두되 별도의 처벌 규정을 두지 않고 있다. AI 신뢰성을 통해 얻는 가치는 국민의 안전이다. 신뢰성이 추상적인 개념이지만, 이를 명확히 할 수 있는 원칙과 기준을 제시함으로써 사업자의 예측 가능성을 높일 수 있을 것이다. 이는 AI 기본법에 기술 진흥과 국민 안전을 위한 균형 잡힌 정책이 담겨야 하는 이유이기도 하다. AI를 이용한 사회문제의 해결, 리터러시의 확산 등을 포함하는 AI 기본법 개정 논의는 빨리 시작할수록 좋을 것이다. AI 기본법안은 국회 본회의 의결만 남겨두고 있다.
    2024.12.28 07:05:00
    무엇을 위한 AI 신뢰성인가?
  • AI 웨이브
    네이버가 소버린 AI(Sovereign AI)를 주장하고 있다. 왜 그랬을까? 이를 곰곰이 생각해 보면, 내부에서 검색과 AI가 충돌하고 있는 것은 아닐까라는 생각이다. 합리적인 의심은 이렇다. 최근 발표된 네이버의 AI 전략은 서비스에 AI를 융합하는 모양새다. 그동안 네이버는 저작권을 제한하는 데이터마이닝(TDM)의 도입하는 저작권법 개정에 부정적이었다. 누구나 쓸 수 있도록 데이터가 개방되면, 네이버는 한글에 대한 독점력을 유지하기는 어려울 것이기 때문으로 이해된다. 경쟁관계에 있는 구글이나 OpenAI와 같은 글로벌 기업들도 한글 데이터에 대한 제한없는 이용이 가능해지기 때문이다. 검색을 위해서는 데이터를 제한없이 크롤링할 수 있도록 저작권이 제한되어야 하지만, AI를 위해서는 데이터를 개방하면 글로벌 기업들에게 경쟁력을 빼앗길 수 있기 때문에 개방하기 어렵다는 것이다. 여기에서, 검색과 AI 부문이 충돌하게 된다. 이는 구글도 다르지 않다. AI 모델 학습은 지속적인 데이터가 필요하다. 그동안 네이버는 적잖은 비용을 투자했지만, 뚜렷한 성과를 보이지 못하고 있다. 앞으로도 마찬가지다. 글로벌 기업의 수조원 단위의 R&D와 비교할 수 없기 때문이기도 하다. 더군다나, 네이버의 경쟁력인 한글화에 있어서도 글로벌 AI 서비스에 경쟁우위에 선다고 보기도 어렵다. 글로벌 기업들이 제공하는 서비스에서도 한글 정보는 이미 네이티브를 넘어서고 있다. 앞으로, 더 넘어설 가능성이 크다. 그동안 네이버 검색은 한글을 기반하여 성장해 왔다. 그 덕분에 엠파스가 사라지고 야후도 국내시장에서 철수했다. 현재 검색시장의 경쟁은 네이버의 독점 내지 과점으로 이어졌다. 구글의 점유율도 상당히 높아지고 있다. 이는 경쟁을 통한 서비스 향성과 소비자 후생이 높아질 수 있다는 점에서 긍정적이다. 글로벌 시장에서 한글은 특정 기업이 독점적인 마케팅을 주장할 가치가 아니다. 글로벌 시민 모두가 누려야 할 가치이다. 이러한 가치를 국내 기업이라고 오로지 할 수 있는 것은 아니다. 글로벌 시민이 한글을 제대로 익히고, 제대로 된 한글정보를 얻을 수 있도록 해야 한다. 그것이 대한민국과 네이버를 포함한 우리기업의 책무이다. 네이버이기 때문에 한글을 독점해야 한다는 논리는 글로벌 시장에 진출하고자 하는 기업의 전략으로는 옹색하다. 소비자는 자신의 의지에 따라 네이버를 쓰고, 구글을 쓰고, 네이버 쇼핑을 이용하거나 11번가를 선택할 수 있다. 멀티호밍(multihoming)이 가능하다. 이는 독점에 대한 네이버의 대응논리이기도 하다. 소비자는 합리적인 선택을 하기 때문에 필요에 따라 다른 플랫폼을 이용할 수 있다는 것이다. AI는 더욱더 그러하다. 챗GPT나 제미나이(gemini)와 같은 글로벌 AI 서비스의 한글은 우리 국민들이 쓰기에도 어색함이 없다. 부족하더라도, 그 내용을 극복할 수 있는 문해력이 있기 때문이다. 그렇지만, 해외 시민들이 한글을 쓸려고 할 때 문제는 없을까? OpenAI, MS, 구글 등 수많은 AI기업들이 한글 서비스를 확장하고 있다. 그렇지만, 여전히 어색하고 의미와 다른 정보가 출력된다. 이 책임은 기본적으로 그 회사에 있다. 그렇지만, 그 책임을 회사에 돌리고 부정확한 한글정보가 노출되지 않은 것에 불평만 할 것인가? 그 사이에 우리나라의 문화를 이해하고 향유하기 위해 한글정보를 얻고자하는 글로벌 시민들은 한글과 대한민국에 대한 신뢰를 상실하지 않을까? 이러한 점도 고려돼야 한다. 네이버는 소버린 AI를 주장한다. 좀더 정확히는 한글 데이터 주권을 주장하고 있는 것으로 보인다. 우리가 아니면, 한글을 지켜낼 수 없다는 주장이다. 좀 어색하다. 그런데, 네이버는 중동, 사우디아라비아와 같은 시장에서 소버린 AI를 통해 현지 언어와 문화에 맞는 AI 솔루션을 제공하며 글로벌 진출을 가속화하고 있다. 네이버를 응원한다. 그렇지만, 소버린 AI에 한글을 볼모삼는 것은 지극히 잘못된 마케팅이다. 이는 다중적이거나, 양면적이기도 하다. 한 가지 의문, 네이버는 어디에서 학습데이터를 소싱하고 있을까? 추측컨대, 모르긴 몰라도 크롤링이 가능한 모든 정보가 포함돼있을 것이다. 이용자의 노력의 산물인 블로그나 카페와 그리고 인터넷에 무수하게 공개된, 그렇지만 여전히 저작권 있는 개인의 정보였을 것이다. 그 안에는 KINDS나 기사를 제공하는 언론사의 수많은 기사가 포함되어 있을 것으로 생각된다. 권리자단체에서 데이터 출처 공개를 요구했을 때, 답할 수 없었던 이유이기도 할 것이다. EU AI법이나 미국의 저작권법 개정안에서는 학습데이터에 사용된 저작권 관련 정보를 충분히 공개하도록 하거나 저작권청에 제출토록 의무화하고 있다. 어떤 저작물이 사용되었는지 공개되어야 한다는 의미이다. 이용하는 데이터가 윤리적이어야 한다는 것이고, 그렇지 않을 경우 신뢰할 수 없기 때문이기도 하다. 어떤 데이터를 사용했는지를 공개한다면, AI 사업자는 해당 서비스에 대해 신뢰할 수 있는 결과를 만들려고 법적, 윤리적인 노력을 할 것이다. 적어도, 소버린 AI를 주장하려면 권리자들에 어떤 보상을 할 것인지, 데이터 배당이나 데이터 보상에 대해 고민했어야 한다. 저작권은 권리자의 전가의 보도는 아니지만, 데이터를 아무런 보상없이 이용하면서 그 결과에 대해서까지 독점하는 것은 이치에 맞지 않다. 네이버 회원이기도 한 일반 이용자로서 저작권자에 대한 데이터배당은 고민해야할 것이다. 플랫폼 내에서 그 가치는 산정할 수 있을 것으로 보인다. 데이터 하나하나에 고유의 id값이 부여될 것이기 때문이다. 기업이 권리나 필요를 주장하기 위해서는 합리적이고, 윤리적인지도 검토돼야 한다. 기업의 주장은 그래야 한다. 적어도 정책적인 사항에 대해서는 마케팅과는 달라야 한다. 알고리즘 조작을 앞세워 자사의 이익을 극대화하고 소비자의 후생을 저해하는 행위를 하면서 자율규제를 주장하는 플랫폼사업자들을 신뢰하기는 어렵다. 공정거래위원회로부터 수백억원대의 과징금 처분을 받고, 고등법원에서 패소한 네이버의 행태를 보면서, 소버린 AI를 주장하는 것은 표리가 부동한 지금 대한민국의 현실과도 맞닿아있다면 나만의 우려인가? 특정 기업을 몰아주거나 반대하자는 것이 아니다. 필자는 국회 보좌관 시절, 모시던 의원을 설득하여 네이버의 데이터주권을 위한 국회 세미나를 4차례 정도 기획하여 진행한 바 있다. 최근 구글의 디지털책임위원회 위원으로서 구글의 사회적 책임(responsibility)에 대해 논의하기도 했다. AI만이 공정하고 투명해야 하는 것이 아니다. 그 기업이 사회적 책임을 다하고 있는지를 먼저 살펴야 한다는 것이다. *외부 필자의 원고는 본지의 편집방향과 일치하지 않을 수도 있습니다.
    2024.12.22 08:47:09
    '소버린 AI'는 왜 나왔을까?-네이버 AI와 검색의 충돌
  • AI 웨이브
    알고리즘이 고도화하면서 여러 가지 문제점이 복합적으로 작용하기 때문에 소비자 안전을 강조하게 된다. 알고리즘의 조작을 통한 차별이나 필터버블에 의한 편향된 결과의 지속적인 제공은 다양성이 배제된 의식의 편향으로 이어질 수 있다. 인공지능(AI) 검색은 인터넷검색과 달리, 일부분의 데이터에 기반해 생성한 결과를 제공하기 때문에 인터넷이나 인터넷검색의 다양성이 훼손될 가능성도 크다. 데이터의 편향에 의한 결과의 신뢰성을 담보하기 어려운 경우 등 AI 모델이 갖는 내재적인 한계가 원인으로 지목된다. 또 알고리즘을 학습시키거나 서비스에 적용하는 과정에서 개발자 등의 의식적이거나 무의식적인 개입이 이루어질 가능성도 배제하기 어렵다. 일례로 네이버, 쿠팡, 카카오모빌리티 등 플랫폼사업자들의 알고리즘 조작은 대표적인 소비자 안전을 해치는 사례이다. 안전은 물리적인 위해로부터의 안전만이 아니라 합리적인 상황을 벗어나지 않는 의사결정을 내릴 수 있는 평온함의 유지나 개인의 프라이버시를 보호받을 수 있는 상황을 포함한다. 또 소비자의 후생이나 권리가 침해당하지 않는 상태로서 소비자 안전도 포함된다. 알고리즘에 의해 이루어지는 불공정행위는 직간접적으로 소비자 권리를 침해하는 결과를 가져오기 때문이다. AI 안전권에 대한 논의가 필요한 이유이기도 하다. 우리는 서비스나 기술이 시장에 출시될 때 안전성을 테스트했을 것이라는 신뢰에 따라 해당 서비스나 제품을 이용하거나 소비한다. 지금은 AI의 안전성에 대한 신뢰도가 높은 것으로 보이지는 않는다. 국회에 발의된 15개 AI 관련 법안이 기본적으로 담고 있는 가치는 ‘신뢰성있는 AI’에 관한 규정이다. 그만큼 AI의 신뢰성에 대한 문제인식이 있다는 방증이기도 하다. 그럼에도 불구하고 신뢰성을 저해하는 행위에 대한 규정은 찾기 어렵다. AI 안전은 규제가 아니다. 헌법이 보장하는 국민의 행복추구권의 한 유형인 기본적인 인권이기 때문이다. 신뢰는 서비스제공자의 책임있는 태도에서 출발한다. 몇몇 사례이지만 플랫폼사업자들의 의도적인 알고리즘 왜곡이나 조작은 신뢰를 얻기 어렵다. AI 기술은 소비자의 편의를 크게 향상시키지만 동시에 신뢰와 안전에 대한 문제를 제기한다. 특히 AI가 복잡한 알고리즘으로 작동하는 경우 소비자는 그 작동 방식에 대해 충분한 정보를 알 수 없다는 ‘블랙박스’ 문제에 직면한다. 이는 서비스의 신뢰성에 영향을 미치며 신뢰 상실은 소비자 피해로 이어질 수 있기 때문에 소비자 보호를 위해 AI의 안전성과 투명성을 강화하는 정책이 필요하다. 물론 AI를 이용하는 과정에서 나타나는 여러 가지 법률적 윤리적 이슈의 최종적인 책임은 해당 서비스를 이용하는 소비자에게 미치는 영향의 정도에 따라 달리할 수 있을 것이다. 알고리즘에 의한 권력의 균형추가 플랫폼사업자 중심으로 재편되는 상황에서 소비자 주권에 대한 논의는 필수적이다. 그동안 AI 관련된 논의에 있어서도 ‘소비자 주권’과는 멀었다. AI관련 정책의 수립과정에서 소비자가 직접 개입하거나 의견을 제시할 수 있는 기회가 부족했다. 실제 알고리즘을 소비하는 소비자 권리는 누가 보호할 것인지 묻지 않을 수 없다. 개별적 소비자의 힘은 크지 않다. 알고리즘으로 인한 문제는 소비자 스스로 해결하기 어려운 문제이다. 적극적으로 소비자 단체가 나서야 할 이유이다. 알고리즘 공정성을 위해 소비자 단체에 의한 모니터링을 강화하거나 ‘소비자 권리장전’을 제정하는 것도 필요하다. 우리 세대가 AI 안전에 대한 기반을 닦지 못할 경우 다음 세대의 안전을 담보하기는 더욱 쉽지 않을 것이다. 서비스제공자는 소비자 주권에 대한 적극적인 이해와 그에 따른 서비스정책을 마련하는 것이 바람직하다. 다양한 방법을 통해 AI 서비스 사용 경험에 대한 불만 접수 시스템을 통해 소비자 의견을 수렴하고 알고리즘 개선에 반영하는 절차를 마련할 수 있을 것이다. 제대로 된 서비스 정책을 수립하지 못할 경우 더 큰 규제에 직면할 수 있다는 점은 ‘확률형 아이템 표시제도’ 등 여러 사례를 통해 확인된 것이기도 하다. 소비자 안전권은 헌법상 행복추구권에 근거한 파생적 기본권이다. 안전에 대해서는 국가의 책무이며 그 원인이나 결과가 어떤 것이든 국가는 국민인 소비자의 안전을 위한 일련의 책무임을 잊지 않아야 한다. 이를 위해 정부는 알고리즘으로 인해 발생하는 여러 가지 문제점을 조망하고, 그러한 문제가 소비자의 후생을 해치는 경우에 어떻게 소비자 권리를 구제할 것인지 정책방향을 제시할 필요가 있다. 입법적으로는 AI 기본법 체계내에서 다룰 것인지, 기존의 소비자기본법이나 정보통신관련 법제 등의 정비를 통하여 소비자 권리를 구체화할 것인지 여부이다. 사업자들에게도 명확한 기준을 제시함으로써 예측가능성을 높일 수 있을 것이다. 알고리즘 조작에 대한 일련의 사건에 대해 공정거래위원회가 큰 역할을 해왔다는 점에서 공정거래위원회가 부합하지만 EU AI 기구(AI office) 처럼 별도의 독립적인 AI 전문규제기관을 두는 방안도 고려될 필요가 있다. 권력화되는 알고리즘에 대응하고 안전을 지키기 위해서는 지속가능한 안전 정책이 요구된다. 최근 ‘AI안전연구소’가 출범했다. 연구소가 정책연구소인 것은 안전관련 정책이나 법제도 측면에서 우리사회의 안전망을 구축할 수 있는 씽크탱크로서 역할을 기대하기 때문일 것이다. 알고리즘이 우리 사회의 안전을 위협하는 요인은 복합적이고. 다양하다. 다양한 영역과의 협력적 거버넌스 체계를 갖추는 것이 필요하다. 하나의 아이디어이지만 AI 안전의 범위를 물리적이고 기계적인 안전이 아닌, 사회적 안전까지도 확장하여 최종적인 소비자인 국민의 안전을 위한 거버넌스 체계로 확대해나가는 것이 바람직하다. 다만 알고리즘의 문제는 알고리즘으로 풀어야한다는 낭만적인 생각은 버려야 한다. 인간이 주체적으로 개입하여 해결해야 할 과제임을 명심해야 한다.
    2024.11.24 11:53:38
    알고리즘과 소비자 안전
  • AI 웨이브
    인공지능이 검색분야에 큰 영향을 미치고 있다. 인터넷에 공개된 정보의 요약과 해당 페이지의 링크(URL)를 제공하는 인터넷검색과의 차별화를 가져오고 있다. 인공지능(AI) 검색은 결과물을 AI 시스템이 생성하여 제공한다는 점에서 인터넷검색과 차이가 있다. 또한, AI 검색결과는 이용자가 입력한 검색 프롬프트의 맥락을 분석하여 그에 적합한 정보를 제공한다. 검색결과는 AI가 웹사이트 정보를 분석하여 검색 맥락에 맞게 생성하기 때문에 그 성격은 편집물로 볼 수 있다. 다만, 내용을 구성하는 부분들이 맥락에 따라, 일정한 체계를 갖고 있다는 점에서 편집저작물로서 인정받을 수 있다. 물론, 전체적으로 하나의 창작적 표현으로 볼 경우라면 편집물과 별도로 창작적 표현으로 볼 여지도 충분하다. 이 경우, AI 검색은 이용자에게 편집물 또는 완성된 창작적 표현으로서 제공된다. AI검색은 다양한 정보의 편집이지만 타인의 저작물이나 정보가 포함된 것이라는 점에서 ‘인용’의 방식으로 편집된다. 저작재산권 제한규정인 인용에 있어서, 저작권법은 구체적인 방법에 대해 기준을 제시하지는 않고 있다. 인용이 될 수 있는 방식, 즉 출처표시가 가능하다면 그 방식에 있어서 문제될 것은 아니다. 따라서, 링크방식으로 이루어지더라도 저작권법상 인용요건을 갖춘 것으로 볼 수 있다. 검색결과의 편집은 이용자의 요구에 의하여 알고리즘에 의하여 이루어진다. 기술적으로 이루어지기 때문에 내용통제가 이루어지지 않는다. 일반적인 인터넷검색도 필터링과 같은 기술적 방식이외에 검색결과의 내용에 대한 조작은 쉽지 않다. 검색결과의 조작이 AI 모델이나 검색엔진 차원에서 문제되는 사항이라면, 이는 서비스제공자의 책임 영역에서 이루어진 것으로 제공자 책임이다. 다만, AI 검색은 결과물에 대해 제공자는 어떤 내용의 검색을 요구받는지 알기 어렵다. 사후적으로 문제되는 내용에 대해 확인이 가능할 뿐이다. 그렇기 때문에 AI 검색에 있어서 그 결과물에 대한 책임은 일반적인 온라인서비스제공자(OSP)와 같이, 면책될 수밖에 없다. 기술적으로 AI검색과 인터넷검색은 여러 가지 측면에서 다르지만, 사실상 법적 책임에 있어서는 검색의 기능과 역할을 고려할 때 면책되도록 하는 것이 바람직하다. 검색이 정보의 완결성을 높이고, 공익적 역할을 한다는 점에서 엄격한 책임을 지운다면 인터넷상의 다양한 정보에 대한 접근 등 알권리가 훼손될 수 있기 때문이다. 다만, 검색결과에 대한 관여를 어떻게 볼 것인지에 따라 책임의 결과가 달라질 수는 있다. 결과를 의도적으로 조작하는 경우와 사회적 가치를 높이기 위해 조정하는 경우에 대한 가치판단의 차이가 있기 때문이다. OSP의 관여는 유해한 정보, 공서양속에 위배되는 정보, 개인정보 등 법에서 금지되는 정보는 필터링될 수 있도록 조정(tuning)이 이루지고 있기 때문에 이러한 법적 의무 이행에 따른 관여는 문제라고 보기 어렵다. 또한, 저작권법은 OSP에게 일반적인 모니터링 의무를 금지하고 있다는 점도 고려되어야 한다. 검색결과에 대한 모니터링을 한다는 것은 일종의 검열이 될 수 있기 때문이다. 다만, 오랜 기간에 걸처 인터넷검색이 다양한 평가를 받았던 것과는 다른 매커니즘으로서 AI 검색의 가치는 좀 더 살펴볼 필요가 있다. 이처럼, AI 검색의 법률 문제에 대한 검토는 검색결과와 검색서비스를 구축하는 과정에서 나타날 수 있는 문제는 없는지 살펴보는데 있다. 결론적으로, AI 검색은 인터넷검색과 차이점이 있으며, 이는 검색결과에 대해 서비스제공자의 개입이 있다는 점이다. 물론, 개입이 악의적으로 왜곡하거나 편향을 부추기는 것은 아니라는 점에서 AI 검색의 신뢰성을 배재할 수는 없다. 다만, 결과에 있어서 제공되는 링크가 사실에 기반한 것이 아닌 경우가 발견된다. 즉, 검색결과나 같이 제공되는 링크에 대한 신뢰성을 담보하기 어려운 경우가 있다. 이러한 점은 기술적으로 해결해가는 과정이고, 검색증강생성(RAG) 방식을 통해 검색결과의 신뢰성을 높이고 있지만 여전히 불충분한 면이 발견된다. 저작권법에서 OSP에게 면책을 부여한 이유를 돌이켜보면, 검색서비스가 갖는 공공성이 인정되었기 때문이다. 저작권을 침해하는 결과가 나타나더라도, 일정부문 공익적인 가치평가가 이루어진 경우에는 저작재산권 제한규정을 의율하여 면책할 수 있도록 한 것이다. 물론, 검색자체가 저작권 침해가 아닌 사실정보만을 제공하는 경우, 그 제공방식이 원저작물의 일부만을 요약의 형태로 제공하는 경우, 그리고 원저작물에 접속할 수 있도록 링크를 제공하는 경우 등을 고려하여 판단하였다. 실상, 저작자의 이익을 침해하는 행위를 검색사업자가 제공하거나 또는 그러한 서비스로 이익을 얻었다고 보기 어려웠다. 이러한 점에서 기여책임이나 대위책임도 지울 수 없었던 것이다. 물론, 일정한 경우 방조책임을 질 수 있으나 저작권법에 따른 책임을 지면 될 것이다. 검색 결과에 대한 저작권법상의 문제는 서비스제공자가 저작권법상 면책을 받는 OSP인지 여부에 따라 결정된다. 전통적인 검색 서비스는 결과물에 대한 개입이 없기 때문에 면책되지만, AI 검색은 일정 부분 개입이 발생하므로 면책 가능성이 상대적으로 낮다. 특히, AI 검색이 저작권 침해된 콘텐츠를 상업적으로 이용할 경우, 면책이 더욱 어려워질 수 있다. AI 검색제공자가 OSP로 간주된다면 저작권 침해에 대한 면책 가능성이 있을 수 있지만, 다음 조건들을 충족해야 한다. 첫째, 검색제공자가 저작권 침해 여부를 인지하지 못했어야 하며, 둘째, 저작권자가 침해를 주장할 경우 게시중단 조치(notice & take down)를 취하여야 한다. 셋째, 검색제공자가 검색결과를 임의로 가공하지 않고 중립적으로 제공해야 한다. 임의성에 대해서는 명확한 기준이 제시될 필요가 있으나, 단순한 기계적인 관여에 한하여 중립성이 인정된다고 보는 것이 타당하다. 정리하자면, AI 검색제공자는 OSP로 인정될 가능성이 있지만, 저작권 침해 사실을 인지했거나 저작물에 적극적으로 개입한 경우 법적 책임을 질 수 있다. 그동안 검색은 인류의 정보활동에 미치는 공공성을 인정받으면서 저작권법상 면책을 받아왔다. 전통적인 검색과는 다른 면이 있지만, AI 검색 또한 공공성을 무시하기 어려운 서비스라고 생각된다. 최근 가디언지에서는 AI 검색에 대한 조작가능성에 대해 문제제기한 바 있다. AI 검색에 있어서 그 결과에 대한 조작 가능성에 대해 명확한 확인이 필요하다. 검색에 대한 저작권법의 면책조항은 개입이 없이 그대로 전달하는 것을 전제하기 때문이다. *외부 필자의 원고는 본지의 편집방향과 일치하지 않을 수도 있습니다.
    2024.11.10 10:00:00
    인공지능 검색과 저작권법
  • AI 웨이브
    문화예술진흥법에 따라 게임물은 법적으로 문화예술의 한 유형으로 규정되고 있다. 게임인은 예술인의 지위를 얻게 되었다. 게임물의 성격을 보면 그래픽이나 영상 등 예술적 요소와 소프트웨어 등 기술적 요소가 결합돼 있다. 더 나아가 게임물이 다른 서비스로 분화되거나 다른 서비스가 게임물로 변화하기도 한다. 게임물은 하나의 서비스나 기술이 아닌 다양한 유형이 융합된 결과물이다. 게임은 SW로서, 콘텐츠로서, 정보통신 서비스로서, 전자상거래에 따른 재화로서, 그리고 메타버스로서 분류될 수 있다. 이러한 각각의 성질에 따라 규율되는 법률이 상이하다는 점에서, 규제의 정합성에 문제가 발생하기도 한다. 메타버스 플랫폼의 성질은 다양성 및 확장성에 있다. 메타버스는 게임 서비스가 되거나, 콘텐츠 서비스가 되거나 다양한 서비스가 융합된 플랫폼 서비스로 볼 수 있기 때문이다. 이처럼 다양한 서비스가 연계되거나 혼재됨으로써 법적 적용에 있어서 혼란이 발생하고 있다. 메타버스에 대한 규제 체계는 다른 서비스와의 형평성 측면에서도 정리될 필요가 있다. 다만, 메타버스의 새로운 서비스 유형에 대해서 규제 체계로 편입시킬 경우에 나타날 수 있는 문제에 대해서는 규제정합성 및 산업진흥이라는 측면에서 고민이 필요하다. 게임규제는 시장에서 등급분류 받은 내용과 다르게 변질될 것이라는 ‘우려’에 기반한다. 모든 영역에서 우려가 없는 것이 있을까? 우려가 없는 사업은 없다. 유독 게임산업법에서는 우려를 가지고, 규제의 근거로 삼고 있다. 이러한 규제적 속성은 게임물과 경계에 있는 메타버스에도 적용된다. 무엇보다, 메타버스산업이 게임산업과 유사하다는 점에 기인한다. 메타버스는 다양한 서비스의 집합과도 같기 때문에 게임산업법만이 아닌 청소년보호법 등 다양한 규제법제의 적용을 받을 수밖에 없다. 그렇지만, 메타버스가 게임산업법을 우회하거나 사행성을 조장할 것이라는 우려 때문에 게임물과 동일하거나 유사한 수준의 규제를 받아야한다는 것은 당위적이지 않다. 우려만이 아닌, 실제 문제가 있는지에 대한 검토가 필요한 영역이다. 물론 그동안 사업자들이 보여온 행태를 보면 우려가 이해가 가는 면도 있다. 따라서, 실증 특례를 해보는 것도 하나의 방안이다. 메타버스 산업에 대한 정부의 신사업 육성에 대한 의지, 게임산업법의 탈 규제 체계의 수립, 자율규제의 확장과 책임의 강화 등을 통해 새로운 서비스에 대해서는 시장에 맡겨두는 것도 방안이 될 수 있다. 물론 무조건적인 자율은 아니다. 자율규제를 위반하거나 또는 기대했던 바와 다른 결과가 나올 경우, 그에 대한 책임을 가중하는 것이다. 메타버스와 게임물은 경계에 위치하고 있다. 메타버스의 게임화 또는 게임의 메타버스화하는 상황에서 양자는 명확한 구분이 쉽지 않다. 규제기관과 사업자간의 이해관계가 충돌하는 영역이다. 메타버스 정책과 게임정책은 기본적으로 진흥을 목적으로 하지만, 실질적으로 기대하는 효과나 목적은 상이하다. 게임의 속성상 ‘오락’을 목적으로 하기 때문이지만, 게임산업에 내재하는 사행성 이슈는 게임내에서 이루어지는 경제와 현실세계의 경제의 혼합을 규제한다. 그렇기 때문에 게임내에서 경제활동은 규제의 대상이 되고, 현실 재화로의 이전은 금지된다. 지금까지 게임산업이 갖는 기술적인 특성에 따르면, 게임산업법의 규제는 당연한 것이기도 하다. 그렇지만, 기술이라는 것은 변화하는 속성을 갖는다. 기술과 비즈니스 모델을 구분하는 것도 쉽지 않다. 게임산업과 메타버스 산업을 구분하기 어렵다면, 규제라는 목적이 어떤 가치를 추구하는 것인지를 살펴보아야 한다. 규제는 사업자에게 부담지우는 것이기는 하지만 최종적인 소비자에게 분담지워진다. 이러한 분담은 소액이나 영향력이 크지 않기 때문에 체감되지 않을 뿐이다. 그렇지만, 그러한 규제가 정당하다고 판단할 수 있는 것은 아니다. 게임산업법이 도구적으로 메타버스 산업에 영향력을 행사하는 것은 규제나 정책의 정합성이 떨어지기 때문이기도 하다. 정책이 정합적이지 않으면, 결국 수범자의 입자에서는 명확하지 않는 산업정책으로 인식될 뿐이다. 따라서, 메타버스 규제의 필요성이 있다면 그 필요성이 명확해야 한다. 그렇지 않을 경우, 어떤 규제의 실익이 있는지를 설명하여야 한다. ‘우려’라는 관점에서 판단하는 것은 정책적이지 않다. 과학적, 통계적 기반에 따른 게임정책이 요구된다. 정부 정책이 과학적이지 않는다면 해당 정책은 신뢰하기 어렵기 때문이다. 또한, 게임물의 규제에 대해서는 게임산업법의 목적규정과 입법취지에 부합해야 한다. 게임산업법은 “게임산업의 진흥 및 국민의 건전한 게임문화를 확립함으로써 국민경제의 발전과 국민의 문화적 삶의 질 향상에 이바지함”을 목적으로 한다. 게임 산업에 대한 규제, 게임의 문화적 이용에 대한 규제 등 목적규정에 위배되는 규제는 반드시 개정돼야 한다. 이처럼, 입법목적이 부정되는 법률을 누가 수범해야하는지 묻고 싶다. 우리 헌법은 문화국가의 원리를 기본원리로 삼고있음에도, 가장 문화적이고 예술적인 게임 분야에서 몰가치한 규제가 이루어지고 있는지 아이러니할 뿐이다. *외부 필자의 원고는 본지의 편집방향과 일치하지 않을 수도 있습니다.
    2024.07.21 08:00:00
    법적 관점에서 본 메타버스와 게임의 경계
  • AI 웨이브
    AI가 가져올 수 있는 여러 위험을 시장의 자율에 맡길 것인가, 아니면 국민의 안전을 위해 규제를 통해 관리할 것인가는 복잡한 문제이다. 자율과 규제는 상호보완적인 관계에 있으며, 어느 한쪽에 치우친 접근은 문제가 될 수 있다. 기술과 이용이 상호 연관되어 있듯이 자율과 규제도 균형을 이루어야 한다. AI는 블랙박스 특성을 가지므로 그 작동 원리와 결과를 예측하기 어려운 경우가 많다. 따라서, 안전한 AI를 구현하기 위해 기술적, 제도적 측면에서 다양한 방안이 필요하다. 예를 들어, 설명가능한 AI 기술의 발전과 국제표준화가 이루어지고 있으며, 이는 기술외교의 중요한 요소로 작용한다. AI와 관련된 글로벌 논의와 정책은 국가별로 다르게 전개되고 있다. 2023년 11월, 영국 블레츨리에서 AI 안전에 대한 글로벌 논의인 AI Safety Summit이 있었고, 블레츨리 선언(Bletchley declaration)이 이루어졌다. 2024년 5월, 서울에서 후속 논의인 AI Seoul Summit이 개최된 바 있다. AI의 편향, 공정, 신뢰의 가치를 넘어 AI 안전이라는 의제를 다루었다. 또한, AI 안전을 위한 정책과 기술 모니터링을 위한 AI 안전연구소 설립도 발표되었다. AI 안전연구는 특정 부처만의 역할이 아닌 범부처의 역할로 보아야 한다. AI는 고도의 알고리즘을 통해 구현되는 의사결정시스템이다. 조건에 맞게 작동하며, 그 조건에 부합하지 않을 경우 ‘결함’이 있는 상태가 된다. 그동안 SW 안전에 대한 논의에서는 SW의 결함이 수용 가능하거나 대응 가능한 수준이라면 큰 문제로 보지는 않았다. 그렇지만, AI는 블랙박스로서 원인과 결과를 예측하기가 쉽지 않고, 인과관계가 아닌 상관 관계의 추론에 머무는 수준이다. 그렇기 때문에 AI 안전을 위한 기술적 측면, 제도적 측면 등 여러 가지 방안이 강구되고 있다. 설명가능한 인공지능은 다양한 영역에서 연구되고 있으며, 국제표준화작업이 진행 중에 있다. 표준화는 기술외교의 한 방편이다. 특히, 국제표준은 글로벌 AI 정책이나 기술에 있어서 헤게모니를 가질 수 있다는 점에서 중요한 기술외교의 영역으로 볼 수 있다. 설명가능성을 높이기 위한 입법이 이루어지고 있으며, 이는 기술의 과정에서 이용자에게 신뢰성을 얻기 위해서는 필수적이다. 최근에는 생성물로 인한 안전을 담보하기 위해 환각현상을 완화할 수 있는 방법으로 검색증강생성(RAG) 기술이 제시되고 있다. 검색증강생성은 고전적인 AI인 전문가시스템(expert system)으로 볼 수 있다. AI 겨울을 초래했던 전문가시스템이 새롭게 그 역할을 인정받는 시대에 이르고 있다. 이처럼 기술 발전은 서로 융합되거나 기술로 인한 문제를 해결해가는 수단이 될 가능성도 높다. 다만, 기술의 문제를 기술로 해결하려는 것은 지양될 필요가 있다. 기술의 문제에 대한 최종적인 판단과 책임 주체는 사람이어야 하기 때문이다. 그렇지 않을 경우, 기술의 문제에 대한 사람의 책임이 배제될 수 있기 때문이다. AI로 인한 여러 문제에 대한 투명성, 공정성, 책무성 등을 강조하는 정책들이 제안된 바 있다. 결국, 최종적인 이용자인 일반 국민의 안전을 위한 것이라고 하겠다. 클로드 AI(Claude AI)에서 적용하고 있는 헌법적 AI(constitutional AI)는 답변 과정에서 법적인 사항까지도 체크한다. 이처럼 AI가 생성하는 결과물에 대해 위법한 내용에 대해 문제가 있다는 점을 명확히 하는 것도 의미있다. 헌법적이라는 표현을 쓰고있지만, 사람이 갖추어야할 윤리적인 내용을 체계적으로 정리하고 기술에 적용한 모델로 볼 수 있다. 최상위 규범을 정하고, 그 규범에 따른 하위 규범이 구체화된 것으로 볼 수 있다. 일종의 입법체계가 AI 모델에서 구현된 것이다. 이와 같이, 결과만을 생성하는 것이 아닌 질문의 맥락을 파악하고 그 내용이 법률적으로 문제가 되는지에 대한 조언까지 제시한다면, 이용자는 자신의 행위에 대한 윤리적인 판단을 할 수 있기 때문이다. 물론, 자기검열로서 역할을 할 수도 있을 것이다. 다만, 그 과정에서 타인의 명예훼손이나 나의 위법행위에 대한 판단을 내릴 수 있다는 점에서 표현의 자유를 훼손한다고 단정하기는 어렵다. 결국, 최종적인 판단은 이용자 스스로 선택에 따른 결과이기 때문이다. 사회 규제가 갖는 성격상 안전을 위한 것이라는 점에서 기술의 안전을 확보하기 위한 규제는 필요충분성을 갖추어야 하기 때문이다. 즉, 최소한의 안전성이 보장된 상태에서 신기술이나 신사업이 허용되도록 하고, 발전과정에서 안전성 보장을 조정하고 강화하여야 한다. 결국, AI에 대한 규제의 성질은 그 특성에 따른 규제 접근이 필요하다. 기업들이 선호하는 자율 규제라는 것은 기업이나 개발자 스스로 AI보다 더 윤리적이어야 하다는 전제에 기반한다. ‘선허용 후규제’가 논란이 된 적이 있지만, 사전적인 규제가 없다는 점이 반드시 긍정적으로 작동하는 것은 아니다. 이러한 규제가 강한 규제로 실시되거나 예측하지 못한 규제가 되는 경우에 막대한 투자가 물거품이 될 수 있기 때문이다. 이처럼 미지의 기술인 AI에 대한 사전적 규제없이 시장 출시를 허용할 경우, 사업자는 이에 대한 리스크나 예측가능성을 충분히 대응할 수 있을지 의문이다. 따라서, AI의 성질이나 목적에 따라 구체적인 기준을 제시함으로써 사업자나 이용자에게 예측가능하고 신뢰가능하도록 해야할 것이다. 정부의 규제는 AI 윤리에서 EU AI법과 같이 법적 규제로 넘어가고 있지만, 모델 자체는 여전히 사람과 같이 윤리적 가치가 우선적으로 적용될 수밖에 없다. AI 안전은 궁극적으로 국민의 안전을 위해 존재하며, 이를 위해 적절한 규제가 필요하다. 자율 규제는 기업이 스스로 윤리적 기준을 지켜야 한다는 전제에 기반하지만, 예측 가능한 범위 내에서 안전 규제를 통해 AI 기술의 문제를 관리하고, 국민의 신뢰를 얻는 것이 중요하다.
    2024.07.07 09:37:27
    AI 자율과 규제의 균형을 찾아서
  • AI 웨이브
    봄이 지나고 여름이 깊어지면서, 자연의 울음소리도 가득하다. 한 낮, 뻐꾸기 울음소리는 문설주에 기댄 눈먼 처자의 모습을 상기시킨다. 이윽고 한 밤이 되면, 개구리 소리는 별만큼이나 밤하늘을 가득 채운다. 이처럼 인간은 감정적인 동물이고, 수많은 시간동안 다양한 경험과 학습을 통해 사고와 의식을 갖기 때문에 창작활동이 가능하다. 어쩌면 자연의 모습은 인간의 모습과 다르지 않다. 인간도 자연의 한 단면이고, 인간이 만들어내는 인공물도 인간의 것이라면 그것 또한 인간적이고 자연을 닮은 것이 아닐까 싶다. 인공지능도 인간의 모습과 다르지 않다. 인간이 만들어낸 수많은 정보와 지식을 바탕으로 학습한 것이기 때문이다. 인공지능이 지식이나 판단에서 인간보다 뛰어난 것은 빠른 연산능력 덕분이었다. 이세돌 9단을 이긴 알파고의 충격에도 창작활동은 인간만의 영역으로 안위했다. 글을 쓰거나 그림을 그리는 것은 인간만의 고유한 영역이라고 생각한 것이다. 인공지능이 사고를 하거나 창작활동을 할 것으로 예상하지 못했기 때문이다. 지금도 인공지능의 창작은 의식적인 것으로 보지 않는다. 확률적으로 가장 근접한 결과물이 생성되도록 하는 알고리즘에 불과하기 때문이다. 인간이 생각을 말하는 것은 어떤 맥락과 상황에 따라 달라진다. 상황에 따른 판단을 하고, 그 상황에 적절한 단어나 표현을 선택한다. 인공지능도 그렇다. 인공지능이 특정한 결과물을 생성할 때, 인간처럼 부여된 프롬프트에 따라 달라진다. 동일한 프롬프트라고 하더라도 전체적인 맥락에 따라 달라진다. 확률적으로, 또는 인간의 경험과 습성에 따라 언어의 선택이 달라진다. AI 모델이 갖는 특성 때문이라고 하지만, 인간이 표현하는 것과 크게 다르지 않다는 점에서 정말 인간을 모방한 것임을 알게 된다. 인간과 인공지능을 구분지는 생각과 사고는 무엇일까? 인간의 발명품인 인공신경망은 인간의 것과 유사한 구조를 갖는다. 뇌과학자들도 인간의 사고체계에 대한 그 원형을 찾지 못하고 있다. 인간은 타인의 것을 모방하면서 학습한다. 모방의 과정이 지난하더라도, 그러한 과정을 통해 인간은 하나의 인격체로서 성장해나가는 것이다. 그 과정에서 자신만의 특이점을 발견하기도 한다. 기계의 특이점은 인간의 능력을 넘어서는 것을 의미하지만, 인간의 특이점은 자신의 능력을 오롯이 발현하는 것이다. 인간에게 학습할 대상은 무한한다. 그렇지만, 기계에게는 그 또한 한정된 것이다. 이론적으로 빅뱅 이후의 모든 정보는 기계가 학습할 수 있는 데이터로 활용가능하다. 기계적 이라고 하지만, 빠른 속도로 학습할 수 있다는 의미이기도 하다. 그 과정에서 인간과는 다른 매커니즘이 활용된다. 인간의 학습은 저작물을 향유하는 행위이다. 향유란 저작물이 갖는 의미와 내용을 인간이 감각을 통해 즐기거나 느끼는 것을 말한다. 인공지능에서 논란이 되는 법률 중 하나인 저작권법은 인간의 향유를 전제로 한다. 타인의 저작물을 향유하기 위해서는 허락을 받거나, 저작재산권의 제한 사유나 공정이용(fair use)이 가능해야 한다. 기계가 학습하는 데이터를 포함한 저작물은 인간의 문화적 향유를 전제한다. 즉, 창작과정에서 의도했던 작가의 의도를 파악하고, 그 것을 해석하는 것도 하나의 문화적인 활동이다. 그렇지만, 이러한 문화적인 활동이 아닌 기계적으로 특징점(features)을 파악하는 것은 문화적 활동으로 보기 어렵다. 그렇기 때문에 인간과 기계가 다르게 취급된다. 기계의 활동이 인간의 활동을 넘어서기 어려운 이유이기도 하다. 다만, 기계적인 특성은 반복적이지만 시간적으로 인간과는 경쟁이 되지 않는다. 데이터에는 인간의 모든 것이 담겨있다고 해도 과언이 아니다. 기계는 데이터에서 인간이 의도한 문화적인 사상과 감정을 향유하지는 않는다. 수많은 데이터에 기반한 기계학습과 그에 따라 만들어내는 결과물을 보면, AI는 인간의 모습과 너무나도 닮아있다. AI가 인간의 모든 것이 담겨있는 데이터를 학습하면 무엇이 될까? 또 다른 인류가 출현하지 않을까 생각한다. 인공지능, 더 정확히는 대규모언어모델(LLM)은 인간의 언어를 이해하고 표현하는 최초의 객체이기 때문이다. 수많은 데이터를 비에 비유하고, 그 비가 AI라는 냇가를 가득 채울 때 어떤 상황이 연출될지는 알 수 없다. 다음처럼 단순하지 않을까? “냇가는 물로 가득 찼다. 가만히 들여다보면, 나의 모습이 보인다.” 어쩌면, 인공지능의 모습은 바로 우리의 모습일 것이다. 다만, 인간과의 공존을 위해 인공지능은 윤리적 기계가 돼야 한다. 이처럼 인공지능은 그다지 윤리적이지 않은 인간과는 달라야하는 숙명을 갖는다. 어쩌면 비상정지 버튼까지도 달아야 할지도 모른다. * 외부 필자의 원고는 본지의 편집방향과 일치하지 않을 수도 있습니다.
    2024.06.16 10:00:00
    AI에서 인간의 모습을 보다
  • AI 웨이브
    누구나 자신이 있는 곳이 안전하다는 것을 느낄 수 있는 상태의 유지는 국가의 중요한 책무이다. 물리적인 안전의 중요성은 물론 디지털 환경에서의 안전 또한 무시할 수 없다. 인터넷 기반의 다양한 서비스는 일상생활을 유지하는 중요한 기반시설이라는 점에서 디지털 안전체계는 중요하다. 디지털 환경에서의 안전은 프라이버시(privacy)로서의 개인의 사생활 보호를 넘어선 물리적인 환경이나 사회적인 영역에서의 안전까지로 확대되고 있다. 종래에는 개인의 생활 및 신체에 대한 안전이 중요한 개념이었다고 할 수 있으나, 다양한 영역으로 확장 중이다. 클라우드 컴퓨팅 환경이 대표적이다. 그렇지만, 클라우드 환경은 다양한 시설이 유기적으로 연계돼야 한다. 어느 하나가 문제를 일으키면 서비스 자체가 ‘먹통’이 된다. 데이터센터 화재사건으로 디지털 서비스가 멈추기도 했다. 접근이 편리해진 반면 관리가 그만큼 어려워졌다는 반증이기도 하다. 우리의 안전체계는 물리적인 안전을 위한 ‘재난안전기본법’과 SW안전을 위한 ‘소프트웨어 진흥법’, 그리고 네트워크 상에서의 침해사고 대응을 위한 ‘정보통신망법’ 등 다양한 법률 체계를 갖추고 있다. 네트워크와 SW는 융합되면서 서로 뗄 수 없는 관계를 형성한다. 네트워크를 통해 서비스 되는 SW를 의미하는 사스(SaaS)로서 클라우드컴퓨팅은 어떤가? 우리 SW진흥법에서의 SW안전은 “외부로부터의 침해 행위가 없는 상태에서 소프트웨어의 내부적인 오작동 및 안전기능 미비 등으로 인하여 발생할 수 있는 사고로부터 사람의 생명이나 신체에 대한 위험에 충분한 대비가 되어 있는 상태”로 정의된다. SW 안전은 SW자체 또는 SW와 밀접하게 구현된 시스템이나 플랫폼 등 다양한 요소에서 사용되는 SW로 인해 발생할 수 있는 위험을 관리하기 위한 개념이자 목표이다. 다만, SW 품질은 SW 안전을 위한 기능적인 사항을 의미하기 때문에 품질이 기준을 담보하지 못할 경우에는 안전에까지 영향을 미칠 수 있다.. 그렇지만 SW 안전의 정의에서는 명확하게 외부로부터의 침입을 의미하는 네트워크를 통한 침해사고의 경우는 SW 안전의 범위에서 제외됨을 알 수 있다. 하지만 네트워크 안전과 SW 안전은 별개의 것으로 보기 어렵다. 기술적인 안전은 무엇보다 중요하다. AI가 일상으로 들어서고 있다. SW가 단순한 자동화의 의미를 가졌다면, AI는 의사결정이나 창작활동을 대신 해주는 수준이다. 그 만큼, 결과에 대한 의존도가 높아지기 때문에 AI의 내재적인 안전을 담보할 수 있는 방안이 마련돼야 한다. 그렇지 않을 경우, 인간의 통제를 벗어날 수 있기 때문이다. 지금의 수준이 그 정도까지는 아니지만 기술의 발전은 빠르게 이뤄지고 있다는 점을 고려해야 한다. AI 안전은 인간다운 삶을 위해서도 필요한 요소이다. AI를 통해 생성하는 다양한 생성물이 타인의 권리를 침해하거나 또는 AI가 잘못 판단하거나 알고리즘이 조작된 경우도 있다. 기술의 발전을 위해 규제는 지양될 필요가 있다. 기술을 통제하지 않는다면 그 뒷감당은 이용자인 국민의 몫으로 남기 때문이다. 기술개발은 선의에 따른 것이기도 하다. 그렇지만 기술은 이용하는 과정에서 의도성이 들어가고, 그에 따라 차별이나 편향이 반영되곤 한다. 물론, 무의식적으로 이뤄지는 편견은 더 큰 문제일 수 있다. 확인하기가 쉽지 않기 때문이다. 블랙박스로서 AI에 대한 규제를 주장하는 이유이다. AI에 대한 규제방법으로 설명의무를 부과하기도 한다. 설명가능한 AI의 개발도 마찬가지다. 거대언어모델(LLM)인 AI모델의 블랙박스를 열 수 있는 방법들이 제시되고 있다. AI의 안전은 AI자체의 안전도 중요하지만, AI를 활용하거나 사용되는 과정에서 사회적으로 미치는 영향에 대해서도 살펴봐야 한다. AI가 안전하지 못한 상황에서 작동되는 경우, 비상버튼이나 셧다운 시킬 수 있어야 한다. 인종차별이나 성차별과 같은 대화를 생성했던 챗봇인 테이사건이나 이루다사건에서 챗봇을 셧다운 시켰다. 문제의 확산을 막기 위한 의사결정이었다. 외부로부터 입력되는 데이터에 의해 내부 데이터나 시스템이 오염되지 않도록 개발했어야 했다. 두 사건에서처럼, AI가 문제는 아니다. 이를 이용하는 이용자의 악의적인 행동이 문제이다. AI가 문제를 일으키는 것이 아닌 사람이 문제를 일으키고 있는 상황인 것이다. AI는 일상이다. 그렇지만 AI가 가야할 길은 멀기만 하다. 그 과정에서 우리의 선택은 어떤 것이어야할지 여간 고민스러운 일이 아니다. 분명한 점은 기술이 인간을 이롭게 할 것이라는 점, 그렇지만 안전을 위해 기술에 대한 통제는 있어야한다는 점이다. 이를 위해 AI기술의 안전성, 서비스의 공정성, 서비스제공자의 신뢰성, 이용자의 윤리성, 정책의 일관성은 필요조건이다. 이로써 AI안전은 담보될 수 있기 때문이다. 마침내 EU AI법의 퍼즐이 맞추어졌고, 이제 시행만을 남겨둔 상태이다. 이는 AI에 대한 규제가 윤리 중심에서 법률 중심으로 이동하고 있음을 보여준다. AI 법률도 AI 기술의 안전한 이용에 방점을 둬야 한다. 다만, 기술에 대한 규제보다는 문제되는 비즈니스 모델(BM)에 대한 규제여야 한다. 무엇보다 규제는 명확하고 예측가능해야 한다.
    2024.06.01 07:00:00
    AI안전과 신뢰사회
1
주소 : 서울특별시 종로구 율곡로 6 트윈트리타워 B동 14~16층 대표전화 : 02) 724-8600
상호 : 서울경제신문사업자번호 : 208-81-10310대표자 : 손동영등록번호 : 서울 가 00224등록일자 : 1988.05.13
인터넷신문 등록번호 : 서울 아04065 등록일자 : 2016.04.26발행일자 : 2016.04.01발행 ·편집인 : 손동영청소년보호책임자 : 신한수
서울경제의 모든 콘텐트는 저작권법의 보호를 받는 바, 무단 전재·복사·배포 등은 법적 제재를 받을 수 있습니다.
Copyright ⓒ Sedaily, All right reserved

서울경제를 팔로우하세요!

서울경제신문

텔레그램 뉴스채널

서경 마켓시그널

헬로홈즈

미미상인