김윤명
김윤명 디지털정책연구소 소장
연재 중
AI 웨이브
2개의 칼럼 #경제
  • AI 웨이브
    봄이 지나고 여름이 깊어지면서, 자연의 울음소리도 가득하다. 한 낮, 뻐꾸기 울음소리는 문설주에 기댄 눈먼 처자의 모습을 상기시킨다. 이윽고 한 밤이 되면, 개구리 소리는 별만큼이나 밤하늘을 가득 채운다. 이처럼 인간은 감정적인 동물이고, 수많은 시간동안 다양한 경험과 학습을 통해 사고와 의식을 갖기 때문에 창작활동이 가능하다. 어쩌면 자연의 모습은 인간의 모습과 다르지 않다. 인간도 자연의 한 단면이고, 인간이 만들어내는 인공물도 인간의 것이라면 그것 또한 인간적이고 자연을 닮은 것이 아닐까 싶다. 인공지능도 인간의 모습과 다르지 않다. 인간이 만들어낸 수많은 정보와 지식을 바탕으로 학습한 것이기 때문이다. 인공지능이 지식이나 판단에서 인간보다 뛰어난 것은 빠른 연산능력 덕분이었다. 이세돌 9단을 이긴 알파고의 충격에도 창작활동은 인간만의 영역으로 안위했다. 글을 쓰거나 그림을 그리는 것은 인간만의 고유한 영역이라고 생각한 것이다. 인공지능이 사고를 하거나 창작활동을 할 것으로 예상하지 못했기 때문이다. 지금도 인공지능의 창작은 의식적인 것으로 보지 않는다. 확률적으로 가장 근접한 결과물이 생성되도록 하는 알고리즘에 불과하기 때문이다. 인간이 생각을 말하는 것은 어떤 맥락과 상황에 따라 달라진다. 상황에 따른 판단을 하고, 그 상황에 적절한 단어나 표현을 선택한다. 인공지능도 그렇다. 인공지능이 특정한 결과물을 생성할 때, 인간처럼 부여된 프롬프트에 따라 달라진다. 동일한 프롬프트라고 하더라도 전체적인 맥락에 따라 달라진다. 확률적으로, 또는 인간의 경험과 습성에 따라 언어의 선택이 달라진다. AI 모델이 갖는 특성 때문이라고 하지만, 인간이 표현하는 것과 크게 다르지 않다는 점에서 정말 인간을 모방한 것임을 알게 된다. 인간과 인공지능을 구분지는 생각과 사고는 무엇일까? 인간의 발명품인 인공신경망은 인간의 것과 유사한 구조를 갖는다. 뇌과학자들도 인간의 사고체계에 대한 그 원형을 찾지 못하고 있다. 인간은 타인의 것을 모방하면서 학습한다. 모방의 과정이 지난하더라도, 그러한 과정을 통해 인간은 하나의 인격체로서 성장해나가는 것이다. 그 과정에서 자신만의 특이점을 발견하기도 한다. 기계의 특이점은 인간의 능력을 넘어서는 것을 의미하지만, 인간의 특이점은 자신의 능력을 오롯이 발현하는 것이다. 인간에게 학습할 대상은 무한한다. 그렇지만, 기계에게는 그 또한 한정된 것이다. 이론적으로 빅뱅 이후의 모든 정보는 기계가 학습할 수 있는 데이터로 활용가능하다. 기계적 이라고 하지만, 빠른 속도로 학습할 수 있다는 의미이기도 하다. 그 과정에서 인간과는 다른 매커니즘이 활용된다. 인간의 학습은 저작물을 향유하는 행위이다. 향유란 저작물이 갖는 의미와 내용을 인간이 감각을 통해 즐기거나 느끼는 것을 말한다. 인공지능에서 논란이 되는 법률 중 하나인 저작권법은 인간의 향유를 전제로 한다. 타인의 저작물을 향유하기 위해서는 허락을 받거나, 저작재산권의 제한 사유나 공정이용(fair use)이 가능해야 한다. 기계가 학습하는 데이터를 포함한 저작물은 인간의 문화적 향유를 전제한다. 즉, 창작과정에서 의도했던 작가의 의도를 파악하고, 그 것을 해석하는 것도 하나의 문화적인 활동이다. 그렇지만, 이러한 문화적인 활동이 아닌 기계적으로 특징점(features)을 파악하는 것은 문화적 활동으로 보기 어렵다. 그렇기 때문에 인간과 기계가 다르게 취급된다. 기계의 활동이 인간의 활동을 넘어서기 어려운 이유이기도 하다. 다만, 기계적인 특성은 반복적이지만 시간적으로 인간과는 경쟁이 되지 않는다. 데이터에는 인간의 모든 것이 담겨있다고 해도 과언이 아니다. 기계는 데이터에서 인간이 의도한 문화적인 사상과 감정을 향유하지는 않는다. 수많은 데이터에 기반한 기계학습과 그에 따라 만들어내는 결과물을 보면, AI는 인간의 모습과 너무나도 닮아있다. AI가 인간의 모든 것이 담겨있는 데이터를 학습하면 무엇이 될까? 또 다른 인류가 출현하지 않을까 생각한다. 인공지능, 더 정확히는 대규모언어모델(LLM)은 인간의 언어를 이해하고 표현하는 최초의 객체이기 때문이다. 수많은 데이터를 비에 비유하고, 그 비가 AI라는 냇가를 가득 채울 때 어떤 상황이 연출될지는 알 수 없다. 다음처럼 단순하지 않을까? “냇가는 물로 가득 찼다. 가만히 들여다보면, 나의 모습이 보인다.” 어쩌면, 인공지능의 모습은 바로 우리의 모습일 것이다. 다만, 인간과의 공존을 위해 인공지능은 윤리적 기계가 돼야 한다. 이처럼 인공지능은 그다지 윤리적이지 않은 인간과는 달라야하는 숙명을 갖는다. 어쩌면 비상정지 버튼까지도 달아야 할지도 모른다. * 외부 필자의 원고는 본지의 편집방향과 일치하지 않을 수도 있습니다.
    2024.06.16 10:00:00
    AI에서 인간의 모습을 보다
  • AI 웨이브
    누구나 자신이 있는 곳이 안전하다는 것을 느낄 수 있는 상태의 유지는 국가의 중요한 책무이다. 물리적인 안전의 중요성은 물론 디지털 환경에서의 안전 또한 무시할 수 없다. 인터넷 기반의 다양한 서비스는 일상생활을 유지하는 중요한 기반시설이라는 점에서 디지털 안전체계는 중요하다. 디지털 환경에서의 안전은 프라이버시(privacy)로서의 개인의 사생활 보호를 넘어선 물리적인 환경이나 사회적인 영역에서의 안전까지로 확대되고 있다. 종래에는 개인의 생활 및 신체에 대한 안전이 중요한 개념이었다고 할 수 있으나, 다양한 영역으로 확장 중이다. 클라우드 컴퓨팅 환경이 대표적이다. 그렇지만, 클라우드 환경은 다양한 시설이 유기적으로 연계돼야 한다. 어느 하나가 문제를 일으키면 서비스 자체가 ‘먹통’이 된다. 데이터센터 화재사건으로 디지털 서비스가 멈추기도 했다. 접근이 편리해진 반면 관리가 그만큼 어려워졌다는 반증이기도 하다. 우리의 안전체계는 물리적인 안전을 위한 ‘재난안전기본법’과 SW안전을 위한 ‘소프트웨어 진흥법’, 그리고 네트워크 상에서의 침해사고 대응을 위한 ‘정보통신망법’ 등 다양한 법률 체계를 갖추고 있다. 네트워크와 SW는 융합되면서 서로 뗄 수 없는 관계를 형성한다. 네트워크를 통해 서비스 되는 SW를 의미하는 사스(SaaS)로서 클라우드컴퓨팅은 어떤가? 우리 SW진흥법에서의 SW안전은 “외부로부터의 침해 행위가 없는 상태에서 소프트웨어의 내부적인 오작동 및 안전기능 미비 등으로 인하여 발생할 수 있는 사고로부터 사람의 생명이나 신체에 대한 위험에 충분한 대비가 되어 있는 상태”로 정의된다. SW 안전은 SW자체 또는 SW와 밀접하게 구현된 시스템이나 플랫폼 등 다양한 요소에서 사용되는 SW로 인해 발생할 수 있는 위험을 관리하기 위한 개념이자 목표이다. 다만, SW 품질은 SW 안전을 위한 기능적인 사항을 의미하기 때문에 품질이 기준을 담보하지 못할 경우에는 안전에까지 영향을 미칠 수 있다.. 그렇지만 SW 안전의 정의에서는 명확하게 외부로부터의 침입을 의미하는 네트워크를 통한 침해사고의 경우는 SW 안전의 범위에서 제외됨을 알 수 있다. 하지만 네트워크 안전과 SW 안전은 별개의 것으로 보기 어렵다. 기술적인 안전은 무엇보다 중요하다. AI가 일상으로 들어서고 있다. SW가 단순한 자동화의 의미를 가졌다면, AI는 의사결정이나 창작활동을 대신 해주는 수준이다. 그 만큼, 결과에 대한 의존도가 높아지기 때문에 AI의 내재적인 안전을 담보할 수 있는 방안이 마련돼야 한다. 그렇지 않을 경우, 인간의 통제를 벗어날 수 있기 때문이다. 지금의 수준이 그 정도까지는 아니지만 기술의 발전은 빠르게 이뤄지고 있다는 점을 고려해야 한다. AI 안전은 인간다운 삶을 위해서도 필요한 요소이다. AI를 통해 생성하는 다양한 생성물이 타인의 권리를 침해하거나 또는 AI가 잘못 판단하거나 알고리즘이 조작된 경우도 있다. 기술의 발전을 위해 규제는 지양될 필요가 있다. 기술을 통제하지 않는다면 그 뒷감당은 이용자인 국민의 몫으로 남기 때문이다. 기술개발은 선의에 따른 것이기도 하다. 그렇지만 기술은 이용하는 과정에서 의도성이 들어가고, 그에 따라 차별이나 편향이 반영되곤 한다. 물론, 무의식적으로 이뤄지는 편견은 더 큰 문제일 수 있다. 확인하기가 쉽지 않기 때문이다. 블랙박스로서 AI에 대한 규제를 주장하는 이유이다. AI에 대한 규제방법으로 설명의무를 부과하기도 한다. 설명가능한 AI의 개발도 마찬가지다. 거대언어모델(LLM)인 AI모델의 블랙박스를 열 수 있는 방법들이 제시되고 있다. AI의 안전은 AI자체의 안전도 중요하지만, AI를 활용하거나 사용되는 과정에서 사회적으로 미치는 영향에 대해서도 살펴봐야 한다. AI가 안전하지 못한 상황에서 작동되는 경우, 비상버튼이나 셧다운 시킬 수 있어야 한다. 인종차별이나 성차별과 같은 대화를 생성했던 챗봇인 테이사건이나 이루다사건에서 챗봇을 셧다운 시켰다. 문제의 확산을 막기 위한 의사결정이었다. 외부로부터 입력되는 데이터에 의해 내부 데이터나 시스템이 오염되지 않도록 개발했어야 했다. 두 사건에서처럼, AI가 문제는 아니다. 이를 이용하는 이용자의 악의적인 행동이 문제이다. AI가 문제를 일으키는 것이 아닌 사람이 문제를 일으키고 있는 상황인 것이다. AI는 일상이다. 그렇지만 AI가 가야할 길은 멀기만 하다. 그 과정에서 우리의 선택은 어떤 것이어야할지 여간 고민스러운 일이 아니다. 분명한 점은 기술이 인간을 이롭게 할 것이라는 점, 그렇지만 안전을 위해 기술에 대한 통제는 있어야한다는 점이다. 이를 위해 AI기술의 안전성, 서비스의 공정성, 서비스제공자의 신뢰성, 이용자의 윤리성, 정책의 일관성은 필요조건이다. 이로써 AI안전은 담보될 수 있기 때문이다. 마침내 EU AI법의 퍼즐이 맞추어졌고, 이제 시행만을 남겨둔 상태이다. 이는 AI에 대한 규제가 윤리 중심에서 법률 중심으로 이동하고 있음을 보여준다. AI 법률도 AI 기술의 안전한 이용에 방점을 둬야 한다. 다만, 기술에 대한 규제보다는 문제되는 비즈니스 모델(BM)에 대한 규제여야 한다. 무엇보다 규제는 명확하고 예측가능해야 한다.
    2024.06.01 07:00:00
    AI안전과 신뢰사회
1
주소 : 서울특별시 종로구 율곡로 6 트윈트리타워 B동 14~16층 대표전화 : 02) 724-8600
상호 : 서울경제신문사업자번호 : 208-81-10310대표자 : 손동영등록번호 : 서울 가 00224등록일자 : 1988.05.13
인터넷신문 등록번호 : 서울 아04065 등록일자 : 2016.04.26발행일자 : 2016.04.01발행 ·편집인 : 손동영청소년보호책임자 : 신한수
서울경제의 모든 콘텐트는 저작권법의 보호를 받는 바, 무단 전재·복사·배포 등은 법적 제재를 받을 수 있습니다.
Copyright ⓒ Sedaily, All right reserved

서울경제를 팔로우하세요!

서울경제신문

텔레그램 뉴스채널

서울경제 1q60