전체메뉴

검색
팝업창 닫기
이메일보내기

스튜어트 러셀, "AI 발전에 갈수록 무서워져…통제 위한 규제 필요"

AI 석학도 "AI 발전, 원자폭탄 개발 과정과 비슷…위협 이미 현실화"

스튜어트 러셀 UC버클리 교수




'인공지능(AI)의 교과서'로 꼽히는 책을 집필한 과학자가 AI의 가파른 발전 속도에 개발자들도 두려움을 느끼고 있다고 고백했다.

스튜어트 러셀(사진) 버클리 캘리포니아대(UC버클리) 컴퓨터과학과 교수는 29일(현지시간) 가디언과의 인터뷰에서 연구자들도 'AI의 발전에 두려움을 느끼느냐'는 질문에 "갈수록 더 무서워지고 있다"며 이같이 밝혔다.

러셀 교수는 Al 분야의 역저로 꼽히는 '인공지능: 현대적 접근방식'의 저자다. 이 책은 세계 100여 개 국가의 주요 대학에서 AI 관련 교재로 널리 쓰이고 있다.



그는 오늘날의 AI가 목표 수행의 '효율'을 극도로 추구하게 돼 있어 현실 세계의 다양한 변수를 충분히 고려하지 않는다는 점을 문제로 꼽았다. 가령 AI에 '암 치료법을 개발하라'고 명령한다면, AI는 인류 전체에 종양을 배양한 뒤 전 세계의 국내총생산(GDP)를 모조리 투입, 수백만 건의 임상시험을 진행해 가장 효율적인 의약품을 찾아내려 할 수 있다는 것이다. 그는 특히 "물리학 분야에서 일어난 일이 생각난다"면서 AI의 발전을 '원자 폭탄'의 개발 과정에 비유했다. 과학자들이 핵분열 에너지의 가능성을 이론으로 확인한 지 얼마 되지 않았는데도, 현실 세계에서 핵폭탄이 터진 것처럼 AI의 발전에 전체 인류의 안전에 위협이 될 수 있다는 주장이다.

그는 또 AI가 인간을 넘어서지 않아도 충분히 위험하다는 것이 문제라고 지적했다. 러셀 교수는 "(AI의 위협은)소셜미디어의 알고리즘을 보면, 사람들이 읽고 보는 것을 골라내 인간의 인지 영역에 엄청난 제어권을 발휘하고 있다"며 "알고리즘은 사용자를 조종하고 세뇌해서 사용자의 행동을 예측할 수 있게 만들고, 결국엔 클릭 수를 끌어 올려 수익을 내는 데 활용되고 있다"고 진단했다.

이에 따라 러셀 교수는 AI의 위협으로부터 인류를 보호하고, AI에 대한 인간의 통제를 지속하기 위해 AI 연구자들에게 적용되는 행동 강령이나 국제적 입법·조약 등을 각국 정부가 추진해야 한다고 촉구했다. 그는 "AI를 개발하는 사람들은 AI가 이미 현실에 큰 영향을 끼치고 있다는 사실을 정확히 깨닫지 못하고 있다"며 "이제는 연구자들도 어서 성장해 이런 현실을 깨우쳐야 한다"고 말했다.
< 저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지 >
주소 : 서울특별시 종로구 율곡로 6 트윈트리타워 B동 14~16층 대표전화 : 02) 724-8600
상호 : 서울경제신문사업자번호 : 208-81-10310대표자 : 손동영등록번호 : 서울 가 00224등록일자 : 1988.05.13
인터넷신문 등록번호 : 서울 아04065 등록일자 : 2016.04.26발행일자 : 2016.04.01발행 ·편집인 : 손동영청소년보호책임자 : 신한수
서울경제의 모든 콘텐트는 저작권법의 보호를 받는 바, 무단 전재·복사·배포 등은 법적 제재를 받을 수 있습니다.
Copyright ⓒ Sedaily, All right reserved

서울경제를 팔로우하세요!

서울경제신문

텔레그램 뉴스채널

서경 마켓시그널

헬로홈즈

미미상인