디지털 카르텔(Digital Cartel)로도 불리는 알고리즘 담합 문제는 전 세계 공정경쟁 당국의 주요이슈다.
명시적 합의에 기반한 카르텔보다 점점 더 지능적이고 은밀하게 담합이 진행되는 상황에서 합의가 필요없는 디지털 카르텔의 부상은 경쟁 당국에 큰 도전과제다. 담합 적발에 주요한 리니언시 제도(자진신고자 감면 제도)의 유인 역시 크게 떨어진다. 알고리즘 담합은 은밀성과 지속성을 높여 자진신고의 유인을 없애기 때문이다. 더욱이 딥러닝·머신러닝 형태의 알고리즘 담합은 사업자의 의지와 관계없이 담합의 결과가 초래될 수 있기 때문에 더욱 문제다. 적발도 어렵고 적발한다 해도 제재할 수 있는 법적 근거가 부족한 상황이다.
● 법적근거 마련 시급
사업자 의지 상관없이 AI가 담합
적발 어렵고 결국 가격 상승 초래
알고리즘 감사·법인격 부여 필요
◇OECD ‘알고리즘으로 담합 가능성 커져’=알고리즘 담합이 경쟁 당국의 주요 관심사항으로 부상하면서 경제협력개발기구(OECD)는 지난 2017년 6월 ‘알고리즘과 담합(Algorithms and Collusion)’이라는 주제로 원탁회의를 개최했다. OECD는 토론자료에서 알고리즘, 특히 인공지능과 자기학습을 활용하는 알고리즘으로 인해 담합의 유인과 방법이 확대될 가능성이 커졌다고 지적했다. 이어 이 같은 알고리즘 담합을 규제하기 위해 ‘합의(agreement)’의 개념을 확대할 수 있는지, 그리고 알고리즘에 의해 가격이 책정되는 경우 누구에게 경쟁법 위반의 책임을 물어야 하는지 등에 대해 논의했다. 현 경쟁법에 의해 담합으로 적발되기 위해서는 사업가 간 만남, 정보 교환, 계약 등 ‘합의의 과정’이 드러나야 한다. 합의 개념의 확대란 사업자들이 알고리즘의 도움을 받아 가격을 동조하는 경우까지 합의로 볼 수 있을까 하는 점이다. 이문지 배재대 법대 교수는 이에 대해 “OECD 토론자료에서 제시된 합의의 정의를 확대하자는 제안은 원탁회의에 참여한 회원국 경쟁 당국들의 폭넓은 지지를 받지 못했다”고 말했다. 이 교수는 “유럽연합(EU)의 전체적인 입장도 알고리즘 담합을 공정거래법으로 규제해야 한다고 결론 내린 것은 아니다”라며 “법적 규제는 시기상조라는 것이 일반적인 분위기”라고 말했다.
알고리즘 담합의 귀책범위에 대해서도 OECD 토론자료는 인공지능이 발전하면 발전할수록 대리인(알고리즘)과 사업자(인간) 사이의 연결고리가 약해지지만 아직까지는 알고리즘이 내린 의사결정은 이를 통제하는 인간의 행동으로 귀속될 수 있다고 지적했다.
최난설헌 연세대 법학전문대학원 교수는 ‘경쟁법 연구’에 실린 ‘알고리즘을 통한 가격정보의 교환과 경쟁법적 평가’논문에서 “경쟁법적 시각에서 가장 우려되는 문제는 가격 알고리즘이 카르텔, 특히 의식적 병행행위를 활성화해 가격경쟁의 의미를 퇴색시키는 상황”이라며 “이러한 현상은 결국 제품 가격의 상승과 부의 편중현상을 일으키게 된다”고 지적했다. 이어 “경쟁 당국은 능동적으로 소프트웨어 등 새로운 기술을 기반으로 한 동조적 행위를 적발하기 위해 적절한 분석 방법을 개발해야 한다”며 “사업자들도 그들의 행위가 설사 인간이 직접 개입하지 않은 자동화된 방식으로 이뤄진다 해도 담합에 해당하지 않는가에 대해 면밀하게 검토해야 할 것”이라고 밝혔다. 최 교수는 또 “혁신산업의 특성상 경쟁당국의 개입이 어느 수준에 이르러야 할 것인가에 대한 신중한 고민이 필요할 것”이라고 덧붙였다. 아직은 알고리즘 담합의 구체적인 사례가 당국의 즉각적인 개입이 필요한 만큼 축적돼 있지 않기 때문에 당장의 개입은 시기상조이지만 지속적인 경계와 고민이 필요한 시점이라는 최 교수는 설명했다.
관련기사
● 규제 시기상조
기술발전으로 얻는 이득 더 크고
감사 땐 지재권·기밀 침해 우려
선진국이 시장 독차지 가능성도
◇규제 시, 4차 산업혁명에 ‘치명적 毒’ 될 수도=현재 몇몇 학자들은 알고리즘 담합을 규제해야 한다며 여러 아이디어를 제시하고 있다. 그중 하나는 알고리즘 감사(Algorithm Audit) 제도이다. 알고리즘의 작동 방식과 그 영향에 대한 공적인 감사를 통해 그것이 초래하는 결과에 대한 불확실성을 줄여보자는 것이다. 또 하나는 알고리즘에 법적 지위를 부여하자는 것이다. 법인에 법인격이 부여되듯 알고리즘에 대해서도 비슷한 방식의 법적 지위가 필요하다고 보는 것이다. 기업을 인격적 존재로 해석해 법적 권리와 책임을 부여하듯이 인공지능 알고리즘도 인격을 부여함으로써 법적 공백을 막을 수 있다는 주장이다.
그러나 이 같은 규제가 도입될 경우 부작용이 상당할 것이라는 지적이다. 김건우 LG경제연구원 선임연구원은 “알고리즘 감사 제도를 통해 알고리즘의 작동 메커니즘을 공개하는 것은 특정 기업의 영업 기밀이나 지적재산권을 침해할 우려가 있다”며 “또한 공개하더라도 전문가가 쉽사리 해석할 수 없는 경우가 발생해 감사비용이 크게 높아질 수 있다”고 지적했다.
알고리즘에 법인격을 부여하는 문제는 단순히 경쟁법 문제가 아니라 ‘인공지능을 우리가 법적으로 어떻게 다룰 수 있을까’ 하는 법체계 전반에 걸친 이슈라는 지적도 있다.
김진석 서울시립대 컴퓨터과학과 교수는 “알고리즘 담합 규제를 잘못하면 선진국이 우리 시장을 차지하는 기회를 줄 수 있다”고 말했다. 기술력이 좋은 글로벌 기업들의 경우 담합 규제를 피해갈 수 있는 알고리즘을 만들 수 있고 우리나라 기업들은 그렇지 못할 경우 우리 기업의 알고리즘은 시장에서 퇴출되고 선진국 알고리즘만 남게 된다는 지적이다. 김 교수는 “정부가 이 문제에 신중히 대처해야 한다”며 “잘못하면 4차 산업혁명에 치명적인 독이 될 수 있다”고 말했다.
김창수 전 인터넷진흥원 선임연구원 역시 “규제 자체에만 매몰돼 알고리즘·인공지능 기술의 발전을 저해하는 우를 범해서는 안 될 것”이라며 “알고리즘 담합이 지금까지는 기우라고 본다. 아직까지 구체적인 사례도 없는 상황에서 규제를 가하고 사전대응하는 것은 시기상조”라고 강조했다. /안의식기자 miracle@sedaily.com
< 저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지 >