산업일반
[헤럴드시사] 합리적이고 실천 가능한 AI 규제
뉴스종합| 2021-03-03 11:09

인공지능(AI) 챗봇 ‘이루다’ 사태는 인공지능 통제 및 규제의 필요성에 대한 활발한 논의를 촉발했다. 네이버를 비롯한 여러 사업자가 AI 윤리준칙을 발표했거나 준비 중이고 인공지능 서비스에 관한 개인정보 규제 강화, 서비스 의사결정 및 알고리즘에 대한 설명 의무 및 투명성 강화에 대한 논의도 활발하 게 이뤄지고 있다. 과학기술정보통신부는 2020년 12월에 ‘국가 인공지능 윤리 기준’을 발표했다. 이어 관계부처 합동으로 2020년 11월에 발표된 인공지능 법·제도 정비 로드맵은 인공지능 서비스와 관련된 불공정성 해소 및 소비자 보호를 위한 대대적인 법 제정 및 개정을 예고한 바 있다.

인공지능이 어떻게 통제돼야 하는지는 인공지능을 어떻게 개발하고 발전시킬 수 있는지만큼이나 많은 고민과 논의가 필요하다. 무엇보다도 인공지능 통제를 위한 규제 조치가 인공지능의 기술적·산업적 특성을 세심하게 고려하지 않고 일률적으로 시행된다면 이는 실효적이지도 않을뿐더러 인공지능 기반 산업의 발전 및 서비스의 등장 자체를 위축시킬 수 있다. 현재 활발하게 논의되고 있는 몇 가지 주제를 중심으로 이러한 우려를 공유하고자 한다.

우선 ‘이루다’ 사태에서도 문제가 된 학습데이터 오류 및 편향성 문제가 있다. 현재 인공지능 서비스들은 대부분 기계학습 기반으로 구현되고, 기계학습 인공지능은 입력된 수많은 데이터를 학습해 그 성능을 개선한다. 학습한 데이터 자체에 왜곡이나 오류가 있다면 이를 학습한 인공지능 서비스는 직접적인 영향을 받을 수밖에 없다. 예컨대 데이터 자체가 어느 특정한 인종·집단 등에 편향돼 있다면 그 서비스 자체도 이러한 편향성을 갖게 될 가능성이 크다. 이러한 인공지능 학습데이터의 오류 및 편향성을 기술적·관리적으로 검증하고 극복하기 위한 노력에도 기계학습 알고리즘의 태생적인 특성 때문에 단시간에 쉽게 극복되기는 어려워 보인다. 그렇다면 서비스 하자에 대해 일률적으로 사업자를 제재하기보다는 그 관리감독 범위 및 책임 기준을 명확히 마련하고 사업자가 통제할 수 없는 범위에 대한 결과 책임이 아닌, 통제 범위 내에서의 관리감독 책임을 묻는 것이 더 합리적일 수 있다.

인공지능 알고리즘 투명성 규제도 좀 더 세심한 접근이 필요하다. 투명성 규제는 인공지능의 편향성·불투명성 및 소비자 오인성 등을 방지하기 위해 알고리즘을 통한 의사결정 및 주요 지표를 소비자에게 설명 및 고지하도록 하는 내용이다. 인공지능 법·제도 정비 로드맵에 따르면 정부는 알고리즘 공개 및 설명 가이드라인을 2021년 하반기까지 제정하고, 전자상거래법을 개정해 알고리즘 공정성 검증 기준·절차를 법제화할 예정이다.

그러나 막대한 시간과 비용을 들여 개발한 핵심적인 영업비밀 및 노하우인 알고리즘 및 구성요소들이 강제로 외부로 공개된다면 이는 산업발전에 왜곡과 저해를 가져올 수 있다.

또한 과연 이러한 정보를 고지 및 설명하는 것만으로 소비자 보호 및 편향성 해소에 어떠한 효과가 있을지도 깊이 있는 논의가 필요하다. 일률적인 정보 제공 및 고지 의무 강화는 오히려 서비스 편의성 및 기능을 저해하고 소비자의 이익이 반하는 결과를 야기할 가능성도 있다.

인공지능 기술이 발전하고 그 서비스의 범위와 규모가 확대되면서 ‘제2, 제3의 이루다’ 사태가 발생할 수 있고, 이를 방지하기 위한 적정한 인공지능 서비스 통제의 필요성은 부정하기 어렵다. 하지만 이러한 규제가 이제 막 성장하기 시작한 인공지능 서비스 및 산업을 위축시키는 방향으로 나아가서는 곤란하다.

인공지능 기술의 한계와 산업적 성격을 인식하고 합리적이고 실행 가능한 규제를 마련하기 위한 노력이 절실한 시점이다.

노태영 김앤장 법률사무소 변호사

랭킹뉴스