최신기사
[세상속으로-김용대 서울대 통계학과 교수] 설명이 필요한 사회
뉴스종합| 2019-02-27 11:23
우리는 일상에서 다른 사람들이 내린 판단의 이유를 알고 싶어 한다. 시험문제 정답풀이, 공공요금 상승의 이유 그리고 예술 작품의 제작 동기 등에 대해서 궁금해 하며 설명과 해석을 찾는다. 설명이나 해석이 충분하지 않으면 갈등과 분열이 시작된다.

인공지능 분야에서도 설명과 해석, 두 단어가 화두다. 인공지능이 내린 결정에 대한 설명이나 해석이 가능한 기술 개발에 대한 관심이 증폭되고 있다. 투명한 인공지능이라고도 지칭되는 새로운 기술에 대한 요구가 커지고 있는 이유는 인공지능 기술이 인간의 물질적 세계를 넘어서 정신적 세계에서 활동하기 때문이다. 인간과 대화하고 인간의 선호도를 예측하고 나아가 인간의 잘잘못을 따지는 일에 인공지능이 적용되고 있다. 이러한 형이상학적인 판단에 대해서는 효율성과 함께 공정성 및 윤리성 등 물질세계의 기술에게는 요구되지 않는 다양한 판단 기준이 요구된다.

법원에서 재소자의 가석방 여부를 결정할 때 고려하는 사항 중 하나가 재범가능성이다. 그리고 재범가능성의 측정에 인공지능 기술이 적용되고 있다. 미국에서는 24개 주에서 재범가능성에 대한 인공지능의 판단을 참고자료로 사용한다. 첫 범죄 당시의 나이, 친척 중 전과자 존재 유무, 부모의 소득 수준 등에 대해서 재소자들은 답해야 하며, 이 정보를 바탕으로 재범가능성이 계산된다. 이러한 인공지능 기술이 윤리적으로 받아들일 수 있는지에 대해서도 논의가 되고 있다. 흑인 재소자의 경우 재범가능성이 높게 나오는데, 이는 인종차별로 여겨질 수 있기 때문이다. 주변의 친구들이 범죄를 많이 저지르면 본인의 범죄확률이 높아지는 사회적 판단을 개인이 받아들일 수 있을까.

인공지능 기술에 의한 차별은 매우 광범위하게 적용되고 있다. 인공지능 기술의 최전선 기업 구글의 주 수입원은 검색광고다. 사용자가 검색창에 검색어를 입력하면 관련 사이트의 리스트를 제공하는데 그중 다수는 광고사이트이며 사용자의 클릭여부에 따라 과금이 된다. 미국 하버드대학교의 스와니 교수는 이름에 따른 구글 검색결과의 차별에 대해 연구를 진행했다. 백인이 사용하는 이름을 검색했을 때와 흑인이 자주 사용하는 이름을 검색했을 때의 검색결과를 비교했다. 흑인 이름인 경우에 전과여부를 알려주는 유료서비스 사이트가 훨씬 자주 검색결과로 노출된다는 것을 밝혀냈다.

자율주행 자동차에 사용되는 인공지능 알고리즘도 설명가능성이 요구되고 있다. 자율자동차가 발생한 사고의 책임여부를 규명하기 위해서는 설명가능성이 필수적이다. 나아가, 사회적으로 합의된 도덕적 규범을 자율자동차가 잘 따르는지에 대한 확인도 필요하다. 위험한 상황에서 행인과 운전자 중 누구를 먼저 보호해야 하는가 하는 문제에 대한 사회적 합의를 인공지능이 잘 반영하는지에 대한 설명이 필요하다.

윤리적이고 사회적으로 수용할 수 있는 인공지능의 개발을 위한 핵심기술은 설명가능성이다. 이러한 사회적 요구에 부합해 설명가능한 인공지능에 대한 관심이 고조되고 있다. 미국 국방연구원 (DARPA)은 2016년 8월에 설명가능한 인공지능의 필요성 및 기술적 요소들을 정리한 보고서를 발표하고 2017년부터 다양한 연구를 진행하고 있다. 2016년에 유럽연합에서 채택한 개인정보보호에 대한 법률체계인 GDPR에서도 22조에 프로파일링을 포함한 자동화된 의사결정을 다루고 있으며 알고리즘의 결정에 대한 설명을 요구하고 그에 반대할 권리를 명시적으로 규정하고 있다. 일본은 ‘인간중심 AI사회원칙검토회의’에서 작년에 인공지능 기술을 위한 7대 원칙을 발표했는데, 결정과정에 대한 기업의 설명 의무를 명시하고 있다.

최근 우리나라 사법부의 판단을 보면서 설명가능성의 부족을 느낀다. 현직 도지사의 법정 구속과 ‘성인지 감수성’에 대한 1심과 2심의 전혀 다른 판결은 법률지식이 없는 일반인들에게는 매우 생경해 보인다. 인공지능에 요구하고 있는 설명가능성을 인간이 수행하는 다양한 사회적 판단에서도 강화할 필요가 있어 보인다.

김용대 서울대 통계학과 교수
랭킹뉴스