[Review] AI는 양심이 없다 (김명주 著, 헤이북스)
“AI는 양심이 없다 (김명주 著, 헤이북스)”를 읽었습니다.
저자인 김명주 교수는 서울여대 교수로 재직 중인 분으로 정보 보호, 디지털 윤리와 관련한 교육에 힘쓰는 한편 ‘인공지능 윤리 가이드라인 (Seoul PACT)’를 만들기도 하였다고 책에서 소개하고 있습니다.
이 책은 저자가 관심을 쏟고 있는 분야인 AI 윤리에 대해 독자들에게 알려주는 대중서적입니다. 일반적으로 기술을 가치 중립적이라고 이야기합니다. 기술의 발전은 인간들에게 효율적이며 편리한 삶을 제공합니다. 하지만 언제나 그 반대급부가 존재하죠. 책에서는 자동차가 시간의 단축이라는 편리함을 제공하는 대신 생명의 단축이라는 불행도 제공한다고 예를 들고 있습니다. 새로운 기술은 언제나 부작용과 역기능을 가지고 있습니다. AI 역시 마찬가지입니다. 하지만 자동차 기술이 가져오는 부작용은 쉽게 예견할 수 있는 반면 AI가 가져올 부작용은 그 예측이 쉽지 않다고 저자는 이야기합니다.
그럼에도 불구하고 이 책에서는 현재 수준에서 예측할 수 있는 AI의 부작용, 역기능을 살펴보고 이에 대비할 수 있는 법적, 제도적, 사회문화적 대안들을 고려해보고 있습니다.
최근 자율 주행 기술이 보편화되고 있습니다. 굳이 자율 주행으로 유명한 차량을 선택하지 않더라도 일반적인 차량에서 옵션으로 낮은 수준의 자율 주행을 경험해볼 수도 있습니다. 하지만 이러한 자율 주행 단계가 올라갈수록 사고 발생시 책임 소재는 불분명해집니다.
책에서는 테슬라 모델 S의 사고 사례를 예로 들고 있습니다. 2016년 모델 S가 대형 트레일러의 컨테이너를 정면으로 충돌하여 운전자가 사망한 사고입니다. 오토파일럿으로 주행하던 모델 S는 인공지능이 흰색의 트레일러를 하늘로 인식해 직진하면서 발생한 사건으로 분석하였습니다. 그러므로 당연히 사고의 책임은 인공지능에 있다고 보는 것이 타당할 것입니다. 하지만 책에 따르면 법원의 판단은 달랐다고 합니다. 사고의 책임이 인공지능이나 테슬라 측에 있는 것이 아니라 운전자에게 있다고 판단했기 때문입니다.
자율 주행의 기술을 개발한 회사들은 자율 주행을 담당하는 인공지능이 결함이 없으며 기술적 증명이 끝났다고 주장하면서도 사고의 책임은 운전자에게 전가하는 행태를 보이고 있습니다. 모순되는 주장을 하고 있는 셈입니다. 자율 주행차의 레벨은 5단계로 구분할 수 있는데 레벨 4부터는 운전자의 개입이 극단적으로 줄어들게 됩니다. 이 경우 사고가 발생할 경우의 책임 소재는 더욱더 불분명해집니다. 이는 현재의 법체계가 인간 중심으로 구성되어 있기 때문에 발생하는 문화 지체 ( culture lag) 현상으로 인해 발생한다고 볼 수도 있습니다.
하지만 인공지능을 학습시키는 데이터 셋을 선택하는 것도 역시 인간이기에 인공지능은 인간의 편견에서 완전히 자유로울 수는 없습니다. 몇 년전 차별이나 혐오발언으로 문제가 되었던 MS의 ‘테이(Tay)’나 우리나라의 ‘이루다’ 같은 사례를 봐도 잘 알 수 있습니다. 하지만 이러한 인공지능이 형량이나 가석방 여부를 결정하는 권한을 가지게 된다면 어떨까요? 미국에서는 실제로 AI를 활용한 사법 판단 시스템을 운영하고 있다고 합니다. 바로 콤파스(COMPAS)입니다. 한 단체가 최근 연구에 따르면 이 콤파스가 흑인에 대한 편견을 가지고 있으며 사법 판단에 있어 중요한 실수를 저지르고 있다고 주장하고 나섬으로써 AI가 가지는 편향성 문제는 단순히 가십이 아니라 중요한 문제로 대두되기도 했습니다.
이 책을 통해 AI로 인해 야기될 수 있는 부작용이나 역기능, 그리고 우리 생활에 어떤 영향을 줄 수 있는지에 대한 인사이트를 얻을 수 있을 뿐만 아니라 이에 대한 대안도 함께 고민할 수 있는 시간을 가질 수 있었습니다. 현재 AI 기술의 발전상과 더불어 AI 윤리 문제도 알 수 있는 기회가 되었구요.
# AI는양심이없다, #김명주, #헤이북스, #사회학, #문화충전, #문화충전서평단
※ 본 포스팅은 네이버 카페 문화충전200%에서 주관하는 서평단에 선정되어, 출판사에서 도서를 제공받아 읽은 후 필자의 주관으로 솔직하게 작성한 리뷰입니다