서울대 가지 않아도 들을 수 있는 명강의, 서가명강 시리즈
“인공지능의 문제는 결국 인간의 문제다!”
AI 기술이 나아갈 방향을 질문하고 고민하다!
법학자의 시선으로 보는 정의로운 AI 세상의 열쇠
우리는 지금 AI 논의의 중요한 분기점에 서 있다!
◎ 도서 소개
서울대 가지 않아도 들을 수 있는 명강의, ‘서가명강’
인간과 기술의 공존을 위해 던지는 가장 뜨거운 쟁점들
대한민국 최고의 명품 강의를 책으로 만난다! 현직 서울대 교수진의 강의를 엄선한 ‘서가명강(서울대 가지 않아도 들을 수 있는 명강의)’ 시리즈의 스물두 번째 책이 출간됐다. 역사, 철학, 과학, 의학, 예술 등 각 분야 최고의 서울대 교수진들의 명강의를 책으로 옮긴 서가명강 시리즈는 독자들에게 지식의 확장과 배움의 기쁨을 선사하고 있다.
『AI는 차별을 인간에게서 배운다』는 한국인공지능법학회장과 서울대 인공지능정책 이니셔티브 공동디렉터를 맡고 있는 서울대학교 법학전문대학원 고학수 교수가 쓴 책으로, 새로운 기술이 우리 사회에 미치는 영향은 무엇인지, 제도와 정책은 어떻게 대응하고 변화해야 하는지에 대한 고민을 담고 있다. 이 책에서는 인공지능이 어디까지 왔는지 진단하고, 인공지능의 활용으로 파생한 문제와 논란을 짚어보며, 우리 사회가 어떤 준비를 해야 할지 알아본다.
◎ 출판사 서평
이미 우리가 매일 접하는 AI 기술, 과연 믿을 수 있는가?
정의를 모르는 AI에게, 정의와 공정 그리고 신뢰를 묻다
인공지능은 이미 우리 일상에 깊숙이 스며들어 있다. 매일 접하는 유튜브의 추천 동영상이나 맞춤형 결과를 보여주는 인터넷 검색, 스마트폰 메시지를 보낼 때 뜨는 자동완성부터 금융, 의료 등 전방위에 걸친 분야 곳곳에 다방면으로 쓰이고 있다. 인공지능 기술은 분명 인류에게 무한한 가능성을 열어주었지만 이를 활용하는 과정에서 부작용이나 논란이 생기는 일도 적지 않다.
『AI는 차별을 인간에게서 배운다』의 저자 고학수 교수는 그 부작용과 논란을 살펴보고 관리해야 할 때가 바로 지금이라고 강조한다. 기술의 발전은 매우 빠르게 진행되고 있고, 그 기술이 우리 생활에 적용되는 속도도 빠르기 때문에 관련된 이슈들에 대한 논의가 무엇보다 시급하는 것이다. 우리가 앞으로 어떤 인공지능 시대에서 살아갈 것인지, 지금의 논의가 결정적인 역할을 하게 될 테다.
이 책은 우리가 미처 몰랐던 인공지능의 사회적 영향력과 그에 필연적으로 수반되는 부작용과 논란을 주요 사례와 함께 제시한다. 채용 과정에 도입된 인공지능이 지원자들을 차별하거나 유튜브의 알고리즘이 편향된 시각을 키우기도 한다. 그리고 이런 문제는 근본적으로 인간이 입력한 데이터에 의해 발생한다. 아이러니하게도 새로운 기술 앞에서 오히려 인간이 사회, 정의와 윤리에 대해 고민하고 치열하게 논의해야 할 필요성을 깨닫게 될 것이다.
인공지능의 문제는 결국 인간의 문제였다!
AI가 분석한 ‘우리 사회’라는 데이터값은?
인공지능 시대에 대해 장밋빛 미래를 그리거나 반대로 디스토피아를 우려하는 상반된 시각이 존재한다. 새로운 기술이 사회와 경제에 미치는 영향은 무엇인지, 제도는 이에 어떻게 대응하고 변해야 하는지 연구해온 고학수 교수는 이 책에서 인공지능이 우리 삶과 사회에 미치는 영향과 거기에서 대두된 이슈들을 짚어준다. 현행법에 대한 해석을 넘어 앞으로의 사회를 위한 법과 제도가 나아가야 할 방향까지 제시한다.
이 책은 안면인식과 채용, 신용평가에 이르기까지 인공지능이 활용되는 과정에서 인공지능이 잘못된 판단을 했던 사례들을 보여준다. 인공지능을 이용한 채용 알고리즘을 개발해오다 여성이라는 요인을 부정적으로 평가한 사실이 발견되어 결국 해당 개발팀을 해체하게 된 아마존, 소수자 혐오 발언으로 논란이 된 인공지능 챗봇 이루다, 백인 남성 얼굴을 더 정확하게 인식하는 미국의 안면인식 프로그램 등등. 왜 이런 일이 생길까? 이 책은 그 원인을 인공지능 작동 원리에서부터 차근차근 살펴나간다. 인공지능은 인간이 입력한 데이터를 학습해 작동한다. 따라서 인공지능이 잘못되거나 편견이 담긴 판단을 했다면, 이는 인간이 가진 오류와 편견을 학습한 결과인 것이다. 인공지능의 문제는 우리 인간과 사회의 편견과 차별, 불공정 등을 비추는 거울과 같다. 이 책의 제목이 『AI는 차별을 인간에게서 배운다』인 이유다.
이처럼 저자는 인공지능 문제의 대부분이 결국은 인간의 문제라는 데 주목한다. 이것을 뒤집어보면 인공지능을 사람의 손으로 잘 키워나갈 수 있다는 뜻이기에 각계각층의 열띤 토론과 정책 마련이 필요하다고 강조한다. 인공지능 윤리에 관한 원칙을 세워야 하고, 법적·제도적 장치도 반드시 수반되어야 할 것이다. 이 책의 독자들은 인공지능에 대해 더 잘 알게 되는 것은 물론 오늘날 더욱 주목받는 화두인 정의와 공정, 차별에 대해 다시 한번 치열하게 생각해보는 계기가 될 것이다. 그리하여 기술적으로도 사회적으로도, 그리고 인간적으로도 더 나은 삶을 향해 나아갈 수 있을 것이다.
■ 본문 주요 내용
이 책은 크게 네 부로 구성되어 있다. 1부에서는 인공지능이 어떻게 작동되며 그 기술이 어디까지 왔는지 살펴본다. 2부에서는 이처럼 발전한 인공지능을 채용·금융 등에서 활용한 사례들과 거기에서 떠오른 이슈들을 알아본다. 3부에서는 알고리즘에 의한 차별과 공정성에 관한 논란을 살펴보고 이를 방지하기 위한 사회적 논의의 필요성을 제시한다. 마지막으로 4부에서는 인공지능 윤리에 관해 알아보고 인간 중심적이며 신뢰할 수 있는 인공지능을 강조한다. 이 책을 읽으면 인공지능이 어떻게 작동하는가 하는 기술적인 지식은 물론이고, 이런 기술의 발전은 기술만이 홀로 앞서는 것이 아니라 경제·사회·법의 측면에서 발맞출 때 비로소 빛을 발한다는 것 역시 절감하게 된다. 나아가 급격하게 변화하는 시대에 적응하며 지혜롭게 살아갈 수 있는 통찰까지 얻을 수 있을 것이다.
◎ 본문 중에서
인공지능을 바라보는 시각은 실로 매우 다양하다. 인공지능이 가져올 장밋빛 유토피아를 그리는 시각도 있는 한편, 반대로 커다란 우려를 보이는 시각도 있다. 그런데 어느 쪽이건 극단적인 시각은 적지 않은 경우에 기술의 현주소에 대한 이해부족을 반영하는 것일 가능성이 높다. 이 책은 이런 간극을 채우기 위한 시도의 일환이다. 개인의 판단이건 국가정책적인 판단이건, 출발점은 인공지능 기술이 작동하는 메커니즘에 대한 이해 그리고 그러한 메커니즘이 일상과 사회에 어떤 형태로 영향을 미치게 되는지에 관해 객관적인 시각에서 바라보는 것이다.
【들어가는 글 | 인공지능 시대, 다시 정의란 무엇인가 : 13쪽】
우리가 인터넷 포털에서 검색을 하고, 유튜브에서 동영상을 보고, 넷플릭스를 통해 영화를 보는 모든 과정에 인공지능 알고리즘이 중요한 역할을 한다. 알고리즘의 부작용을 강조하는 시각에서는, 추천 알고리즘으로 인해 이용자들이 편향적 사고에 빠지게 되면서 이른바 필터 버블(filter bubble)이나 확증편향(confirmation bias)에 빠지게 된다는 주장이 반복적으로 나타난다. 필터 버블은, 예를 들어 이용자에게 검색의 결과를 보여주는 과정에서 이용자의 관심사, 성향, 철학, 이념 등을 고려하여 최적의 결과를 찾아서 보여주는 것이, 개별 이용자를 다른 이용자들로부터 소외시키는 결과를 가져올 수 있다는 주장이다. 그리고 확증편향은 이용자들이 자신의 생각에 부합하는 정보를 더 빈번하게 또는 선택적으로 접하게 되면서 자신의 평소 선호나 성향을 더욱 강화하게 되는 경향에 관한 것이다.
【1부 | 우리는 이미 인공지능 세계에 살고 있다 : 31쪽】
안면인식 기술은 이미지 매칭을 통해 동일인임을 파악하는 용도 이외의 다른 용도로 쓰일 수도 있다. 안면인식 기술을 응용하여 얼굴 모습만으로도 그 사람이 가진 특징의 일부를 파악하는 것이 가능할 수도 있음을 보여주는 연구가 종종 발표되고 있다. 그런 연구 중 사회적 관심과 논란을 불러일으킨 것 하나로 개인의 얼굴 이미지로부터 특징을 인식하여 해당 개인에게 동성애 경향이 있는지 파악하는 것이 가능하다는 연구가 있다. 이 연구는 데이팅 사이트에 올린 프로필 사진을 분석하여 진행한 것인데, 프로필 사진을 분석하는 것만으로 일정 수준의 정확성을 갖고 동성애 경향을 파악할 수 있다는 주장을 하여 논란을 일으켰다.
만약 이런 유형의 기술이 고도화되고 상용화된다면 우리 사회에 어떤 일이 벌어질 수 있을까? 예를 들어, 동성애 경향의 지원자가 채용되는 것을 꺼리는 기업이 있다고 하자. 이런 기업에서는 채용 절차를 진행하는 과정에서 오히려 이 기술을 적극 활용하여 지원자 중에서 동성애 경향의 지원자가 있는지 확인하고자 하는 노력을 기울일 수 있고, 그 경우에 동성애 차별 문제가 사회적 문제로 대두될 가능성이 있다. 또한 이 기술이 가진 오류의 가능성 때문에 추가적인 문제가 나타날 수 있다. 실제로 동성애자가 아닌 사람을 동성애자로 취급해서 또 다른 형태의 차별 논란이 나타날 수도 있는 것이다.
【2부 | 인공지능, 어디까지 왔나 : 112~113쪽】
인공지능을 활용한 의사결정에 차별이나 편향이 나타날 수 있다면, 그 원인이 무엇인지 생각해볼 필요가 있다. 다음 도식은 데이터 수집에서 시작하여 인공지능 모델이 만들어지기까지의 전체 흐름을 몇 개의 단계로 나누어 간략하게 요약한 것으로, 각각의 단계에서 모두 차별이나 편향으로 인한 문제가 생겨날 가능성이 있음을 알려주는 것이다.
오늘날의 인공지능은 데이터의 존재가 핵심적인 관건이다. 적어도 개념적으로는 인공지능 모형을 개발하는 첫 단계는 실제 세상(real world)의 데이터에서 출발한다. 사회적 환경을 배경으로 하는 유형의 작업은 실제 세상의 데이터가 더욱 중요하다. 그런데 사회에는 편견과 차별, 불공정이 어느 정도는 있기 마련이다. 인공지능 개발의 기본 배경이 되는 인간 사회의 모습은 인공지능 기술 자체에 관한 문제라기보다는 우리 사회의 근본적인 문제라 하겠다.
【3부 | 새로운 시대의 과제, 알고리즘 공정성과 차별금지 : 153~154쪽】
우리가 인공지능 세상에 대해 가지는 가장 궁극적인 질문은 인공지능을 얼마나 믿을 수 있겠느냐 하는 것이다. 결국 신뢰 문제로 귀결되는 것이다. 앞서 인공지능의 투명성이나 설명가능성에 대해 논의를 했지만, 이런 개념이 중요한 화두로 제시되는 커다란 이유는 아직 우리가 인공지능에 대해 충분한 신뢰를 형성하지 못하고 있다는 것이 배경에 있다. 만일 인공지능이 사회적 규범을 적절히 반영하여 ‘좋은’ 판단을 할 것이라는 신뢰가 충분히 형성된 상황이라면, 투명성이나 설명가능성에 대한 요구가 크게 줄어들 것이다.
【4부 | 인공지능이 인간에게, 정의와 윤리를 묻다 : 251~252쪽】