본문 바로가기 주요메뉴 바로가기

본문

광고

광고

기사본문

등록 : 2019.08.02 06:01 수정 : 2019.08.02 21:14

구글은 어떻게 여성을 차별하는가
사피야 우모자 노블 지음, 노윤기 옮김/한스미디어·1만6000원

2년 전 구글의 한 남성 엔지니어는 “여자는 엔지니어로 적합하지 않으며 남녀 임금차별은 당연하다”는 주장을 담은 문건을 작성해 파문을 일으켰다. 같은 해 구글의 여성 직원 3명이 남성과 똑같은 일을 하고도 더 적은 임금을 받았다며 소송을 냈다. 지난해엔 구글 임원 2명이 사내 성추행을 저지르자 퇴직금 1500억원을 주고 회사에서 내보내고 이를 은폐했다는 사실이 드러나, 수천명의 직원들이 세계적인 동맹파업을 하기도 했다. 어쩌면 이런 비위는 구글의 알고리즘이 저지르는 성차별, 인종차별에 견주면 별것 아니거나 혹은 당연한 귀결인지도 모른다.

구글 검색창의 자동 완성 문구는 가장 적나라한 성차별의 전시장이다. 검색창에 ‘여성은 해서는 안 된다’(women should not)를 치면 ‘권리를 가져서는 안 된다’ ‘선거권을 가져서는 안 된다’ ‘일을 가져서는 안 된다’가 뜨고, ‘여성은 해야 한다’(women should)를 치면 ‘집에 머물러야 한다’ ‘휘어 잡혀야 한다’ ‘주방에 있어야 한다’ ‘교회에서 말하지 말아야 한다’는 등의 문장이 자동으로 완성된다. ‘흑인 소녀’ ‘아시아 소녀’ ‘히스패닉 소녀’ ‘백인 소녀’ 등 어떤 인종의 소녀든지 검색하면 이들에 관련된 포르노 사이트가 가장 먼저 우르르 뜬다.

미국 캘리포니아주 마운틴뷰에 있는 구글 본사 앞에서 지난해 11월1일(현지시간) 구글 직원들이 임원들의 직장 내 성추행과 이를 비호한 회사 측 대응에 분노하며 동맹파업을 벌이고 있다. 마운틴뷰/로이터 연합뉴스
인종차별은 어떠한가? 오바마가 미국 대통령이던 시절 ‘검둥이 집’을 구글 맵에 검색하면 백악관이 표시됐다. 2015년에는 미셸 오바마의 자동 완성 문구 중 ‘유인원’이 포함됐고, 2016년에는 ‘고릴라’를 검색하자 흑인 가족사진이 대거 떴다. ‘흑인은 왜 그토록’이라는 문구를 치면 ‘시끄러운가’ ‘게으른가’ ‘인색한가’ 등의 단어가 자동 완성 문구로 뜨고, ‘흑인 여성은 왜 그토록’이라고 입력하면 ‘화를 내는가’ ‘목소리가 큰가’ ‘인색한가’ ‘게으른가’ 등의 문장이 완성된다. ‘10대 흑인 3명’이란 단어로 이미지 검색을 하면 무수히 많은 10대 흑인들의 머그샷(구금 과정에서 찍는 얼굴 사진)이 뜨지만, ‘10대 백인 3명’으로 검색하면 건전한 모습의 백인 소년들의 사진이 나열된다. 결론적으로 구글의 검색 결과는 오로지 ‘백인 남성’들만을 주요 고객으로 모시는 상업적이고 차별적이고 비윤리적인 상품일 뿐이라는 게 <구글은 어떻게 여성을 차별하는가>의 주장이다.

반면, 구글은 알고리즘의 성적·인종적 편향성 지적에 대해, 항상 이는 사용자들의 사용 빈도에 따른 중립적이고 객관적인 결과물일 뿐이기에 “통제 밖의 문제”라고 대응해왔다. 이에 대해 저자는 “만일 구글이 자신의 알고리즘에 대해 책임이 없다면 누가 책임져야 한단 말인가”라고 물으면서, 구글의 검색 결과가 결코 인기와 사용 빈도에 따른 노출이 아님을 집요하게 파헤친다. 실제로 ‘검둥이 집’을 검색하면 백악관이 나오거나 ‘고릴라’ 이미지를 검색하면 흑인 가족이 뜨는 것에 대해서 구글은 ‘일시적 오작동’이라면서 수정을 가했는데, 왜 늘 오작동은 성차별·인종차별적으로만 발생하는지, 이렇게 수정을 가할 수 있다면 왜 애초부터 필터링하지 못했는지 저자는 반문한다.

김아리 자유기고가 ari9303@naver.com

광고

브랜드 링크

멀티미디어


광고



광고

광고

광고

광고

광고

광고

광고


한겨레 소개 및 약관