아마존 극비 AI 툴이 "여성멸시이었다"라는 이유로 폐기
아마존이 "취직 희망자 이력서를 AI로 평가한다"라고 하는 시스템을 살그머니 개발했지만, AI가 남성을 좋아하고, 여성을 취직에 불리하게 평가해서, 툴을 파기했다고 합니다.
아마존 기계학습 전문가팀은 2014년, 재능이 있는 사람 재료를 찾아내기 위해서, 이력서로 취직 희망자를 평가하는 알고리즘을 작성했습니다. Amazon에 있어서 '자동화'는 대단히 중요한 요소이기 때문, 인재고용에 있어서도 AI에 의한 자동화를 하는 것은, 지극히 자연스러운 흐름이었다라고 합니다.
그러나, 이 '이력서에서 자동적으로 재능 있는 톱5%을 골라 준다'라고 하는 채용 담당자에게서 하면 꿈과 같은 알고리즘이 '여성혐오'가 있는 것이 2015년에 밝혀졌습니다. 소프트웨어 개발자를 비롯하는 기술적인 포스트에 있어서, 아마존 시스템은 젠더의 점에서 중립이 아니었었습니다.
AI 시스템이 여성혐오하는 이유는, 아마존 컴퓨터·모델이 과거 10년간의 이력서 패턴에 의해 학습을 했었기 때문. 과거 10년, 테크놀로지 산업에서는 남성이 지배적이었습니다.
아마존의 시스템은 남성 후보자를 좋아하고, 「"여성의" 체스 클럽 캡틴」이라고 한 "여성의"라고 하는 말을 포함하는 이력서를 불리하게 작용시켰습니다. 또, 여자대학교를 졸업한 후보자를 낮게 평가한 것도 밝혀졌습니다.
아마존은 특정한 말에 대하여 중립이 되도록 프로그램을 편집했습니다만, 시스템이 다른 방법으로 후보자를 차별적으로 취급할 가능성이 있다고 생각되었습니다. 그 때문에, 2017년 초두에 팀은 해산. 2018년 현재, 아마존은 채용할 때에 AI툴에 의해 만들어진 "추천"을 확인합니다만, 랭킹만에 의지 안 한다고 합니다.
아마존은 기술적 과제에 대해서 성명를 내지 않았습니다. "아마존이 후보자를 평가하기 위해서 이 툴을 사용한 것은 한번도 없다"라고 말했습니다.
구직 정보 사이트 가 2017년 조사한 내용에 의하면, 미국 기업 인사부 매니저 55%가 "인공지능/AI는 5년이내에 자기들의 일에 있어서 당연한 것이 된다"라고 생각하고 있습니다. 그러나, 컴퓨터 과학자 Nihar Shah씨는 "알고리즘을 공평하게 해, 현실적으로 해석가능하게 하기 위해서는 아직 도정은 멀다"라고 진술했습니다. 실제로, 기계학습이 인간의 편견을 재현한다고 하는 점에 대해서는, 다른 과학자에게서도 걱정의 목소리가 나왔습니다.
'아마존' 카테고리의 다른 글
미국 법원이 아마존 AI 스피커에 출정 명령 (0) | 2018.11.13 |
---|---|
WikiLeaks가 수수께끼에 싸여진 아마존 데이터센터 소재지를 폭로, 지도도 공개 (0) | 2018.10.12 |
아마존 제프 베조스가 로켓 엔진 판매도 시작! (0) | 2018.09.28 |
아마존 간부 「5∼10년후에는 음성 AI가 인간과 20분이상 잡담할 수 있다!」 외톨이 환희ㅋㅋㅋ (0) | 2018.09.23 |
아마존 사원이 뇌물을 받아, 형편이 나쁜 리뷰를 삭제했었다... (0) | 2018.09.23 |