구글

구글이 AI를 활용해서 인터넷상 「아동을 착취하는 위법인 포르노 컨텐츠」를 자동으로 찾아내는 툴을 개발

나나시노 2018. 9. 6. 20:21
반응형




구글이 AI를 활용해서 인터넷상 「아동을 착취하는 위법인 포르노 컨텐츠」를 자동으로 찾아내는 툴을 개발



인터넷상에는 아동 포르노 등, 미성년자를 타깃으로 한 성적 소재(child sexual abuse material :CSAM)가 많이 존재합니다. CSAM을 인터넷상에서 배제하는 작업은 인간 손으로 하고 있습니다만, 차례로 등장하는 CSAM에 대처할 수 없는 것이 현상입니다. 그래서, 구글은 CSAM에 마주 향하는 인간을 도와주기 위해, AI를 활용한 CSAM을 판정하는 툴 「Content Safety API」를 개발했습니다.


Using AI to help organizations detect and report child sexual abuse material online


위법인 아동 포르노가 인터넷상에서 표시되는 것을 막기 위해서, 구글  컨텐츠 프로바이더는 감시 활동을 하고 있습니다. 그러나, 특정한 컨텐츠를 인터넷상에서 삭제하는 행위는 「표현의 자유」 침해에도 될 수도 있어서, 컨텐츠 위법성에 대해서는 인간에 의한 신중한 판단이 피할 수 없습니다.



CSAM을 삭제하는 활동은 정신적으로 가혹한 것이 알려져 있습니다.



또, 종래의 CSAM 감시 활동으로 도입된 툴은, 이미 보고된 위법인 CSAM 해시 수치와의 매칭에 의존한 것으로, 재업로딩을 예방하기 위한 것입니다. 그 때문에, 한정된 인원 밑에서는 새롭게 등장하는 CSAM에 관한 대처가 따라잡지 않는다라고 하는 상태에 있었습니다.



구글은 딥 러닝을 채용한 이미지·영상인식 기술에 의해 컨텐츠를 자동판단하고, CSAM을 찾 「Content Safety API」를 개발했습니다. Content Safety API는, 수많은 인터넷 컨텐츠를 AI에 의해 자동판별시켜, CSAM 의혹이 있는 인간의 눈에 의한 확인이 필요한 것을 검출할 수 있고, 검출한 컨텐츠를 대처할 필요성이나 긴급성에 따라서 바꿔 넣을 수 있습니다. 인터넷을 감시하는 인간은 CSAM으로부터 내놓은 중요도가 높은 컨텐츠부터 순서대로 CSAM으로서 삭제할 것인지 판단을 할 수 있고, 작업을 효율화할 수 있다고 합니다.


Google에 의하면 Content Safety API를 도입하는 것으로, 어떤 경우는 종래부터도 8배나 CSAM을 발견하는 것에 성공한 것으로, 적은 인원이라도 작업을 효율적 동시에 빨리 실시할 수 있게 되었습니다.


CSAM을 배제하는 활동을 하는 "Internet Watch Foundation" Susie Hargreaves 대표는, 「지금까지 검출할 수 없었던 위법 컨텐츠를 찾아내서, 인간의 전문가가 보다 큰 규모로 판단할 수 있는 자료를 제공하고, 범죄자 위법 업로딩 행위에 따라잡는 것을 구출하는 인공지능 툴이 개발된 것에 흥분하고 있습니다」라고 말하고, AI를 활용한 CSAM 대항 툴을 환영했습니다.


반응형