Google adaptará nueva herramienta que beneficia la integridad de niños

Una de las tareas más complicadas, agotadoras y dañinas psicológicamente es la de moderar sitios con el fin de identificar y retirar material relacionado con abuso sexual infantil (child sexual abuse material “CSAM”). Debido a su complejidad, este trabajo es realizado por humanos, pero ahora Google busca contribuir con esa labor usando inteligencia artificial.

Google
Foto: Archivo

Google está lanzando una nueva herramienta de software gratuito, la cual se basa en su plataforma de inteligencia artificial y está dirigida a aquellas compañías que se dedican a la tarea de moderación de contenido CSAM, ya sea en uno o varios sitios de internet.

La ventaja de este ‘crawler’ es que identifica el material de forma efectiva y evita que sea compartido, lo que frena su difusión. Sin embargo, este software sólo funciona de forma efectiva con material marcado como ilegal, ya que no tiene la capacidad de identificar nuevo contenido. Aquí es donde entran los moderadores humanos, quienes se tienen que hacer cargo de nutrir la base se datos viendo y revisando imágenes y vídeos para otorgarles una clasificación.

Según Google, su nueva herramienta hace uso de su sistema de identificación visual ‘machine vision’ usando el material previamente clasificado, para que así pueda identificar imágenes y vídeos CSAM de una forma más rápida. Una vez que el sistema identifica material de este tipo, envía una alerta al moderador para priorizar su revisión, ya que el humano seguirá siendo quien se encargue de marcarlo como ilegal.

Con información de Xalaka


“Si quieres visualizar esta y otras noticias desde tu celular, síguenos en nuestra cuenta de Twitter https://twitter.com/noticias_ahora_  y mantente siempre informado”