¿Cómo evitar el racismo en la inteligencia artificial?

x

Los sesgos racistas manifestados por la inteligencia artificial son una referencia para entender que su artificialidad es muy humana. Muchas veces no se ve como una tecnología perfecta, capaz de reemplazarnos en múltiples tareas de forma objetiva. Un ejemplo fue la famosa etiqueta de gorilas que Google adjudicó a unas personas afroamericanas.

Ágata Lapedriza, Profesora UOC y David Masip Rodó, Profesor de Estudios de Informática, ambos de la Universitat Oberta de Catalunya revisan estos sesgos en un artículo de The Conversation.

Puedes leer: A precios de pandemia saldrán las primeras vacunas contra el coronavirus

Refieren un estudio del MIT Medialab que publicó un análisis de los sesgos de los sistemas de reconocimiento facial. La inteligencia artificial mostraba diferencias muy marcadas por comunidades. Presentaban una fiabilidad de más del 90 % para rostros de hombres blancos y del 75 % para mujeres de piel oscura.

Inteligencia artificial sesgada

La inteligencia artificial requiere grandes volúmenes de datos para entrenar sus modelos predictivos. Por ejemplo, para que una máquina aprenda a detectar caras se le alimenta con muchas imágenes de caras. Y también con muchas imágenes de otras cosas que no lo son.

La máquina aprende a encontrar formas, colores y otros patrones visuales que pertenecen a los rostros que le hemos enseñado. Este proceso se conoce como entrenamiento de un modelo. En este caso de un modelo de detección de caras.

Luego, dada una imagen nueva, la máquina usa el modelo para buscar estos patrones visuales faciales que ha aprendido. Si los encuentra, clasificará la imagen como una cara y si no, la descartará.

La máquina aprende qué es una cara a partir de las caras que le enseñemos. ¿Qué pasa entonces si solamente le enseñamos rostros de personas blancas? El resultado será un sistema que solo será capaz de detectar caras de gente blanca.

Detecta lo que le piden detectar

Es imposible que la inteligencia artificial pueda detectar caras de otros tonos de piel correctamente y con la misma fiabilidad. En esas condiciones la máquina no ha visto la diversidad real de los rostros humanos. El resultado indica un sesgo hacia caras de personas blancas.

El problema es, por tanto, que la máquina ha aprendido a partir de una muestra de ejemplos que está sesgada. En consecuencia, aprende a clasificar de forma racista.

Por ello es necesario que se verifique explícitamente si la inteligencia artificial funciona con personas diversas. Este es uno de los motivos por los cuales es muy importante que haya diversidad entre los investigadores e ingenieros.

Puedes leer: James Story nominado a embajador de Estados Unidos en Venezuela

Las imágenes deben mostrar a personas de diferentes culturas, nacionalidades, colores de piel e identidades sexuales. De esta forma, la inteligencia artificial que se cree tendrá en cuenta una sociedad diversa.

Una posible solución que se está estudiando es desarrollar sistemas de inteligencia artificial que sean interpretables. Estas podrán proveer explicaciones sobre las decisiones que toman. De esta forma sería más fácil evaluar si la decisión que toman es aceptable o no.