Beauty.AI, el primer concurso internacional de belleza en el que los jueces eran máquinas, que se ha celebrado este verano, debía haber sido un hito en la búsqueda del rostro perfectamente simétrico, de la expresividad más bella, de la más atractiva mirada. Pero se convirtió en la pesadilla de los programadores cuando el fallo de los jueces dejó claro que a sus inteligencias artificiales no les gustaba la piel oscura. De los 44 ganadores, elegidos entre 6.000 participantes de todo el mundo, solo una mujer era negra.
Puede que el resultado haya sido justo, y no una cuestión de racismo, pero también es posible que se haya fallado a la hora de educar sus inteligencias artificiales. Quizá los programadores hayan introducido sus propios sesgos en la mente de los robots: todos ellos son hombres blancos a quienes les gustan las mujeres blancas, y eso queda reflejado en su obra. Pero en otras circunstancias, la culpa es fundamentalmente de los usuarios.
El pasado marzo, Tay, un robot que Microsoft había puesto en Twitter y que representaba a una adolescente, se soltó con opiniones racistas y machistas, como “el feminismo en un cáncer”. Tardó pocas horas en aprender lo peor de las redes sociales, y no pasó mucho más tiempo hasta que fue eliminada.
La corta vida de Tay puso de relieve el gran reto de los programadores de inteligencia artificial. No solo deben mantener a raya sus propios prejuicios sino que deben contar con la contaminación que aflora debido a los de los demás. Las personas que interactuaron con Tay son responsables de haberle enseñado a ser racista y machista.
Hay casos mucho más sutiles, relacionados con los estereotipos sexistas. Una investigación de la Universidad de Cornell obtuvo interesantes conclusiones sobre el buscador de Google. Encontró que el motor de búsqueda tampoco se queda atrás en cuanto a mala educación. El machismo ha calado en su esencia.
Los investigadores profundizaron en cómo funciona la aplicación AdSettings. En ella, los usuarios pueden rellenar un formulario que sirve para que el buscador adecue los anuncios a su perfil. Los científicos observaron que los perfiles de las mujeres recibían menos ofertas de trabajos bien remunerados que los de los hombres. Otro estudio detectó cómo los nombres típicos de usuarios afroamericanos daban más resultados relacionados con la delincuencia que los de los anglos.
Es una cuestión espinosa. Seguro que hay más delincuentes con cierto nombre que con otros, pero no intervenir en esta estadística no sería justo. En muchas circunstancias, podría servir solo para perpetuar los estereotipos.
Andrés Masa Negreira