TECNOLOGÍA

La inteligencia artificial también reproduce el mal

Una nueva investigación realizada por un grupo de científicos de la Universidad de Princeton y la Universidad de Bath ha demostrado que nuestro lenguaje se transmite íntegramente al aprendizaje de la Inteligencia Artificial. En lo bueno y en lo malo.

Según su experiencia, publicada en la revista Science, cuando tratan de enseñar un idioma a estos sistemas a partir de textos ya existentes, se ven impregnados de un malévolo sesgo humano en cuanto a prejuicios raciales o de género.

Para medir esto, los autores utilizaron el Test de Asociación Implícita (TAI), un método que se usa con el fin de medir los prejuicios en los humanos. Según los autores de la investigación, «replicamos un espectro de prejuicios conocidos, como los que mide el test TAI, utilizando un modelo de aprendizaje automático, muy utilizado y puramente estadístico, entrenado con textos de la web.

Según explica la Agencia SINC, fue así como los investigadores «observaron las asociaciones de palabras que hacía el sistema analizando más de dos millones de palabras, y descubrieron que retenía los mismos prejuicios humanos transmitidos a través de la lengua». Como explica Aylin Caliskan, el sesgo en materia de género, por ejemplo, es bastante claro: «Los nombres femeninos se asociaban principalmente a términos relacionados con la familia, mientras que los masculinos lo hacían a términos relacionados con carreras profesionales”.

Los prejuicios raciales también estuvieron presentes. Según SINC: «Existen estudios sobre el comportamiento humano que muestran que un mismo curriculum tiene un 50% de posibilidades más de que el candidato pase a la fase de entrevista si su nombre es europeo-americano en lugar de afroamericano». En el caso de la investigación con IA ocurrió algo muy similar, y es que los nombres europeos y americanos se asociaban a estímulos o términos positivos relacionados con el placer, como ‘regalo’ o ‘felicidad’.

Otro de los autores del estudio, Arvid Narayan, achaca la transmisión de estos prejuicios no solo a la programación de sus creadores, sino también a los datos en los que el sistema ha estudiado. “Esos textos pueden venir directamente de la sociedad, de lo que escribe la gente on line

Fuente: Agencia SINC

Redacción QUO

Redacción QUO

Noticias recientes

Esta es la primera fotografía de cerca de una estrella más allá de nuestra galaxia

Innumerables estrellas habitan en otras galaxias, tan lejanas que observar incluso una sola de ellas…

13 horas hace

La relación entre ver contenidos negativos en Internet y tener problemas mentales

Las personas con peor salud mental son más propensas a navegar por Internet con contenidos…

13 horas hace

Cómo luchar contra las bacterias resistentes a los antibióticos: dejar de usarlos (durante un tiempo)

Retirar los antibióticos temporalmente podría restaurar su eficacia contra las bacterias resistentes

13 horas hace

Seat León híbrido enchufable, el León más potente de la historia

El Seat León abre sus puertas a la mecánica híbrida enchufable y lo hace con…

14 horas hace

Tu microbiota la determinan también tus amistades

El análisis de casi 2.000 personas que viven en aldeas remotas de Honduras revela quién…

2 días hace

El sueño de los ratones nos dice que es necesario hacer estudios separados con mujeres

Un nuevo estudio en ratones muestra que machos y hembras tienen patrones de sueño profundamente…

2 días hace