Examinando los resultados de algunos experimentos que nuestros científicos están llevando a cabo, no queda más que preguntarse (algo preocupado) si seguimos evolucionando o hemos emprendido el errático camino inverso. Todos recordaréis la manida frase de madre que decía «y si tu amigo se tira por un puente, ¿tú también te tiras?» Pues bien, un grupo de investigadores del Instituto de Tecnología de Georgia ha demostrado no solo que años después nos seguimos tirando, sino que ya lo hacemos hasta con un ser mecánico desprovisto de emociones y sentido común.

Según la tecnología ha ido perfeccionando la Inteligencia Artificial, otro de los retos más importantes para los ingenieros ha sido construir robots con los que los humanos nos sintamos cómodos. Y, según los resultados de esta investigación, parece que han tenido éxito en esta ‘batalla’. Quizás demasiado. Los científicos del Instituto Tecnológico de Georgia han comprobado que los humanos se fían ciegamente de los robots, incluso cuando no deberían hacerlo. La reacción de los voluntarios dejó perplejos a los investigadores, quienes pretendían demostrar justo lo contrario. ‘Punto’ para los robots.

[image id=»78255″ data-caption=»» share=»true» expand=»true» size=»S»]

Los científicos pidieron a 30 voluntarios que siguieran a un robot. Por fortuna, no programaron al amigo mecánico para que se tirara por un puente (y menos mal), sino para que caminase por los pasillos de un edificio. Mientras el grupo avanzaba hasta un punto desconocido, la alarma de incendios empezó a sonar y de repente el humo llenó la sala. El robot, equipado con un letrero que indicaba «guía de emergencia», tomó el control de la situación y se hizo responsable de decidir por dónde salir, lo que obligó a los voluntarios a tomar una decisión en fracción de segundos: ¿le seguimos? ¿evacuamos por nuestra cuenta? ¿apagamos entre todos el fuego?

[image id=»78258″ data-caption=»» share=»true» expand=»true» size=»S»]

Como podéis suponer, ganó el robot, que de repente se encontró con 26 de los 30 humanos que participaban en el estudio siguiendo sus pasos. Lo peor de todo, es que continuaron fiándose de él a pesar de que cogió caminos peligrosos, escogió puertas equivocadas alejadas de la salida (a pesar de que se indicaba con letreros claramente) y mostró un par de ‘ataques de bugs’ en momentos determinados. Y todo esto, con una fila de 26 seres humanos con sentido común detrás.

[image id=»78260″ data-caption=»» share=»true» expand=»true» size=»S»]

«Nos sorprendió,» explica el investigador Paul Robinette a New Scientist. «Pensamos que la gente no se fiaría y que tendríamos que hacer algo para demostrar que el robot era digno de su confianza». Es más, los voluntarios dieron al robot el beneficio de la duda incluso cuando tomaba direcciones contradictorias. En otra versión del estudio, la mayoría de los participantes siguieron confiando en él a pesar de que demostró pararse a consecuencia de repetidos bugs o dar vueltas en círculos sin sentido alguno. Por su parte, de entre los humanos inteligentes y racionales, sólo cuatro de ellos demostraron tener instinto de supervivencia ante semejante situación de emergencia. Un gol de la Inteligencia Artificial al cerebro humano.

[image id=»78259″ data-caption=»» share=»true» expand=»true» size=»S»]

Bromas aparte, esta situación no le parece nada divertida a los científicos. Los ingenieros han tenido demasiado éxito y los humanos no solo se sienten cómodos con ellos, sino que confían ciegamente en su criterio. Una confianza que va contra el sentido común y que no ve necesario pararse a valorar si el robot está mostrando errores o bugs en su comportamiento. Por tanto, ahora el reto no está en hacer que la gente vea con buenos ojos la convivencia con seres robóticos, sino en tratar de divulgar y enseñar a todo el mundo cómo reconocer cuando un robot está funcionando mal.

«El software es muy sensible de tener errores» explica el experto AI Kerstin Dautenhahn a New Scientist. Según el investigador Alan Wagner, «la gente cree que estos sistemas robóticos saben más sobre el mundo de lo que realmente saben. En nuestros estudios, hemos podido comprobar como las personas siguieron las instrucciones del robot hasta el punto de que les podría haber puesto en peligro«.

Fuentes:

mentalfloss.com | New Scientist |

Redacción QUO