“Acostarse con un androide ¿es infidelidad?”, se pregunta y nos pregunta la publicidad de la segunda temporada de la serie Westworld que se emite por HBO. Esta pregunta es más compleja de lo que parece porque nos lleva a otras más inquietantes: ¿Cuáles son los posibles vínculos que se están generando con los humanos? Si un humano se enamora de un robot… ¿no será porque se nos está olvidando enamorarnos?
Hasta el momento las emociones eran un patrimonio de la humanidad pero desde un tiempo a esta parte esto no está tan claro. Mucho han cambiado las cosas en la historia de la revolución tecnológica, desde el robot industrial, el juguete, el androide, hasta llegar a robots que parecen ser humanos e imitan nuestras emociones. Pero… ¿qué tiene de bueno que un robot nos sonría amablemente?
En la década de 1970 el ingeniero japonés Masahiro Mori propuso que hubiera empatía entre robots y humanos. Se estaba creando una cultura de rechazo a la máquina que debía cambiar. Desde esa perspectiva, y basándose en Sigmund Freud, propuso que los robots tuvieran apariencia humana. Desde entonces las emociones han ocupado un lugar relevante en el contexto de la robótica, al margen del desarrollo de la IA (inteligencia artificial). El profesor Hiroshi Ishiguro asegura que pronto tendremos robots sociales (más allá de lo emocional) y que estos se integrarán en nuestras vidas: en el hogar, en el trabajo, en los lugares de ocio, etc.
Pero, ¿es peligroso todo esto? Ya existe una cultura del miedo sobre la IA que forma parte incluso de nuestra cultura estética, desde la famosa novela ¿Sueñan los androides con ovejas eléctricas?, hasta la adaptación cinematográfica Blade Runner (La original de 1982 y su secuela, Blade Runner 2049). Y hasta se ha esbozado sucintamente en este género la cuestión sobre las emociones en los robots.
Pero tal vez no se ha reflexionado lo suficiente al respecto. En realidad cuando hablamos de emociones robóticas siempre lo hacemos desde el punto de vista empático del ser humano. Los robots pueden ser emocionales para el ser humano pero eso no significa que experimenten emociones en realidad. Así lo declara Sossa Azuela en su proyecto Cajal Blue Brain, donde simula el funcionamiento de mamíferos a nivel matemático.
«Llamamos EA (Emoción Artificial) al estado de apariencia emocional de los robots»
En base a lo dicho podemos atrevernos a dar origen a una definición en este artículo para la revista QUO. Llamaremos EA (Emoción artificial) al estado de apariencia emocional del robot que genera empatía en el ser humano. Esto implica que las emociones robóticas son un fenómeno de feed back humano. Y al igual que la IA ha traído suspicacias la EA también han comenzado a hacerlo en el mundo científico.
Pero la EA sobre todo comienza a tener implicaciones éticas en este momento de la posmodernidad donde aparece el poshumanismo como debate reconocido ampliamente.
El poshumanismo es una línea de pensamiento filosófico actual que se plantea qué es lo humano desde el transhumanismo o el tecnohumanismo. Existe una crisis del concepto de ser humano renacentista y por ende en estos momentos lo humano se está redefiniendo. No conocemos destino final de este debate, que como digo es actual, pero lo cierto es que en él está implícito la reflexión sobre los robots emocionales.
Que un robot simule emociones puede ser más peligroso de lo que parece. Un robot que te acompaña a hacer la compra o que cuida de los ancianos, o que simplemente evita la soledad perjudica nuestra salud emocional. Y no solo eso: deforma el proceso de aprendizaje emocional humano. Si lo hacen ellos… nos quitamos de encima el peso de aprender a hacerlo nosotros.
«La inteligencia emocional tiene que ocupar un lugar importante en la educación»
La inteligencia emocional no puede seguir siendo residual en el proceso pedagógico a lo largo de nuestra vida. Las instituciones educativas y el entorno familiar deben tomarse esto mucho más en serio. La consecuencia es que el desarrollo tecnológico está supliendo este déficit. Y esto nos declara que el problema es en realidad educativo.
Con esto argüimos que los robots tienen (o parecen) tener emociones que nos sirven, porque nosotros hemos dejado de generarlas o no sabemos cómo hacerlo. La empatía robótica existe porque cada vez hay menos empatía humana, y la robótica puede acabar por sustituirla.
Ya no sabemos comunicarnos entre nosotros, ni tenernos afecto, ni siquiera sabemos querernos a nosotros mismos. Cada vez estamos más lejos del ideal griego de equilibrio donde la felicidad era la clave. Ya no sabemos ser felices en esta sociedad de autoexigencias. Por eso cada vez somos más infelices. Y eso nos está convirtiendo en seres muy individualistas y solitarios. Pero estamos tan desmotivados que no hacemos nada al respecto. Apenas tenemos contenido interior, lo que nos hace descreidos y descomprometidos: autoexcluidos de nuestra sociedad.
De esta manera la existencia del robot emocional abre un debate ético. ¿Deben los robots simular emociones? ¿Debemos dejar de fabricar robots emocionales? ¿Hacer el amor con un robot es adulterio? ¿Matar a un robot, en un juego de guerra, es asesinato? Estas preguntas deben ser respondidas lo antes posible. De la misma manera tenemos que comenzar a exigir, desde lo público, la aplicación de conceptos morales en la industria de los robots emocionales. Y debemos hacerlo antes de que se cumpla el pronóstico de Hiroshi Ishiguro y convivamos con robos sociales.
Si llegamos a ese punto tendremos que declararnos seres disminuidos emocionalmente y necesitados de una máquina para sentir.
Tal vez entonces tendremos que pedirles a las máquinas que nos enseñen a tener emociones.