¿Te gusta gritar a Alexa? ¿Insultar a Siri? ¿Sacar de quicio a Cortana? Sé sincero. Lo has hecho alguna vez. Le has preguntado algo y, ante su respuesta, le has llamado inútil, incompetente e incluso tonta.
Frank Buytendijk, vicepresidente de investigación de Gartner, se preguntaba recientemente en su blog las razones que llevan a las personas a comportarse de esta forma. En la entrada, Buytendijk cita algunas investigaciones llevadas a cabo por el Dr. Sheryl Brahnam, profesor de sistemas informáticos de la Universidad Estatal de Missouri. Brahnam estudió los registros de algunos asistentes electrónicos donde había interacciones entre él y un ser humano. Fue así como detectó un número significativo de insultos y reproches a aplicaciones como Siri. En la mayoría de las conversaciones, observó cómo los seres humanos hablaron de una forma que podría ser considerada inaceptable si la otra parte fuese una persona en lugar de un robot.
Según recogió la página web TechEmergence el pasado año, entre el 10% y el 50% de las interacciones con nuestros asistentes electrónicos, han sido abusivas, burlonas o insultantes.
Pero la mala interacción con una máquina puede tener efectos muy negativos. Un ejemplo reciente es Tay, un robot de Microsoft acusado de ser sexista y xenófobo. Y es que, gracias a nuestro lenguaje de odio (que por ser en broma se considera inocente), los robots están aprendiendo a hacer comentarios racistas en las redes sociales y a discriminar en función del género.
Las personas pueden pensar que es divertido interactuar con alguien sin consecuencias, pero Buytendijk argumenta que sí las hay. El abuso hacia un asistente personal (aunque sea informático) dice mucho acerca del carácter de la persona que lo maneja. Además, «el abuso verbal hacia un ordenador también puede ofender a otras personas que presencian la escena y arraigar una desagradable tendencia a perder los estribos en cualquier situación. ¿Por qué no enseñar mejor a tus hijos a dar las gracias a Siri?
Hablando en plata: trata a Siri como te gustaría que Siri te tratase a ti.
Fuente: fortune.com
Redacción QUO