El dilema se ha planteado desde el mismo nacimiento de los coches autónomos. Si un vehículo de estas características se enfrenta a la decisión de esquivar a un niño en la calle, pero al hacerlo atropellará a un peatón que se encuentra en la acera, ¿cuál será la decisión? En síntesis, ¿puede un vehículo autónomo actuar como esperamos que reaccione un ser humano? Al contrario de lo que se pensaba hasta ahora, un nuevo estudio ha descubierto por primera vez que la moral humana puede ser recreada en un modelo, lo que significa que las decisiones morales son, en principio, posibles para las máquinas.
El estudio, publicado en Frontiers in Behavioral Neuroscience, utilizó realidad virtual inmersiva para permitir al equipo liderado por Leon Sütfeld, estudiar el comportamiento humano en simulaciones de tráfico .

A 105 voluntarios se les pidió que condujeran un automóvil en un típico barrio suburbano, simulando un día de niebla y situaciones inesperadas con objetos inanimados, animales y seres humanos y debían decidir cuál debía ser salvado. Los resultados fueron conceptualizados por modelos estadísticos que condujeron a reglas que permitían explicar el comportamiento observado. La investigación demostró que las decisiones morales se pueden explicar y modelar de acuerdo con un valor de vida único para cada objeto humano, animal, o inanimado.
De acuerdo con Sütfeld, “hasta ahora se había asumido que las decisiones morales tienen un alto grado de dependencia del contexto y por lo tanto no pueden ser modeladas o descritas algorítmicamente. Pero descubrimos todo lo contrario: el comportamiento humano en situaciones de dilema puede ser recreado por un modelo basado en el valor que el participante atribuye a cada objeto, sea inanimado, animal o humano”.

Los hallazgos del estudio tienen importantes implicaciones en el debate sobre el comportamiento de los vehículos autónomos. Por ejemplo, una nueva iniciativa dirigida por el Ministerio Federal de Transporte e Infraestructura Digital (BMVI), de Alemania, ha definido 20 principios éticos relacionados con el comportamiento de este tipo de coches en caso de accidentes inevitables.
“Ahora que sabemos cómo implementar las decisiones éticas humanas en las máquinas – concluye Peter König, coautor del estudio – , como sociedad seguimos teniendo un doble dilema. En primer lugar, tenemos que decidir si los valores morales deben ser incluidos en las directrices para el comportamiento de la máquina y en segundo lugar, si lo son, si las máquinas deben actuar como seres humanos”.

Juan Scaliter