CIENCIA

La ética llega a los coches autónomos

El dilema se ha planteado desde el mismo nacimiento de los coches autónomos. Si un vehículo de estas características se enfrenta a la decisión de esquivar a un niño en la calle, pero al hacerlo atropellará a un peatón que se encuentra en la acera, ¿cuál será la decisión? En síntesis, ¿puede un vehículo autónomo actuar como esperamos que reaccione un ser humano? Al contrario de lo que se pensaba hasta ahora, un nuevo estudio ha descubierto por primera vez que la moral humana puede ser recreada en un modelo, lo que significa que las decisiones morales son, en principio, posibles para las máquinas.
El estudio, publicado en Frontiers in Behavioral Neuroscience, utilizó realidad virtual inmersiva para permitir al equipo liderado por Leon Sütfeld, estudiar el comportamiento humano en simulaciones de tráfico .

A 105 voluntarios se les pidió que condujeran un automóvil en un típico barrio suburbano, simulando un día de niebla y situaciones inesperadas con objetos inanimados, animales y seres humanos y debían decidir cuál debía ser salvado. Los resultados fueron conceptualizados por modelos estadísticos que condujeron a reglas que permitían explicar el comportamiento observado. La investigación demostró que las decisiones morales se pueden explicar y modelar de acuerdo con un valor de vida único para cada objeto humano, animal, o inanimado.
De acuerdo con Sütfeld, “hasta ahora se había asumido que las decisiones morales tienen un alto grado de dependencia del contexto y por lo tanto no pueden ser modeladas o descritas algorítmicamente. Pero descubrimos todo lo contrario: el comportamiento humano en situaciones de dilema puede ser recreado por un modelo basado en el valor que el participante atribuye a cada objeto, sea inanimado, animal o humano”.

Los hallazgos del estudio tienen importantes implicaciones en el debate sobre el comportamiento de los vehículos autónomos. Por ejemplo, una nueva iniciativa dirigida por el Ministerio Federal de Transporte e Infraestructura Digital (BMVI), de Alemania, ha definido 20 principios éticos relacionados con el comportamiento de este tipo de coches en caso de accidentes inevitables.
“Ahora que sabemos cómo implementar las decisiones éticas humanas en las máquinas – concluye Peter König, coautor del estudio – , como sociedad seguimos teniendo un doble dilema. En primer lugar, tenemos que decidir si los valores morales deben ser incluidos en las directrices para el comportamiento de la máquina y en segundo lugar, si lo son, si las máquinas deben actuar como seres humanos”.

Juan Scaliter

Juan Scaliter

Noticias recientes

El consumo de cannabis produce cambios epigenéticos

Consumir cannabis puede provocar cambios en el epigenoma del cuerpo humano, según sugiere un estudio…

16 horas hace

Los tigres dientes de sable adolescentes tenían dos pares de colmillos

Las pruebas sugieren que los grandes felinos extintos con dientes de sable conservaban a sus…

2 días hace

¿Cómo sabemos si una sustancia es un disruptor endocrino?

La falta de datos de la industria química en la UE impide a menudo evaluar…

2 días hace

Así influye el cambio climático en la pérdida de biodiversidad

El cambio climático podría convertirse en el principal causante del declive de la biodiversidad a…

3 días hace

La vitamina D protege contra el cáncer cambiando la microbiota

La vitamina D altera las bacterias intestinales de los ratones y como resultado mejora su…

3 días hace

No, la Luna no está hecha de queso

Los científicos confirman la composición del núcleo interno de la luna, que consiste en una…

4 días hace