Con los avances en IA de los últimos meses para crear imágenes de personas, nos preguntamos cómo saber si una foto es real, pero hasta los mejores fisonomistas caen en el engaño

Si crees que puedes distinguir una foto real de una creada con inteligencia artificial, te estás engañando. En los últimos años era fácil, ya que una cara generada por inteligencia artificial (IA) tenía dientes raros, orejas imposibles o un fondo que parecía derretirse.

Esa etapa ya pasó. Los modelos actuales fabrican retratos tan convincentes que nuestro cerebro, que adora decidir rápido, cae en la trampas. El problema no es solo técnico, también social: en redes, en citas, en procesos de selección para un puesto de trabajo, o en estafas, seguimos creyendo que “se nota”, cuando ya no se nota.

Un equipo de la Universidad de Nueva Gales del Sur (UNSW) en Sídney y de la Universidad Nacional Australiana (ANU) ha comprobado en su nuevo estudio que la mayoría de la gente confía en exceso en su capacidad para distinguir caras reales de caras creadas por IA, aunque su rendimiento real apenas es mejor que si eligieran al azar.

Cómo distinguir si una foto es real en la era de la simulación perfecta

“Hasta ahora, la gente se sentía segura de su habilidad para detectar una cara falsa”, explica el investigador de Psicología de la UNSW, el doctor James Dunn. “Pero las caras creadas por los sistemas más avanzados de generación de rostros ya no se detectan con tanta facilidad”.

Los investigadores reclutaron a 125 participantes para una prueba online. Entre ellos había 36 “super recognisers”, o superreconocedores, personas con una capacidad extraordinaria para reconocer caras humanas, y 89 participantes de control. A todos les mostraron una serie de rostros y les pidieron que juzgaran si cada imagen era real o generada por IA. Antes de empezar, el equipo eliminó ejemplos con fallos obvios para que nadie ganara por goleada gracias a un ojo bizco mal dibujado o cuatro dientes de más.

“Lo que vimos es que las personas con una capacidad media de reconocimiento facial rendían solo un poco mejor que el azar”, dice Dunn. “Y aunque los superreconocedores lo hacían mejor que el resto, la diferencia era pequeña. Lo constante era la confianza de la gente en que podía detectar una cara generada por IA, incluso cuando esa confianza no encajaba con su rendimiento”.

¿De dónde sale esa seguridad? En parte, de reglas antiguas. Las primeras caras sintéticas tenían “artefactos visuales”, detalles mal resueltos como dientes deformados, gafas que se fusionaban con la piel, orejas que no encajaban o fondos extraños que se colaban en el pelo. Hoy, los generadores han limado esos errores. La cara ya no chirría, y por eso muchos siguen usando pistas que funcionaban ayer, pero fallan hoy.

Hay sistemas mejores que ChatGPT o DALL·E

La psicóloga de la ANU, la doctora Amy Dawel, apunta a un culpable cotidiano: “Mucha gente cree que todavía puede notar la diferencia porque ha trasteado con herramientas populares de IA como ChatGPT o DALL·E”, afirma. “Pero esos ejemplos no reflejan lo realistas que se han vuelto los sistemas más avanzados de generación de caras, y confiar en ellos puede dar a la gente una falsa sensación de seguridad”.

El estudio también desmonta otra comodidad: no se trata de “expertos contra el resto”. Aunque los superreconocedores sacaron ventaja, su precisión quedó muy por debajo de la que suelen lograr cuando identifican caras humanas reales. Además, algunos no superreconocedores superaron a ciertos superreconocedores, lo que sugiere que existe otra habilidad, o al menos otra estrategia, en juego.

La clave, dicen los autores, es paradójica. Los mejores rostros artificiales no se delatan por lo que hacen mal, sino por lo que hacen demasiado bien. “Irónicamente, las caras de IA más avanzadas no se descubren por lo que tienen mal, sino por lo que tienen demasiado bien”, señala Dawel. “En lugar de fallos evidentes, tienden a ser inusualmente promedio, muy simétricas, bien proporcionadas y estadísticamente típicas”. Es decir, se ven “demasiado normales”, como si una estadística se hubiera hecho selfi.

Eso tiene consecuencias prácticas inmediatas. Si una foto de perfil parece impecable, eso ya no debería tranquilizarnos. Dunn lo resume con una advertencia sencilla: “Tiene que existir un nivel saludable de escepticismo”. Durante mucho tiempo miramos una fotografía y asumimos que muestra a una persona real. Esa suposición se tambalea, y conviene actualizarla antes de que alguien la use en nuestra contra.

REFERENCIA

Too Good to be True: Synthetic AI Faces are More Average than Real Faces and Super-recognisers Know It

Imagen: sustainability-directory.com