CIENCIA

El peligro oculto de las imágenes creadas por IA a punto de inundar las redes sociales

El astronauta de la imagen superior es un montaje realizado por una inteligencia artificial solo con una instrucción verbal: «Un astronauta a caballo». ¿Preparados para la invasión de imágenes falsas indetectables?

Avanza imparable el desarrollo de las inteligencias artificiales capaces de crear imágenes alucinantes, bellísimas, hiperrealistas, o con el estilo que uno quiera, solo con darle una instrucción verbal, una frase.

¿Qué imagen pueden crear? Cualquiera, absolutamente cualquiera. Un mapache vestido de reina de Inglaterra, ¿por qué no? Las siguientes son las últimas, presentadas por Image, de Google Brain.

Imágenes realizadas por la IA Imagen, de Google Brain

Google Brain acaba de presentar Imagen, su IA con una capacidad brutal para general imágenes a partir de un texto.

Con Imagen, Google entra en la competición del suculento mercado que se avecina, el de la generación de imágenes con solo una instrucción escrita o verbal.

Los pioneros en este territorio han sido Open AI, la rama dedicada a la inteligencia artificial del omnipresente Elon Musk, el mismo de Tesla y SpaceX y ahora dueño de Twitter.

Además, al equipo de Open AI se unió Microsoft. El gigante tecnológico que fundó Bill Gates ha desarrollado para Open AI un superordenador para investigar el aprendizaje automático básico de la Inteligencia Artificial. China también está en la partida, como no podría ser de otro modo, con Baidu (el Google chino) y su desarrollo ERNIE-ViLG.

Así que las ingenuas fotos de astronautas a caballo, o gatitos con sombrero generadas por una IA que nos llegan a los usuarios y que van a llegar cada vez con más frecuencia, tienen detrás a los inquietantes reyes del planeta virtual en el que ya nos movemos todos, y la que se avecina tiene enormes riesgos.

El nuevo y deslumbrante juguete para redes sociales

A día de hoy, para los usuarios, parece un sueño. Se trata de generar la imagen que uno quiera con escribir una frase. Es decir, el programa ha aprendido que, si escribes “Golden retriever con sombrero azul”, te devuelve casi al instante una foto con el estilo que quieras, única y exclusiva, de un terrier con gorrito azul. También puede darte distintas versiones de una misma imagen. Seguro que jugaremos a buscar la mejor versión de nosotros mismos, o… la peor del vecino.

Imagen realizada por la inteligencia artificial DALL-E2 de OpenAI

Además, puede retocar la foto, añadir o quitar objetos, cambiar luces y sombras (que se echen a temblar los profesionales de la edición de imagen), incluso darle a la foto un estilo; por ejemplo, que tenga el estilo de Rembrandt, por qué no.

Cuando OpenAI reveló su red neuronal de creación de imágenes DALL-E a principios de 2021, la capacidad similar a la humana del programa para combinar diferentes conceptos de nuevas maneras fue sorprendente; ya puede producir notables imágenes de alta resolución de casi cualquier cosa que se le pida.

Ahora, Google Brain ha revelado su propia IA para la creación de imágenes y el rendimiento de Imagen es incluso mejor que el de DALL-E 2: obtiene una puntuación más alta en una medida estándar para calificar la calidad de las imágenes generadas por ordenador, y las imágenes que produjo fueron las preferidas por un grupo de jueces humanos.

Pero al igual que OpenAI hizo con DALL-E, Google apuesta por la ternura. Ambas empresas promocionan sus herramientas con una serie de imágenes llenas de animales antropomórficos haciendo cosas adorables: un panda peludo vestido de cocinero haciendo masa, un oso de peluche nadando los 400 metros mariposa en los Juegos Olímpicos… y así sucesivamente. Pero ¿es esto lo que harán los usuarios?

Tanto Imagen como OpenAI de momento no han abierto sus plataformas al público.

La previsión de los riesgos no evita que ocurran

Tanto Imagen como OpenAI incluyen en sus plataformas toda la información referente a los riesgos que quieren evitar. Por ejemplo, el uso de imágenes reales (como la que puede uno tener en su perfil de Twitter) para insultos, chistes soeces, vejaciones, humillaciones… La lista parece un etiquetado de una serie de Netflix, pero podría ser interminable.

Con enorme facilidad, contando con esa foto, un usuario de la nueva IA creadora de imágenes puede proponer: “Ponle un pene en la frente”. Y esto quedándonos cortos. “Se pide a los usuarios que respeten los derechos de los demás y, en particular, se les pide que no carguen imágenes de personas sin su consentimiento (incluidas figuras públicas), o imágenes sobre las que no tengan los derechos de uso apropiados”, explican en OpenAI.

Además, ambas plataformas exigen advertir en cualquier publicación que se trata de una imagen creada por una inteligencia artificial, y acreditar su origen, pero no hace falta contar lo sencillo que es no cumplir esta norma.

Entre tanto, el desarrollo tecnológico que lo permite, las redes neuronales aplicadas a la IA, solo acaban de dar los primeros pasos de su capacidad. Abramos la mente al porvenir, porque viene cargadito de sorpresas.

Baltasar Pérez

Noticias recientes

Dar clase en la naturaleza ayuda a niños con problemas de salud mental

Pasar dos horas semanales en un entorno natural puede reducir el malestar emocional en niños…

9 horas hace

Las botellas «Sin BPA» tampoco son seguras

El bisfenol A (BPA) es un disruptor endocrino que está desapareciendo poco a poco de…

9 horas hace

Un delfín del Mar Báltico habla solo y los investigadores creen que busca amigos

Un delfín solitario del Mar Báltico ha sido grabado hablando solo, lo que lleva a…

10 horas hace

Los animales empezaron a usar los colores hace 100 millones de años

Un nuevo estudio traza una espectacular explosión de 100 millones de años en las señales…

10 horas hace

Cuando el Mar Mediterráneo se secó hace 5,5 millones de años

Durante la llamada Crisis de Salinidad del Messiniense, el nivel del mar Mediterráneo era alrededor…

1 día hace

No, las personas pelirrojas no se están extinguiendo

Ya sea rojizo, cobrizo o anaranjado, el cabello rojo seguirá formando parte de nuestra diversidad…

1 día hace