Vídeos de médicos televisivos de confianza en el Reino Unido se han falsificado con «deepfakes» para promover estafas sanitarias en las redes sociales

Desde hace muchos años, en todos los países del mundo, hay profesionales de la medicina que se hacen famosos por sus apariciones en televisión como comunicadores de ciencia y salud. Pero ahora, con el uso de la inteligenia artificial Algunos de los médicos más conocidos de la televisión británica son cada vez más «falsificados» en vídeos para vender productos fraudulentos en las redes sociales, según publica hoy el BMJ.

Nombres de confianza como Hilary Jones, Michael Mosley y Rangan Chatterjee se están utilizando para promocionar productos que dicen curar la hipertensión y la diabetes, y para vender gominolas de CBD, explica el periodista Chris Stokel-Walker.

Los «deepfakes» se refieren al uso de la inteligencia artificial (IA) para mapear el parecido digital de un ser humano real en un vídeo de un cuerpo que no es el suyo. Es difícil encontrar pruebas fiables de hasta qué grado estos vídeos son convincentes, pero un estudio reciente sugiere que hasta la mitad de las personas a las que se muestran deepfakes hablando de temas científicos no pueden distinguirlos de los vídeos auténticos.

John Cormack, médico jubilado residente en Essex, colaboró con The BMJ para intentar hacerse una idea de la magnitud de los llamados deepfakes en las redes sociales.

«La conclusión es que es mucho más barato gastar dinero en hacer vídeos que en investigar, idear nuevos productos y lanzarlos al mercado de la forma convencional», afirma.

Clonar la cara y la voz

Según Henry Ajder, experto en tecnología deepfake, la proliferación de contenidos cuestionables en las redes sociales que imitan a médicos y famosos populares es una consecuencia inevitable de la revolución de la inteligencia artificial que estamos viviendo. «La rápida democratización de herramientas de IA accesibles para la clonación de voz y la generación de avatares ha transformado el panorama del fraude y la suplantación de identidad».

«Ha habido un aumento significativo de este tipo de actividad», dice Jones, que emplea a un especialista en redes sociales para rastrear la web en busca de vídeos deepfake que tergiversen sus puntos de vista e intenta retirarlos. «Incluso si lo haces, al día siguiente aparecen con otro nombre».

Un portavoz de Meta, la empresa propietaria de Facebook e Instagram, donde se alojaban muchos de los vídeos encontrados por Cormack, declaró a The BMJ: «Investigaremos los ejemplos señalados por el British Medical Journal. No permitimos contenidos que engañen intencionadamente o traten de estafar a otros, y trabajamos constantemente para mejorar la detección y el cumplimiento de la ley. Animamos a cualquiera que vea contenidos que puedan infringir nuestras políticas a que los denuncie para que podamos investigar y tomar medidas.»

Según Stokel-Walker, los «deepfakes» se aprovechan de las emociones de las personas, y cuando se trata de productos médicos, esa conexión emocional con la persona que te habla del medicamento milagroso o del magnífico producto médico es aún más importante.

Alguien que no conoces y que intenta venderte las virtudes de un tratamiento concreto puede levantar sospechas. Pero si se trata de alguien a quien has visto antes en las redes sociales, la televisión o la radio, es más probable que creas lo que dice.

Detectar los deepfakes también puede ser complicado, dice Ajder, ya que la tecnología ha mejorado. «Es difícil cuantificar la eficacia de esta nueva forma de fraude por deepfake, pero el creciente volumen de vídeos que circulan sugiere que los malos actores están teniendo cierto éxito».

Aquellos cuyos parecidos están siendo cooptados, aparentemente tienen muy poco que hacer al respecto, pero Stokel-Walker ofrece algunos consejos sobre qué hacer si encuentras un deepfake. Por ejemplo, examina detenidamente el contenido para asegurarte de que tus sospechas son fundadas y deja un comentario cuestionando su veracidad. Utiliza las herramientas de denuncia de la plataforma para expresar tus dudas y, por último, denuncia a la persona o cuenta que compartió la publicación.

REFERENCIA