La revista The BMJ ha descubierto que algunos de los médicos televisivos más conocidos del Reino Unido están siendo cada vez más “manipulados por deepfakes” en vídeos para vender productos fraudulentos en las redes sociales.
Nombres de confianza como Hilary Jones, Michael Mosley y Rangan Chatterjee están siendo utilizados para promocionar productos que afirman poder solucionar la presión arterial alta y la diabetes, y para vender gomitas de cáñamo, explica el periodista Chris Stokel-Walker.
El deepfake es el uso de la inteligencia artificial (IA) para superponer una imagen digital de un ser humano real sobre el vídeo de un cuerpo que no es el suyo. Las pruebas fiables sobre su verosimilitud son difíciles de obtener, pero un estudio reciente sugiere que hasta la mitad de las personas que vieron deepfakes hablando sobre temas científicos no pudieron distinguirlos de los vídeos auténticos.
John Cormack, un médico jubilado que reside en Essex, trabajó con The BMJ para intentar captar una idea de la magnitud de los llamados médicos con deepfake en las redes sociales.
“En última instancia, es mucho más barato gastar dinero en hacer vídeos que invertir en investigación, crear nuevos productos y sacarlos al mercado de manera convencional”, afirma.
La avalancha de contenido cuestionable en las redes sociales que se apropia de las imágenes de los médicos y celebridades populares es una consecuencia inevitable de la revolución de la IA que estamos viviendo actualmente, dice Henry Ajder, experto en tecnología deepfake. “La rápida democratización de las herramientas de IA accesibles para la clonación de voz y la generación de avatares ha transformado el panorama del fraude y la suplantación de identidad”.
“Este tipo de actividad ha aumentado considerablemente”, dice Jones, quien emplea a un especialista en redes sociales para que rastree la web en busca de vídeos con deepfakes que tergiversen sus opiniones e intente eliminarlos. “Incluso si lo haces, aparecen al día siguiente con otro nombre”.
Un portavoz de Meta, la empresa propietaria de Facebook e Instagram, donde se alojaron muchos de los vídeos encontrados por Cormack, declaró a The BMJ: “Investigaremos los ejemplos que ha resaltado el British Medical Journal. No permitimos contenido que pretenda engañar o defraudar a otros de forma intencionada, y estamos trabajando constantemente para mejorar la detección y la aplicación. Animamos a cualquier persona que vea contenido que pueda violar nuestras políticas a que lo denuncie para que podamos investigar y tomar medidas”.
Los deepfakes funcionan aprovechando las emociones de las personas, escribe Stokel-Walker, y cuando se trata de productos médicos, esa conexión emocional con la persona que te habla del medicamento milagroso o del magnífico producto médico es aún más importante.
Si una persona que no conoces intenta convencerte de las virtudes de un determinado tratamiento, puede que te dé sospechas. Pero si es alguien que has visto antes en las redes sociales, la televisión o la radio, es más probable que te creas lo que dice.
Detectar los deepfakes también puede ser complicado, dice Ajder, ya que la tecnología ha mejorado. “Es difícil cuantificar la eficacia de este nuevo tipo de fraude con deepfakes, pero el creciente volumen de vídeos que circulan ahora sugiere que los autores de estos delitos están teniendo cierto éxito”.
Para aquellos cuyas imágenes están siendo apropiadas, parece que no pueden hacer mucho al respecto, pero Stokel-Walker ofrece algunos consejos sobre qué hacer si encuentras un deepfake. Por ejemplo, observa detenidamente el contenido para asegurarte de que tus sospechas están bien fundadas y luego deja un comentario cuestionando su veracidad. Utiliza las herramientas de notificación integradas en la plataforma para expresar tus preocupaciones y, por último, denuncia a la persona o a la cuenta que compartió la publicación.
[Fin]
Revista
The BMJ
Método de investigación
Estudio observacional
Sujeto de investigación
Personas
Título del artículo
Deepfakes y médicos: Cómo la gente está siendo engañada por estafas en las redes sociales
Fecha de publicación del artículo
17-Jul-2024
Declaración de COI
Ninguna declarada