Noti2
Fecha
Fuente
UC3M

Investigan las características de los "deepfakes" generados por la inteligencia artificial

La proliferación de "deepfakes" o el uso frecuente de imágenes, vídeos o audios manipulados con herramientas de IA es un tema de candente actualidad

La mayoría de los deepfakes (vídeos con recreaciones hiperrealistas falsas) generados por inteligencia artificial (IA) que se propagan por redes sociales están protagonizados por representantes políticos y artistas y suelen estar vinculados a los ciclos de la actualidad informativa. Esta es una de las conclusiones de una investigación de la Universidad Carlos III de Madrid (UC3M) que analiza las características formales y de contenido de las desinformaciones virales en España surgidas por el uso de herramientas de IA con fines ilícitos. Este avance representa un paso hacia la comprensión y mitigación de las amenazas que generan los bulos en nuestra sociedad.

En el estudio, publicado recientemente en la revista OberCom, el equipo investigador ha estudiado estos contenidos falsos a través de las verificaciones de organizaciones españolas de fact-checking, como EFE Verifica, Maldita, Newtral y Verifica RTVE. “El objetivo era determinar una serie de patrones y características comunes en estos deepfakes virales, dar algunas claves para su identificación y hacer algunas propuestas de alfabetización mediática para que la ciudadanía pueda hacer frente a la desinformación”, explica una de las autoras, Raquel Ruiz Incertis, investigadora del Dpto. de Comunicación de la UC3M, donde realiza un doctorado en comunicación europea. 

Los investigadores han desarrollado una tipología de deepfakes, lo cual facilita su identificación y neutralización. Según los resultados del estudio, algunos líderes políticos (como Trump o Macron) eran los principales protagonistas de los contenidos que hacen referencia a consumo de drogas o actividades moralmente reprobables. Existe, además, una proporción considerable de deepfakes de carácter pornográfico que perjudican la integridad de las mujeres, y exponen especialmente a cantantes y actrices famosas. Generalmente son compartidos desde cuentas no oficiales y se difunden rápidamente por servicios de mensajería instantánea, apuntan los investigadores. 

La proliferación de deepfakes o el uso frecuente de imágenes, vídeos o audios manipulados con herramientas de IA es un tema de candente actualidad.  “Este tipo de bulos prefabricados es especialmente dañino en situaciones delicadas, como en períodos previos a procesos electorales o en tiempos de conflicto como el de Ucrania o Gaza que estamos viviendo. Es lo que llamamos 'guerras híbridas': la guerra no se libra solo en el campo físico, sino también en el plano digital, y las falsedades tienen mayor calado que nunca”, indica Ruiz Incertis.

Las aplicaciones de estas investigaciones son diversas, desde la seguridad nacional hasta la integridad de las campañas electorales. Los hallazgos sugieren que el empleo proactivo de la IA en plataformas de redes sociales podría revolucionar la manera en que mantenemos la autenticidad de la información en la era digital.

La investigación subraya la necesidad de una mayor alfabetización mediática y propone estrategias educativas para mejorar la capacidad pública de discernir entre contenido real y manipulado. “Muchos de estos deepfakes pueden identificarse a través de la búsqueda inversa de imágenes en buscadores como Google o Bing. Existen herramientas para que la ciudadanía pueda comprobar la veracidad del contenido en un par de clicks antes de difundir contenido de dudosa procedencia. La clave es enseñarles cómo hacerlo”, señala Raquel Ruiz Incertis. Además, proporciona otros consejos para detectar deepfakes, como fijarse en la nitidez de los bordes de los elementos y en la definición del fondo de la imagen: si los movimientos están ralentizados en los vídeos o si existe algún tipo de alteración facial, desproporción corporal o juego extraño de luces y sombras, todo apunta que pueda ser un contenido generado por IA.

Además, los autores del estudio también consideran necesaria una legislación que obligue a las plataformas, aplicaciones y programas (como Midjourney o Dall-e) a establecer una "marca de agua" que los identifique y permita al usuario saber de un simple vistazo que esa imagen o vídeo ha sido modificado o creado íntegramente con IA.

El equipo investigador ha utilizado un enfoque multidisciplinar, combinando ciencia de datos y análisis cualitativo, para examinar cómo las organizaciones de verificación de hechos aplican la IA en su operativa. La metodología principal es un análisis de contenido de una treintena de  publicaciones tomadas de las webs de los ya mencionados fact-checkers donde se desmienten estos contenidos manipulados o fabricados con IA. 


Referencia bibliográfica: Garriga, M., Ruiz-Incertis , R., & Magallón-Rosa, R. (2024). Artificial intelligence, disinformation and media literacy proposals around deepfakes. Observatorio (OBS*), 18(5). https://doi.org/10.15847/obsOBS18520242445


 

The content of this field is kept private and will not be shown publicly.
Para el envío de comentarios, Ud. deberá rellenar todos los campos solicitados. Así mismo, le informamos que su nombre aparecerá publicado junto con su comentario, por lo que en caso que no quiera que se publique, le sugerimos introduzca un alias.

Normas de uso:

  • Las opiniones vertidas serán responsabilidad de su autor y en ningún caso de www.madrimasd.org,
  • No se admitirán comentarios contrarios a las leyes españolas o buen uso.
  • El administrador podrá eliminar comentarios no apropiados, intentando respetar siempre el derecho a la libertad de expresión.
CAPTCHA
Enter the characters shown in the image.
Esta pregunta es para probar si usted es un visitante humano o no y para evitar envíos automáticos de spam.