Noti2
Fecha
Fuente
URJC

¿Es posible detectar imágenes de personas generadas con IA?

Los resultados concluyen que, actualmente, resulta imposible detectar el contenido falso visualizando únicamente la imagen

En un mundo donde la inteligencia artificial (IA) está a la orden del día, existen herramientas capaces de generar contenido verosímil que pueden confundir a los usuarios a la hora de distinguir entre lo verdadero y lo creado con IA. Esto es especialmente relevante en el caso de las herramientas que generan imágenes realistas de personas, lo que da origen al concepto de deepfake. Ante esta situación, el grupo de investigación Ciberimaginario ha llevado a cabo un estudio con el objetivo de comprobar si la información de contexto que acompaña a una imagen condiciona su credibilidad. “La alfabetización mediática se ha vuelto esencial, ya que educa a los usuarios para la identificación de lo real frente a lo falso, además de alertarles de la posibilidad de estar frente a un deepfake. Dado que actualmente es indetectable reconocerlo, la distorsión de la realidad en el mundo informativo se convierte en un problema significativo”, apunta Alberto Sanchez-Acedo, de Ciberimaginario y coautor del estudio, publicado en la revista Communication & Society

Los resultados obtenidos muestran que los participantes, en este caso jóvenes estudiantes de la Comunidad de Madrid, priorizaron la imagen sobre el resto de los elementos de contexto a la hora de reconocer un deepfake. “Esto reafirma la idea de que estamos constantemente expuestos a información visual, siendo la imagen la principal protagonista”, añade el investigador. 

Imágenes reales versus imágenes falsas 

El método empleado para realizar el estudio ha consistido en separar dos grupos de participantes, divididos de manera equitativa en un grupo de control y otro experimental. En ambos grupos, se les expuso a un entorno virtual donde podían ver recreaciones de portadas de periódico que incluían una imagen y su respectiva información de contexto. En el caso del grupo de control, los participantes visualizaron imágenes reales acompañadas de información de contexto también real, mientras que el grupo experimental visualizó imágenes generadas con IA acompañadas también con información de contexto real. 

“A continuación, realizamos un análisis cuantitativo y descriptivo de frecuencias y porcentajes de cada una de las variables analizadas, incluyendo el nivel de estudios y el método de acceso a la información. Además, llevamos a cabo un análisis estadístico porcentual para medir el grado de importancia de la fuente de información, el titular y la imagen en el proceso de reconocimiento”, explica Alberto Sanchez-Acedo. 

Una vez analizados los resultados, los autores del estudio subrayan que, actualmente, resulta imposible detectar un deepfake únicamente visualizando la imagen. “Instamos a nuevos investigadores a replicar este estudio con muestras más amplias y de diferentes grupos poblacionales para comparar los patrones y tendencias que resultan de esta investigación”, concluye el investigador. 

En este trabajo han participado, junto a Alberto Sanchez-Acedo, Alejandro Carbonell Alcocer, Manuel Gertrudix y Jose Luis Rubio-Tamayo, todos profesores de la URJC y miembros del Grupo de investigación Ciberimaginario. Además, la investigación presenta una serie de recomendaciones para la prevención de deepfakes en la era virtual que se puede consultar en este enlace


Referencia bibliográfica: Sanchez-Acedo, A., Carbonell-Alcocer, A., Gertrudix, M., & Rubio-Tamayo, J.-L. (2024). The challenges of media and information literacy in the artificial intelligence ecology: deepfakes misinformation.

https://doi.org/10.15581/003.37.4.223-239

Add new comment

The content of this field is kept private and will not be shown publicly.
Para el envío de comentarios, Ud. deberá rellenar todos los campos solicitados. Así mismo, le informamos que su nombre aparecerá publicado junto con su comentario, por lo que en caso que no quiera que se publique, le sugerimos introduzca un alias.

Normas de uso:

  • Las opiniones vertidas serán responsabilidad de su autor y en ningún caso de www.madrimasd.org,
  • No se admitirán comentarios contrarios a las leyes españolas o buen uso.
  • El administrador podrá eliminar comentarios no apropiados, intentando respetar siempre el derecho a la libertad de expresión.
CAPTCHA
17 + 3 =
Solve this simple math problem and enter the result. E.g. for 1+3, enter 4.
Esta pregunta es para probar si usted es un visitante humano o no y para evitar envíos automáticos de spam.