Noti2
Fecha
Fuente
UPM

Descubren cómo detectar de manera automática contenidos orientados a radicalizar

Investigadores de la Universidad Politécnica de Madrid (UPM) desarrollan un sistema de aprendizaje automático para la detección de contenido radical en las redes sociales y la prensa que es capaz de entender las emociones y los valores morales

Actualmente los modelos de inteligencia artificial son capaces de generar e interpretar contenido a gran escala. Sin embargo, emplear este tipo de modelos para detectar de manera automática contenido dañino para los usuarios o la sociedad es un reto que todavía no se ha resuelto. Este es el objetivo de varios investigadores del Grupo de Sistemas Inteligentes (GSI) de la Universidad Politécnica de Madrid (UPM).

Como parte del proyecto de investigación Participation, en el que colaboran distintas instituciones de varios países europeos como la Universidad de Roma Tre, la Universidad de Middlesex y la policía polaca, se han desarrollado varios modelos de inteligencia artificial con el objetivo de detectar, de manera automática, contenido radical que pueda resultar dañino para la sociedad. Este tipo de contenido es, normalmente, propaganda dirigida a países de occidente que busca radicalizar a ciudadanos susceptibles. Detectar y detener el flujo de propaganda hacia Europa es una de las prioridades de la Comisión Europea, y a la que se dedican grandes recursos económicos y tecnológicos. El proyecto Participation, dotado con casi 3 millones de euros, trabaja directamente con la detección de contenido propagandístico, analizando el lenguaje y las narrativas empleadas, así como un sistema de detección y monitorización completamente automático.

La investigación realizada en este proyecto trata de modelar la utilización de emociones y valores morales para despertar sentimientos de radicalización en los lectores. De esta manera, los modelos de inteligencia artificial son capaces de comprender las emociones y valores morales expresados y, a partir de esa información, detectar si este contenido está orientado a radicalizar a los lectores. Esto se consigue empleando técnicas de Procesamiento de Lenguaje Natural y Aprendizaje Automático, dos subcampos de la Inteligencia Artificial.

“El uso de este tipo de sistemas se está revelando crucial a la hora de controlar el contenido dañino, cada vez más común en redes sociales y otros foros”, destaca Óscar Araque, profesor de la de la Escuela Técnica Superior de Ingenieros de Telecomunicación (ETSIT) de la UPM. “Esto es una necesidad acuciante, que la Unión Europea considera una prioridad de cara a la futura sociedad digital.”

El Grupo de Sistemas Inteligentes, como parte de su intensa actividad investigadora, trabaja en multitud de proyectos en los que se desarrollan sistemas basados en inteligencia artificial, en colaboración con miembros nacionales e internacionales. Un ejemplo de ello es la financiación recibida por el proyecto AMOR, cuyo objetivo es desarrollar sistemas de asistencia al ciudadano para el consumo de contenido de una manera responsable e informada. Para ello, se van a emplear robots inteligentes y un sistema de hologramas, que permitirá acceder a la información de una manera novedosa y moderna.


Referencia bibliográfica: A. D. Real and O. Araque, "Contextualization of a Radical Language Detection System Through Moral Values and Emotions," in IEEE Access, vol. 11, pp. 119634-119646, 2023, doi: 10.1109/ACCESS.2023.3326429

The content of this field is kept private and will not be shown publicly.
Para el envío de comentarios, Ud. deberá rellenar todos los campos solicitados. Así mismo, le informamos que su nombre aparecerá publicado junto con su comentario, por lo que en caso que no quiera que se publique, le sugerimos introduzca un alias.

Normas de uso:

  • Las opiniones vertidas serán responsabilidad de su autor y en ningún caso de www.madrimasd.org,
  • No se admitirán comentarios contrarios a las leyes españolas o buen uso.
  • El administrador podrá eliminar comentarios no apropiados, intentando respetar siempre el derecho a la libertad de expresión.
CAPTCHA
Enter the characters shown in the image.
Esta pregunta es para probar si usted es un visitante humano o no y para evitar envíos automáticos de spam.