Un experimento realizado en las redes sociales demuestra que es posible que millones de usuarios reconozcan la desinformación y la eviten por sí mismos
Las plataformas de las redes sociales han intentado combatir o desmentir las afirmaciones falsas. Sin embargo, la desinformación continúa causando más daño que nunca, pues influye en todo, desde las elecciones y la salud pública hasta el trato que se da a los inmigrantes y refugiados. En colaboración con Jigsaw, la unidad de Google dedicada a abordar las amenazas para las sociedades abiertas, un equipo de investigadores de las universidades de Cambridge y Bristol (Reino Unido) presentaron una solución accesible a la que llaman «prebunking» en la revista «Science Advances». El «prebunking» es una forma sencilla de inocular a las personas contra la desinformación enseñándoles algunas habilidades de pensamiento crítico básicas. Este método se basa en la teoría de la inoculación, que explica que nuestras actitudes o creencias pueden protegerse de la persuasión o influencia del mismo modo que nuestros cuerpos pueden protegerse de las enfermedades.
Resistencia ante la persuasión no deseada en línea
Para demostrar que tan solo una visualización de un vídeo impulsa la toma de conciencia sobre la desinformación, los investigadores llevaron a cabo un estudio con alrededor de treinta mil participantes en YouTube. Crearon y subieron una serie de vídeos animados breves en espacios publicitarios que analizaban distintas comunicaciones manipuladoras destinadas a difundir desinformación.
Los resultados mostraron que el «prebunking» era eficaz. Independientemente de factores como el nivel educativo y los rasgos de personalidad, ver vídeos cortos de inoculación mejoró la capacidad de los participantes de identificar los métodos de manipulación utilizados con frecuencia en la desinformación en línea. Distinguieron mucho mejor que antes la información falsa. «Nuestra investigación proporciona la prueba de concepto necesaria de que el principio de inoculación psicológica puede escalarse fácilmente entre cientos de millones de usuarios de todo el mundo», comentó el catedrático Sander van der Linden, coautor y director del laboratorio de toma de decisiones sociales de Cambridge que lideró el estudio, en un artículo de prensa de la misma universidad. «La desinformación perjudicial adopta muchas formas, pero las tácticas y narrativas manipuladoras a menudo se repiten y, por tanto, pueden predecirse», explicó Beth Goldberg, coautora y directora de investigación y desarrollo de la unidad Jigsaw de Google. «Enseñar a la gente técnicas como los ataques “ad hominem” que buscan manipularla contribuye a crear resiliencia a creer y difundir información errónea en el futuro. Hemos demostrado que los anuncios de vídeo pueden utilizarse como método para transmitir mensajes de “prebunking” con el fin de llegar a millones de personas, potencialmente antes de que arraiguen narrativas perjudiciales». «La propaganda, las mentiras y las interpretaciones erróneas casi siempre se crean siguiendo el mismo manual», añadió el catedrático y coautor Stephan Lewandowsky, de la Universidad de Bristol. «Los verificadores de hechos tan solo pueden refutar una fracción de las falsedades que circulan por la red. Tenemos que enseñar a la gente a reconocer el manual de desinformación para que pueda saber cuándo está siendo engañada».
Escépticos en todas partes
Google ya está aprovechando los hallazgos. Jigsaw llevará a cabo una campaña de «prebunking» en Chequia, Polonia y Eslovaquia para combatir la desinformación relativa a los refugiados ucranianos. Con todo, hay mucho escepticismo por ahí y la gente no confía demasiado en las empresas tecnológicas. «Sin embargo, al fin y al cabo, tenemos que afrontar la realidad, en el sentido de que las empresas de redes sociales controlan gran parte del flujo de información en línea. Por eso, para proteger a la gente, hemos ideado soluciones independientes y basadas en pruebas que las empresas de redes sociales pueden aplicar realmente en sus plataformas», declaró van der Linden a la «BBC». «En mi opinión, dejar a las empresas de redes sociales a su suerte no va a generar el tipo de soluciones que empoderen a las personas para discernir la desinformación que se difunde en sus plataformas».