Este descubrimiento plantea temores sobre el uso de inteligencia artificial por personas sin escrúpulos para engañar a la comunidad científica con investigaciones falsas
Una investigación revela que los sistemas de inteligencia artificial especializados en tareas lingüísticas como ChatGPT (Chat Generative Pre-trained Transformer) pueden generar artículos académicos fraudulentos que parecen reflejar investigaciones auténticas cuando en realidad se trata de embustes. Este descubrimiento plantea temores sobre el uso de inteligencia artificial por personas sin escrúpulos para engañar a la comunidad científica con investigaciones falsas.
El equipo de Martin Májovský, de la Universidad Charles (Universidad Carolina) en Praga, República Checa, se propuso investigar las capacidades que los actuales sistemas de inteligencia artificial especializados en el lenguaje humano tienen para crear artículos académicos exponiendo como reales y con todo detalle investigaciones médicas que nunca se han llevado a cabo. El equipo utilizó el popular chatbot de inteligencia artificial ChatGPT (GPT-3) desarrollado por OpenAI, para generar un artículo académico exponiendo como auténticos todos los detalles de una investigación del campo de la neurocirugía que jamás se hizo. A medida que ChatGPT generaba respuestas, se iban perfeccionando las preguntas así como las nuevas respuestas, lo que permitía mejorar paso a paso la calidad del resultado (o sea hacer cada vez más creíble la mentira).
Los resultados de este estudio han sido inquietantes: el sistema de inteligencia artificial produjo con éxito un artículo académico fraudulento que podía pasar por auténtico en cuanto al uso de las palabras, la estructura de las frases y la composición general. El artículo incluía secciones estándar como un resumen, introducción, métodos empleados en la investigación, resultados y discusión, así como tablas y otros datos. Sorprendentemente, todo el proceso de creación del artículo duro solo una hora, y el usuario humano ni siquiera necesitó una formación especial.
A medida que la inteligencia artificial sigue avanzando, resulta crucial para la comunidad científica no solo verificar la exactitud de los contenidos generados por estas herramientas sino también implantar mecanismos para detectar y prevenir el fraude deliberado.
El estudio se ha publicado en la revista académica Journal of Medical Internet Research.
Referencia bibliográfica: Májovský M, Černý M, Kasal M, Komarc M, Netuka D Artificial Intelligence Can Generate Fraudulent but Authentic-Looking Scientific Medical Articles: Pandora’s Box Has Been Opened J Med Internet Res 2023;25:e46924. DOI: 10.2196/46924.
Fotografía de portada: Ilustración generada por otra inteligencia artificial, siguiendo las instrucciones de un humano que pidió que la imagen mostrase un médico junto a la caja de Pandora abierta y que pareciese pintada al óleo por el célebre pintor Henri Matisse. (Imagen generada por: DALL-E2 / OpenAI, el 9 de marzo de 2023. Persona que dio las instrucciones: Martin Májovský).