Si bien existen como concepto desde la década de 1950, las tecnologías de IA y aprendizaje automático han despegado hace poco. / geralt (PIXABAY)
Fecha
Fuente
CORDIS Servicio de Información en I+D Comunitario

Inteligencia artificial, ¿bendición o maldición? Llamamiento contra las amenazas a la seguridad

Los expertos en la materia advierten que la inteligencia artificial (IA) podría caer en manos de estados preocupantes, terroristas y delincuentes a no ser que la humanidad prepare una defensa contra posibles usos malintencionados.

Los miedos que despierta la inteligencia de las máquinas se han retratado en la ciencia ficción desde hace decenios en innumerables descripciones del poder de autodestrucción que tienen los humanos. No obstante, la aparición de la IA ha dado paso a discursos enfrentados en la esfera pública que aluden tanto a amenazas como a promesas, en función del punto de vista de cada uno.

Si bien existen como concepto desde la década de 1950, las tecnologías de IA y aprendizaje automático han despegado hace poco. Gracias a un desarrollo rápido, ahora se emplean en múltiples aplicaciones, como el reconocimiento automático del habla, la traducción automática, los buscadores, los asistentes digitales, los drones y los vehículos sin conductor.

El empleo de este tipo de sistemas en aplicaciones revolucionarias en ámbitos como la sanidad, la agricultura, la educación y el transporte se contempla como beneficioso y podría mejorar la vida de la gente y ofrecer cambios positivos para la sociedad. Por ejemplo, la IA ya desempeña una función importante en la obtención, el procesamiento y la interpretación de imágenes médicas. Aun así, cada vez más expertos, entre los que se incluyen el físico Stephen Hawking y el empresario Elon Musk, hacen hincapié en la necesidad de prepararse para (y evitar) los riesgos potenciales que podría generar la IA.

En un informe nuevo titulado The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation, investigadores de varias universidades, grupos de presión y organizaciones sin ánimo de lucro expresaron preocupaciones similares. En él se ponen de manifiesto las posibles amenazas de la IA para la seguridad si cae en malas manos, y acotan tres ámbitos principales, el digital, el físico y el político. En el documento se sugiere que la IA podría capacitar a actores malignos para ejecutar ataques a gran escala de enorme precisión y eficiencia.

Shahar Avin, del Centro para el Estudio del Riesgo Existencial de la Universidad de Cambridge (CSER), informó a la BBC que el informe se dedicaba a ámbitos de la IA disponibles ahora o que podrían materializarse en el próximo lustro, en lugar de estudiar un futuro lejano.

En relación a la IA como una tecnología de "uso doble" con aplicaciones posibles en los ámbitos militar y civil, "con fines beneficiosos y perjudiciales", el informe indica lo siguiente: "Según aumenten la potencia y la popularidad de las capacidades de la IA, se apreciará un mayor uso de los sistemas de IA que den lugar a la ampliación de las amenazas existentes, la introducción de amenazas nuevas y un cambio en la naturaleza típica de las amenazas".

En un comunicado público, el Dr. Seán Ó hÉigeartaigh, director ejecutivo de CSER y uno de los autores del documento, declaró:

"Vivimos en un mundo que podría plagarse de amenazas continuas debidas al uso indebido de la IA y es necesario que abordemos los problemas dado que los riesgos son muy reales. Hay decisiones que debemos tomar ahora, y nuestro informe es un llamamiento a actuar para administraciones, instituciones y particulares de todo el planeta".

Los autores prevén ciberataques novedosos como hackeos automatizados, síntesis de voz para suplantar personas, correos electrónicos basura con objetivos perfectamente definidos que se valgan de información extraída de medios de comunicación sociales y el aprovechamiento de las vulnerabilidades de los propios sistemas de IA, por ejemplo mediante ejemplos contradictorios e intoxicación de datos. En el informe también se señaló la posibilidad de desplegar drones y sistemas ciberfísicos para que realicen actos maliciosos como estrellar vehículos autónomos en masa o armar enjambres de drones para matar a personas concretas en un grupo de gente mediante tecnología de reconocimiento facial. Los vídeos falseados que manipulan a la opinión pública o el empleo de plataformas de vigilancia automática para eliminar discrepancias en estados autoritarios son algunos de los problemas que el informe plantea para la seguridad política.

Si bien el informe alerta de las amenazas inminentes de la IA, no ofrece medidas específicas de prevención contra el mal uso de estas tecnologías. También se menciona la existencia de múltiples desacuerdos entre los propios coautores y otros expertos en este campo. "Realizamos un análisis pero no ofrecemos ninguna respuesta concluyente a cuál será el equilibrio a largo plazo entre los partidarios y los detractores. Nos dedicamos a analizar el tipo de ataques que es probable que veamos recientemente si no se ponen en marcha las defensas necesarias", concluyen los autores.

Add new comment

The content of this field is kept private and will not be shown publicly.
Para el envío de comentarios, Ud. deberá rellenar todos los campos solicitados. Así mismo, le informamos que su nombre aparecerá publicado junto con su comentario, por lo que en caso que no quiera que se publique, le sugerimos introduzca un alias.

Normas de uso:

  • Las opiniones vertidas serán responsabilidad de su autor y en ningún caso de www.madrimasd.org,
  • No se admitirán comentarios contrarios a las leyes españolas o buen uso.
  • El administrador podrá eliminar comentarios no apropiados, intentando respetar siempre el derecho a la libertad de expresión.
CAPTCHA
Enter the characters shown in the image.
Esta pregunta es para probar si usted es un visitante humano o no y para evitar envíos automáticos de spam.