El reciente uso de este tipo de tecnología en situaciones bélicas genera temor por sus implicaciones
Varios reportajes publicados a principios de mes en diferentes medios apuntaban a que Israel habría estado utilizando un sistema de inteligencia artificial llamado Lavender para seleccionar objetivos militares. La medida, que supone un paso más en la automatización de la guerra, ha generado controversia por dejar en manos de un algoritmo decisiones extremadamente sensibles y que pueden suponer la vida o la muerte de personas inocentes.
En este artículo en inglés en The Conversation, la investigadora Elke Swartz, de la Universidad de Londres, explica en más detalle en qué consiste esta tecnología y qué problemas acarrea su uso. Llama la atención una frase citada en el artículo: "Debemos elegir nuestras herramientas con cuidado, no porque sean inhumanas (todas las armas lo son), sino porque cuanto más confiamos en ellas, más moldean nuestra visión del mundo".