El Pentágono se acerca al lado oscuro de la IA
La retórica del Pentágono y la industria armamentista sugiere que la integración de la inteligencia artificial (IA) en las armas, las comunicaciones y los sistemas de vigilancia de EEUU mejorará la eficiencia, la innovación y la seguridad nacional.
El Pentágono está empezando a respaldar su retórica sobre la tecnología emergente con recursos. La Oficina de Capital Estratégico del departamento ahora tiene la autoridad para otorgar préstamos ejecutivos e invertir en empresas que investigan y desarrollan 14 “tecnologías críticas”, incluidas la hipersónica, la computación cuántica, la microelectrónica, los sistemas autónomos y la inteligencia artificial.
La versión del Senado de la Ley de Autorización de Defensa Nacional autoriza el Piloto de Capacidades Avanzadas de Defensa, que contiene un mandato para establecer asociaciones público-privadas con el objetivo de “aprovechar el capital privado para acelerar el escalamiento, la producción y la fabricación de la defensa nacional”.
Sus defensores argumentan que el rápido desarrollo y despliegue de sistemas autónomos, vehículos sin piloto y armas hipersónicas acortará el tiempo entre el reconocimiento de una amenaza potencial y su destrucción, un proceso al que los analistas y líderes militares a menudo se refieren como acortar la "cadena de muerte".
Este cambio se presenta como un avance positivo, cuando en realidad fácilmente podría permitir escaladas mortales por accidente o intencionalmente.
Un ejemplo de ello es el uso por parte de "Israel" de sistemas de objetivos que incorporan inteligencia artificial para generar objetivos para ataques militares en su brutal asedio a Gaza.
Una investigación reciente reveló el uso de Lavender, un programa basado en inteligencia artificial desarrollado por el ejército israelí diseñado para identificar a todos los agentes sospechosos de las alas militares de Hamas y la Yihad Islámica Palestina como posibles objetivos de bombardeo.
En lugar de utilizar esta capacidad para centrarse en objetivos discretos y salvar a los civiles, las Fuerzas de Defensa de "Israel" están utilizando Lavender para multiplicar el número de objetivos a atacar en un período de tiempo determinado, aumentando el ritmo de ataque y el número de bajas, que ahora ascienden a más de 33 mil muertos y decenas de miles de heridos.
La investigación reveló que el ejército israelí prefería utilizar únicamente misiles no guiados, comúnmente conocidos como bombas “tontas” (en contraste con las bombas “inteligentes” de precisión) para atacar a supuestos militantes marcados con Lavender. Estas bombas pueden destruir indiscriminadamente edificios enteros y causar importantes víctimas.
"No conviene desperdiciar bombas costosas en personas sin importancia; es muy costoso para el país y hay escasez [de esas bombas]", dijo C., uno de los oficiales de inteligencia, hablando con la revista +972, que dio a conocer la historia. en lavanda.
No es la primera vez que el ejército israelí utiliza IA. Se dice que The Gospel, otro sistema basado en gran medida en IA, genera objetivos a un ritmo rápido. Como señaló la revista +972, “Una diferencia fundamental entre los dos sistemas está en la definición del objetivo: mientras que The Gospel marca los edificios y estructuras desde los que el ejército afirma que operan los militantes, Lavender marca a las personas y las coloca en una lista de asesinatos. "
Lejos de permitir ataques más precisos que reduzcan el daño a civiles, los ataques dirigidos por la IA aumentaron la impunidad en los bombardeos de Gaza. Como lo expresó un miembro del ejército israelí destinado en Gaza: "No sé a cuántas personas maté como daño colateral... la atención se centró en crear tantos objetivos lo más rápido posible".
El Congreso de los EEUU ha demostrado su compromiso de impulsar “proyectos de defensa colaborativos entre los EEUU e "Israel" en tecnologías emergentes” a través de proyectos de ley como la Ley del Futuro de la Guerra entre EEUU e Israel , que es sólo una vía a través de la cual EEUU financia y apoya las operaciones militares israelíes.
En febrero, el Senado aprobó 14 mil 100 millones de dólares adicionales para operaciones militares israelíes a través de un paquete de financiación suplementario , pero el destino de ese paquete de ayuda espera la acción de la Cámara.
Algunos miembros del Congreso han contrarrestado los riesgos de las tecnologías emergentes al introducir una legislación para establecer la gobernanza y las regulaciones de la IA. La Ley Federal de Gobernanza y Transparencia de la IA , por ejemplo, tiene como objetivo garantizar que “el diseño, desarrollo, adquisición, uso, gestión y supervisión de la inteligencia artificial en el Gobierno Federal… [sea] consistente con la Constitución y cualquier otra ley aplicable y políticas, incluidas aquellas que abordan la libertad de expresión, la privacidad, los derechos civiles, las libertades civiles y un gobierno abierto y transparente”.
Los accidentes en el uso de sistemas de IA tienen sus propias consecuencias potencialmente nefastas, como señaló Michael Klare en un informe para la Arms Control Association: “muchos analistas han advertido que no se debe proceder con tanta prisa hasta que se sepa más sobre las consecuencias involuntarias y peligrosas de hacerlo. A los analistas les preocupa, por ejemplo, que los sistemas basados en IA puedan fallar de manera impredecible, provocando una matanza humana no intencionada o una escalada incontrolada”.
El Pentágono ha hablado de labios para afuera sobre los peligros potenciales que plantea el uso generalizado de la IA como arma, pero sus llamados a un uso responsable de estos sistemas suenan vacíos frente a sus compromisos públicos de desplegar tecnología avanzada lo más rápido posible.
En agosto pasado, la subsecretaria de Defensa Kathleen Hicks dio a conocer la “Iniciativa Replicante” de su departamento frente a una audiencia de empresas productoras de armas, prometiendo desplegar una gran cantidad de nuevos sistemas para fines de 2025, incluyendo “enjambres de drones” diseñados como defensas ante un potencial conflicto entre EEUU y China.
Mientras tanto, firmas de capital de riesgo como Andreesen-Horowitz y Founders Fund están invirtiendo miles de millones de dólares en nuevas empresas emergentes de tecnología militar, con la esperanza de sacar provecho cuando algunas de ellas se conviertan en importantes contratistas del Pentágono. Además, estas empresas se han apresurado a aumentar su influencia en el lobby contratando a docenas de ex oficiales militares como asesores y defensores de un mayor gasto del Pentágono en sistemas impulsados por IA.
Los promotores de estas nuevas tecnologías de campo de batalla las comercializan con fervor evangélico, sugiriendo que no sólo son fundamentales para poder “vencer” a China en un conflicto, sino que son la clave para restaurar el dominio militar global de EEUU.
En un momento en que la cooperación entre Washington y Beijing es esencial para abordar amenazas urgentes como el cambio climático, las pandemias y la pobreza global, alentar una nueva carrera armamentista de alta tecnología con China es peligroso y contraproducente.
¿Qué debe hacerse? Primero, es necesario que haya mayor transparencia sobre los nuevos sistemas de armas en desarrollo, cómo podrían usarse y si la tecnología se comparte con otras naciones. Además, es necesario regular cuidadosamente la puerta giratoria entre el ejército, el Pentágono y el sector tecnológico emergente.
Además, Washington debería considerar los llamados de los científicos y defensores de una prohibición de las armas robóticas y, mientras tanto, aumentar la transparencia, la regulación y la supervisión de estas tecnologías. Todo esto debe ir acompañado de un replanteamiento de la estrategia global de EEUU que reduzca la dependencia de la intervención militar y dé prioridad a la diplomacia en las interacciones de Washington con gobiernos, organizaciones e individuos.
Desarrollar una nueva generación de tecnología militar no resolverá los problemas más apremiantes de nuestro mundo y existe una gran posibilidad de que los empeore. Ahora es el momento de luchar contra las ilusiones promovidas por las personas que se beneficiarán llevando la IA a la guerra.
Al Mayadeen