El Pentágono reduce el equipo que prueba la IA militar

CIENCIAS DE LA COMPUTACIÓN / INTELIGENCIA ARTIFICIAL. Tiempo de lectura: 6 minutos.-

El enfoque de motosierra de la administración Trump hacia el gasto federal sigue vivo, incluso cuando Elon Musk se revuelve contra el presidente.

El 28 de mayo, el secretario de Defensa, Pete Hegseth, anunció que eliminaría una oficina clave del Departamento de Defensa responsable de probar y evaluar la seguridad de las armas y los sistemas de inteligencia artificial

Como parte de una serie de medidas destinadas a «reducir la burocracia inflada y el despilfarro en favor de una mayor letalidad», Hegseth redujo a la mitad el tamaño de la Oficina del Director de Pruebas y Evaluación Operativa. El grupo se creó en la década de 1980 -siguiendo órdenes del Congreso- tras las críticas de que el Pentágono estaba lanzando armas y sistemas que no funcionaban con la seguridad o eficacia anunciadas. Hegseth está reduciendo la plantilla de la agencia de 94 a 45 personas, y despidiendo y sustituyendo a su director. Ha dado a la oficina sólo siete días para aplicar los cambios. 

Se trata de una revisión significativa de un departamento que, en 40 años, nunca había estado tan directamente en el punto de mira. A continuación, se explica cómo las empresas de tecnología de defensa actuales, que han fomentado estrechos vínculos con la administración Trump, pueden salir ganando, y por qué las pruebas de seguridad podrían sufrir las consecuencias.  

La Oficina de Pruebas y Evaluación Operativa es «la última puerta antes de que una tecnología llegue al campo de batalla», afirma Missy Cummings, antigua piloto de caza de la Marina estadounidense y ahora profesora de ingeniería e informática en la Universidad George Mason (Virgina, EE UU). Aunque el ejército puede hacer pequeños experimentos con nuevos sistemas sin hacerlo oficialmente, sí tiene que probar cualquier cosa que se aplique a gran escala. 

«De forma bipartidista -hasta ahora- todo el mundo ha visto que contribuye a reducir el despilfarro, el fraude y el abuso», afirma. Ello se debe a que facilita un control independiente de las afirmaciones de empresas y contratistas sobre el funcionamiento de su tecnología. También pretende someter los sistemas a pruebas de seguridad más rigurosas. 

El desmantelamiento se produce en un momento especialmente crucial para la IA y la adopción militar: El Pentágono está experimentando con la introducción de la IA en todos los ámbitos, las principales empresas, como OpenAI, se sienten más cómodas ahora trabajando con el ejército, y gigantes de la defensa como Anduril están consiguiendo grandes contratos para lanzar sistemas de IA (el pasado jueves, Anduril anunció una ronda de financiación de 2.500 millones de dólares, duplicando su valoración hasta superar los 30.000 millones).  

Hegseth afirma que sus recortes «harán más eficientes las pruebas y el despliegue de armas», ahorrando 300 millones de dólares (260 millones de euros). Pero a Cummings le preocupa que estén allanando el camino para una adopción más rápida al tiempo que aumentan las posibilidades de que los nuevos sistemas no sean tan seguros o eficaces como se prometió. «Los despidos en DOTE envían un mensaje claro de que se van a eliminar todos los obstáculos percibidos para las empresas favorecidas por Trump», afirma. 

Anduril y Anthropic, que han lanzado aplicaciones de IA para uso militar, no respondieron a mis preguntas sobre si presionaron o aprueban los recortes. Un representante de OpenAI dijo que la empresa no había participado en acciones de lobby a favor de la reestructuración.  

«Los recortes me ponen nervioso», afirma Mark Cancian, asesor principal del Centro de Estudios Estratégicos e Internacionales que anteriormente trabajó en el Pentágono en colaboración con la oficina de pruebas. «No es que vayamos a pasar de eficaces a ineficaces, pero es posible que no se detecten algunos de los problemas que aflorarían en combate sin esta fase de pruebas». 

Es difícil decir con precisión cómo afectarán los recortes a la capacidad de la oficina para probar sistemas, y Cancian admite que los responsables de sacar las nuevas tecnologías al campo de batalla a veces se quejan de que esto puede ralentizar mucho la adopción. Aun así, dice, la oficina descubre con frecuencia errores que antes no se detectaban. 

Según Cancian, se trata de un paso especialmente importante cuando el ejército adopta un nuevo tipo de tecnología como la IA generativa. Los sistemas que pueden funcionar bien en un laboratorio casi siempre se enfrentan a nuevos retos en escenarios más realistas, y el grupo de Pruebas y Evaluación Operativa es donde tiene lugar el momento de la verdad. 

¿Qué pensar de todo esto? Es cierto que el ejército ya experimentaba con la inteligencia artificial mucho antes del auge actual de la IA, sobre todo con la visión por ordenador para la alimentación de drones, y las empresas tecnológicas de defensa han obtenido grandes contratos por este impulso a lo largo de múltiples administraciones presidenciales. Pero esta era es diferente. El Pentágono está anunciando ambiciosos pilotos específicamente para grandes modelos lingüísticos, una tecnología relativamente incipiente que por su propia naturaleza produce alucinaciones y errores, y parece ansioso por poner la tan cacareada IA en todo. El principal grupo independiente dedicado a evaluar la precisión de estos nuevos y complejos sistemas sólo cuenta ahora con la mitad del personal para hacerlo. No estoy seguro de que eso sea una victoria para nadie. 

Por: James O'donnell.

Sitio Fuente: MIT Technology Review