No está claro cuáles son las motivaciones de OpenAI. No es el primer gigante tecnológico que adopta contratos militares que alguna vez había prometido no celebrar nunca, pero la velocidad del giro fue notable. Quizás se trate sólo de dinero; OpenAI está gastando mucho en capacitación en IA y está buscando más ingresos (de fuentes que incluyen anuncios). O tal vez Altman realmente cree en el marco ideológico que a menudo invoca: que las democracias liberales (y sus ejércitos) deben tener acceso a la IA más poderosa para competir con China.
La pregunta más importante es qué sucederá después. OpenAI ha decidido que se siente cómodo operando justo en el confuso corazón del combate, justo cuando Estados Unidos intensifica sus ataques contra Irán (y la IA desempeña un papel más importante que nunca en eso). Entonces, ¿dónde exactamente podría aparecer la tecnología de OpenAI en esta lucha? ¿Y qué aplicaciones tolerarán sus clientes (y empleados)?
Objetivos y huelgas
Aunque su acuerdo con el Pentágono está vigente, no está claro cuándo estará lista la tecnología de OpenAI para entornos clasificados, ya que debe integrarse con otras herramientas que utiliza el ejército (se espera que xAI de Elon Musk, que recientemente llegó a su propio acuerdo con el Pentágono, pase por el mismo proceso con su modelo de IA Grok). Pero hay presión para hacer esto rápidamente debido a la controversia en torno a la tecnología en uso hasta la fecha: después de que Anthropic se negó a permitir que su IA fuera utilizada para “cualquier uso legal”, el presidente Trump ordenó al ejército que dejara de usarla, y el Pentágono designó a Anthropic como un riesgo para la cadena de suministro. (Anthropic está luchando contra la designación en los tribunales).
Si el conflicto con Irán todavía está en marcha cuando la tecnología de OpenAI esté en el sistema, ¿para qué podría usarse? Una conversación reciente que tuve con un funcionario de defensa sugiere que podría verse así: un analista humano podría incluir una lista de objetivos potenciales en el modelo de IA y pedirle que analice la información y priorice cuál atacar primero. El modelo podría tener en cuenta información logística, como dónde se encuentran determinados aviones o suministros. Podría analizar muchas entradas diferentes en forma de texto, imagen y vídeo.
Luego, un humano sería responsable de verificar manualmente estos resultados, dijo el funcionario. Pero eso plantea una pregunta obvia: si una persona realmente está verificando dos veces los resultados de la IA, ¿cómo está acelerando las decisiones de selección de objetivos y ataques?
Durante años, el ejército ha estado utilizando otro sistema de inteligencia artificial, llamado Maven, que puede manejar cosas como analizar automáticamente imágenes de drones para identificar posibles objetivos. Es probable que los modelos de OpenAI, como Claude de Anthropic, ofrezcan una interfaz conversacional además de eso, permitiendo a los usuarios solicitar interpretaciones de la inteligencia y recomendaciones sobre qué objetivos atacar primero.
Es difícil exagerar lo nuevo que es esto: la IA lleva mucho tiempo realizando análisis para el ejército, extrayendo conocimientos de océanos de datos. Pero el uso de los consejos de la IA generativa sobre qué acciones tomar en el campo se está probando en serio por primera vez en Irán.
Defensa con drones
A finales de 2024, OpenAI anunció una asociación con Anduril, que fabrica drones y tecnologías contra drones para el ejército. El acuerdo decía que OpenAI trabajaría con Anduril para realizar análisis urgentes de los drones que atacan a las fuerzas estadounidenses y ayudar a derribarlos. Un portavoz de OpenAI me dijo en ese momento que esto no violaba las políticas de la compañía, que prohibían «sistemas diseñados para dañar a otros», porque la tecnología se estaba utilizando para apuntar a drones y no a personas.

