OpenAI acuerda con el Pentágono límites en el uso militar de su IA
El nuevo acuerdo marca un paso significativo en la regulación del uso militar de la IA
La empresa tecnológica OpenAI ha anunciado un acuerdo con el Departamento de Defensa de Estados Unidos para establecer límites claros en el uso militar de sus sistemas de inteligencia artificial, incluyendo el acceso a redes clasificadas.
El director ejecutivo de la compañía, Sam Altman, explicó que el Pentágono ha aceptado respetar principios que prohíben la vigilancia masiva dentro del territorio estadounidense y que exigen supervisión humana en las decisiones relacionadas con el uso de la fuerza, especialmente en sistemas de armas autónomas.
Según Altman, estos principios han sido incorporados formalmente al acuerdo. “El Departamento de Guerra está de acuerdo con estos principios, los refleja en sus leyes y políticas, y los hemos añadido a nuestro acuerdo”, afirmó.
Principios éticos para el uso de la IA militar
El acuerdo busca establecer un marco ético común para el uso de la inteligencia artificial en el ámbito militar, evitando que esta tecnología se utilice de forma indiscriminada o para la vigilancia interna de ciudadanos.
Tonight, we reached an agreement with the Department of War to deploy our models in their classified network.
In all of our interactions, the DoW displayed a deep respect for safety and a desire to partner to achieve the best possible outcome.
AI safety and wide distribution of…— Sam Altman (@sama) February 28, 2026
Altman también defendió que estos criterios deberían aplicarse a todas las empresas de inteligencia artificial, con el objetivo de garantizar estándares mínimos de responsabilidad y seguridad. Asimismo, expresó su deseo de que las tensiones entre empresas tecnológicas y el Gobierno estadounidense se reduzcan y den paso a acuerdos razonables, en lugar de disputas legales o políticas.
Relación con las negociaciones de Anthropic
El acuerdo llega después de que OpenAI respaldara a la empresa Anthropic en sus negociaciones con el Pentágono para garantizar que sus modelos de inteligencia artificial no se utilicen para vigilar a ciudadanos estadounidenses ni en sistemas de armas autónomas sin control humano, unas salvaguardas que OpenAI considera esenciales.
Las conversaciones entre Anthropic y el Departamento de Defensa fueron tensas y en un primer momento no se logró un acuerdo sobre los límites de uso del modelo Claude, desarrollado por la compañía.
Anthropic ha reiterado que seguirá exigiendo garantías sobre estas restricciones, mientras que el secretario de Defensa, Pete Hegseth, ha criticado a la empresa por su supuesta “arrogancia” y ha advertido sobre la posible cancelación de contratos valorados en 200 millones de dólares.
El presidente de Estados Unidos, Donald Trump, también se ha pronunciado sobre la polémica y ha calificado a Anthropic como una empresa de la “izquierda radical”, ordenando rescindir sus contratos con el Gobierno federal mediante un periodo de transición de seis meses.
El nuevo acuerdo entre OpenAI y el Pentágono marca un paso significativo en la regulación del uso militar de la inteligencia artificial, en un contexto de creciente preocupación internacional sobre el papel de estas tecnologías en la defensa y la seguridad.