OpenAI acuerda con el Pentágono límites en el uso militar de su IA

El nuevo acuerdo marca un paso significativo en la regulación del uso militar de la IA

EFE
EFE
por el autor La Veu Lliure
3 minutos de lectura
Publicado el Domingo, 1 Marzo 2026 - 09:47

La empresa tecnológica OpenAI ha anunciado un acuerdo con el Departamento de Defensa de Estados Unidos para establecer límites claros en el uso militar de sus sistemas de inteligencia artificial, incluyendo el acceso a redes clasificadas.

El director ejecutivo de la compañía, Sam Altman, explicó que el Pentágono ha aceptado respetar principios que prohíben la vigilancia masiva dentro del territorio estadounidense y que exigen supervisión humana en las decisiones relacionadas con el uso de la fuerza, especialmente en sistemas de armas autónomas.

Según Altman, estos principios han sido incorporados formalmente al acuerdo. “El Departamento de Guerra está de acuerdo con estos principios, los refleja en sus leyes y políticas, y los hemos añadido a nuestro acuerdo”, afirmó.

Principios éticos para el uso de la IA militar

El acuerdo busca establecer un marco ético común para el uso de la inteligencia artificial en el ámbito militar, evitando que esta tecnología se utilice de forma indiscriminada o para la vigilancia interna de ciudadanos.

Altman también defendió que estos criterios deberían aplicarse a todas las empresas de inteligencia artificial, con el objetivo de garantizar estándares mínimos de responsabilidad y seguridad. Asimismo, expresó su deseo de que las tensiones entre empresas tecnológicas y el Gobierno estadounidense se reduzcan y den paso a acuerdos razonables, en lugar de disputas legales o políticas.

Relación con las negociaciones de Anthropic

El acuerdo llega después de que OpenAI respaldara a la empresa Anthropic en sus negociaciones con el Pentágono para garantizar que sus modelos de inteligencia artificial no se utilicen para vigilar a ciudadanos estadounidenses ni en sistemas de armas autónomas sin control humano, unas salvaguardas que OpenAI considera esenciales.

Las conversaciones entre Anthropic y el Departamento de Defensa fueron tensas y en un primer momento no se logró un acuerdo sobre los límites de uso del modelo Claude, desarrollado por la compañía.

Anthropic ha reiterado que seguirá exigiendo garantías sobre estas restricciones, mientras que el secretario de Defensa, Pete Hegseth, ha criticado a la empresa por su supuesta “arrogancia” y ha advertido sobre la posible cancelación de contratos valorados en 200 millones de dólares.

El presidente de Estados Unidos, Donald Trump, también se ha pronunciado sobre la polémica y ha calificado a Anthropic como una empresa de la “izquierda radical”, ordenando rescindir sus contratos con el Gobierno federal mediante un periodo de transición de seis meses.

El nuevo acuerdo entre OpenAI y el Pentágono marca un paso significativo en la regulación del uso militar de la inteligencia artificial, en un contexto de creciente preocupación internacional sobre el papel de estas tecnologías en la defensa y la seguridad.

 

Añadir nuevo comentario

HTML Restringido

  • Etiquetas HTML permitidas: <a href hreflang> <em> <strong> <cite> <blockquote cite> <code> <ul type> <ol start type> <li> <dl> <dt> <dd> <h2 id> <h3 id> <h4 id> <h5 id> <h6 id>
  • Saltos automáticos de líneas y de párrafos.
  • Las direcciones de correos electrónicos y páginas web se convierten en enlaces automáticamente.

Notícies relacionades