Opinión

Cuando el Estado quiere una IA sin límites: el caso Anthropic y la pregunta que nadie quiere responder

El enfrentamiento entre Anthropic y el Pentágono no es solo un litigio empresarial. Es la primera prueba de fuego sobre quién decide los límites éticos de la IA más potente del mundo.

Gonzalo
Pentágono, USA

Los hechos, sin adornos

En julio de 2025, el Departamento de Defensa de Estados Unidos firmó con Anthropic un contrato de 200 millones de dólares y convirtió a Claude en el primer modelo de IA frontier autorizado para operar en redes militares clasificadas. Era un voto de confianza sin precedentes hacia una empresa que había construido su reputación sobre la seguridad y la fiabilidad de sus sistemas. Seis meses después, esa misma empresa estaba en los tribunales, acusada por el propio Pentágono de ser un «riesgo para la cadena de suministro» nacional, una designación habitualmente reservada para empresas vinculadas a potencias extranjeras hostiles.

Lo que ocurrió entre ambos momentos no es complicado de resumir. El Pentágono exigió a Anthropic que permitiera el uso de Claude para «cualquier fin lícito», sin restricciones adicionales. Anthropic aceptó casi todo, pero mantuvo dos líneas que dijo no poder cruzar: el uso del modelo en armas letales autónomas sin supervisión humana, y su despliegue para la vigilancia masiva de ciudadanos estadounidenses. NPR El secretario de Defensa Pete Hegseth calificó esas dos condiciones de «IA woke» y dio a la empresa un ultimátum: ceder o ser expulsada de los contratos militares.

Anthropic rechazó las últimas condiciones propuestas por el Pentágono, que según la empresa incluían lenguaje legal que habría permitido ignorar sus salvaguardas «a voluntad». NPR El CEO Dario Amodei publicó una declaración en la que afirmaba que su empresa no podía «en conciencia» ceder, y el Pentágono ejecutó su amenaza. El 5 de marzo de 2026, Anthropic fue designada riesgo de cadena de suministro. Cuatro días después, presentó una demanda federal.

El argumento que importa, más allá del ruido político

Es tentador leer este conflicto como una disputa entre una empresa de Silicon Valley con escrúpulos y una administración Trump dispuesta a usar la IA sin restricciones. Ese encuadre es cómodo pero insuficiente. La pregunta de fondo es más incómoda y no tiene respuesta fácil: ¿quién debe decidir los límites de uso de una tecnología cuando esa tecnología puede matar?

La posición del Pentágono no carece de lógica interna. Si el Estado contrata una herramienta para defensa nacional, ¿puede el proveedor privado de esa herramienta vetar su uso en operaciones militares legales? Las democracias han resuelto históricamente que el control civil sobre las fuerzas armadas incluye el control sobre sus equipamientos. Un fabricante de armamento no puede negarse a que sus tanques se usen en un conflicto concreto. La analogía es imperfecta, pero existe.

La posición de Anthropic, sin embargo, descansa en un argumento diferente: que los modelos de IA actuales no son lo suficientemente fiables para tomar decisiones letales sin supervisión humana, y que la vigilancia masiva de ciudadanos viola derechos fundamentales independientemente de si es «legal». El propio Amodei admitió que el Pentágono toma las decisiones militares, no las empresas privadas, pero argumentó que «en un conjunto estrecho de casos, la IA puede socavar, en lugar de defender, los valores democráticos». CNN No es una posición ideológica. Es una afirmación técnica sobre las limitaciones actuales de los sistemas que su empresa construye.

Las armas autónomas letales, también conocidas como LAWS (Lethal Autonomous Weapons Systems), son sistemas capaces de seleccionar y atacar objetivos sin intervención humana directa en cada decisión. La discusión sobre si los modelos de lenguaje actuales son lo suficientemente fiables para estos usos no es retórica: errores de inferencia, alucinaciones y sesgos en los datos de entrenamiento pueden traducirse, en ese contexto, en víctimas civiles.

Los tribunales, el único árbitro disponible

El 26 de marzo, la jueza federal Rita Lin bloqueó la designación del Pentágono con un lenguaje inusualmente directo, escribiendo que «nada en la ley aplicable respalda la noción orwelliana de que una empresa estadounidense pueda ser marcada como adversaria potencial y saboteadora por expresar desacuerdo con el gobierno». Democracy Now! La jueza concluyó que la designación parecía una represalia por las declaraciones públicas de Anthropic, lo que constituiría una violación de la Primera Enmienda.

Sin embargo, el tribunal de apelaciones de Washington denegó días después la solicitud de Anthropic de bloquear temporalmente la designación en el ámbito de los contratos del Departamento de Defensa, argumentando que el equilibrio entre los daños financieros de la empresa y el interés en la gestión del aprovisionamiento militar se inclinaba a favor del gobierno. CNBC El resultado es una situación jurídica dividida: Anthropic puede operar con otras agencias federales, pero sigue excluida del Pentágono mientras el litigio avanza.

La pregunta que el caso deja en pie

Lo más revelador de este conflicto no son los argumentos legales. Es lo que ocurrió con el resto de la industria. OpenAI, Google y xAI de Elon Musk aceptaron las condiciones del Pentágono y acordaron permitir el uso de sus modelos para «cualquier fin lícito». NPR Ninguno de ellos trazó las líneas que trazó Anthropic. La presión económica y política bastó.

Eso plantea una pregunta que este caso no resolverá en los tribunales: si la empresa de IA que más ha invertido en seguridad y alineación fue la única dispuesta a mantener sus principios cuando llegó el momento de verdad, ¿qué garantiza que las demás lo harán cuando les llegue su turno? La narrativa habitual sobre la IA segura asume que los valores de los laboratorios son lo que frenan los usos más peligrosos de la tecnología. El caso Anthropic-Pentágono sugiere que esa garantía es mucho más frágil de lo que se pensaba, y que depende menos de la ética corporativa que de quién tenga más poder para imponer sus condiciones en el momento en que importa.

Fuentes

EtiquetasAnthropicPentágonoÉtica IAArmas autónomasRegulación