Noticias de defensa

US contra Anthropic: Murder By Policy

La semana pasada el Departamento de Guerra de Estados Unidos (antes conocido como Departamento de Defensa, rebautizado por la administración Trump) designó a Anthropic como "riesgo de cadena de suministro para la seguridad nacional". El mismo rótulo que se le pone a Huawei y el mismo que se reserva históricamente para empresas controladas por adversarios extranjeros.

Anthropic es una empresa americana. Fue la primera empresa de frontier AI en desplegar modelos en las redes clasificadas del gobierno americano, la primera en hacerlo en los Laboratorios Nacionales, la primera en ofrecer modelos customizados para clientes de seguridad nacional. Tenía un contrato de $200 millones con el Pentágono firmado en julio de 2025. Acaba de participar en un contrato de $100 millones para enjambres de drones manejados con voz en conflictos armados del DoD. Y antes de todo esto, cortó varios cientos de millones de dólares en revenue para no vender a firmas vinculadas al Partido Comunista Chino —incluyendo algunas designadas por el propio Departamento de Guerra como Compañías Militares Chinas.

Si buscás la lógica, es dificil de encontrar.

Lo que sí puedo explicar es por qué esto importa, por qué no es tan simple como "Anthropic tiene razón y el gobierno está loco", y por qué la reacción de OpenAI merece más atención de la que está recibiendo.

Qué pidió Anthropic en realidad

Antes de cualquier análisis, conviene leer lo que Anthropic dijo en sus propios términos, porque la cobertura mediática lo simplificó bastante.

Dario Amodei fue explícito en su statement del 26 de febrero: Anthropic no objeta ninguna misión militar en general. Apoyó activamente el despliegue de Claude en inteligencia, planificación operacional, ciberoperaciones, modelado y simulación. No intentó limitar el uso de su tecnología de manera ad hoc ni objetó operaciones particulares.

Lo que Anthropic se negó a aceptar fueron exactamente dos cosas:

  1. Vigilancia masiva doméstica. No inteligencia extranjera ni contrainteligencia —eso Anthropic lo apoya explícitamente. El problema específico es el uso de AI para construir perfiles automáticos y a escala masiva de ciudadanos americanos usando datos públicos que hoy son legales de comprar pero que, combinados con modelos de lenguaje potentes, crean algo cualitativamente distinto. La propia Comunidad de Inteligencia americana reconoció en documentos desclasificados que esta práctica genera problemas serios de privacidad. Amodei lo dijo directamente: la ley no prohíbe esto hoy no porque sea correcto, sino porque la tecnología avanzó más rápido que la legislación.
  2. Armas totalmente autónomas. No armas parcialmente autónomas como las que se usan hoy en Ucrania, que Anthropic dice explícitamente que son "vitales para la defensa de la democracia". Específicamente sistemas donde un modelo de AI identifica, rastrea y mata targets sin ningún humano en el loop en ningún punto del proceso. Y la posición de Anthropic acá no es que esto nunca debería existir: es que los modelos actuales no son lo suficientemente confiables para eso hoy, y que ponerlos en ese rol pondría en riesgo a los propios soldados americanos y civiles.

Anthropic afirma que estas dos restricciones "no han sido barrera para ninguna misión del gobierno hasta la fecha."

El Departamento de Guerra respondió que solo trabajaría con empresas que acepten "cualquier uso legal" sin excepciones contractuales adicionales, y amenazó con la designación de riesgo de cadena de suministro más el Defense Production Act para forzar la remoción de los safeguards.

En su segundo statement del 27 de febrero, Anthropic señaló la contradicción con una precisión quirúrgica: las dos amenazas son "inherentemente contradictorias". Una dice que Anthropic es un riesgo de seguridad. La otra dice que Claude es esencial para la seguridad nacional. No pueden ser simultáneamente las dos cosas.

What does “supply chain risk” designation mean? A supply chain risk designation under U.S.C. § 3252 is a federal classification that bars a company from participating in defense procurement. It means no Pentagon contractor, supplier, or partner may conduct commercial activity with the designated entity. This mechanism was historically reserved for companies connected to foreign adversaries — such as Huawei (China) and Kaspersky Lab (Russia) — and had never before been publicly applied to an American company.

Y hay un punto legal que la cobertura masiva pasó por alto: Anthropic dice que Hegseth no tiene la autoridad estatutaria para lo que anunció. Bajo el 10 USC 3252, una designación de riesgo de cadena de suministro solo puede extenderse al uso de Claude en contratos del Departamento de Guerra, no puede afectar cómo los contratistas usan Claude para otros clientes. AWS puede seguir sirviendo modelos de Anthropic. Los clientes comerciales no se ven afectados. La amenaza más dramática del Secretario de Guerra, legalmente, no tiene piso sólido.

Honestamente, el argumento del gobierno tiene una parte legítima

Aunque el estilo no te guste, hay un punto que tiene el DOD que conviene no descartar demasiado rápido.

Ben Thompson en Stratechery lo planteó en la versión más dura y honesta: si Amodei mismo argumenta que la AI va a ser equivalente a las armas nucleares en términos de impacto estratégico, entonces el gobierno americano tiene un problema real permitiendo que una empresa privada no electa tenga veto contractual sobre cómo se usa esa tecnología. Palmer Luckey, founder de Anduril, lo dijo de otra forma: ¿creés en la democracia? ¿Debería el ejército ser regulado por líderes electos o por ejecutivos corporativos?

Son preguntas legítimas. Que una empresa incorpore en un contrato restricciones que funcionan como política pública es muy diferente a las restricciones técnicas normales de contratación. En ese sentido, la posición del gobierno ("preferiríamos que estas decisiones las tome el Congreso, no un CEO") tiene lógica.

El problema es la respuesta elegida: Cancelar el contrato y comunicarlo públicamente habría sido defendible. Exigir renegociación de términos, también razonable. Pero designar a Anthropic (empresa que rechazó revenue para no vender al ejército chino, que opera en redes clasificadas desde junio de 2024) con el mismo rótulo histórico de adversario extranjero es grotesco. Dean Ball en Hyperdimensional lo calificó directamente como "attempted corporate murder", y el calificativo no parece exagerado si tomás en cuenta las implicaciones en cascada que tendría para todos los proveedores de cloud e inversores de Anthropic.

El movimiento de OpenAI

El mismo día que Hegseth anunció la designación, Sam Altman posteó que OpenAI había llegado a un acuerdo con el Departamento de Guerra para desplegar sus modelos en redes clasificadas. El timing no fue una coincidencia.

Lo difícil es que Altman había dicho el jueves (un día antes) en un memo a empleados que OpenAI tenía las mismas "red lines" que Anthropic: sin vigilancia masiva, sin armas autónomas sin control humano. El viernes firmó el acuerdo aceptando "all lawful purposes" (la misma fórmula que Anthropic rechazó) pero con salvaguardas técnicas adicionales en lugar de restricciones contractuales explícitas: classifiers de AI, ingenieros propios monitoreando el uso, referencias a la Cuarta Enmienda como protección ya existente.

¿Es esa diferencia sustancial o es sofisticado PR management? Honestamente, es puro verso, y los mismos empleados de OpenAI dijeron públicamente que las salvaguardas son "window dressing". Un investigador de alignment de la propia empresa criticó que el acuerdo dejaba demasiado espacio para interpretación. Altman admitió en un AMA que "el timing estuvo mal y la optica no se ve bien"

Lo que sí hizo, hay que reconocerlo: criticó explícitamente la designación. "I think this is a very bad decision from the DoW and I hope they reverse it. If we take heat for strongly criticizing it, so be it." Y argumentó que parte de la razón para negociar rápido fue intentar de-escalar una situación que amenazaba a la industria entera.

Pero el cínico en mi lo lee simple: OpenAI capturó el contrato que Anthropic perdió aprovechando el momento. Si sos un poco menos cínico: Altman genuinamente creyó que alguien tenía que hacer de puente antes de que la cosa escalara a algo irreversible.

Probablemente las dos cosas son parcialmente ciertas.

Lo que me preocupa más allá del drama

El conflicto entre Anthropic y el Pentágono sacó a la luz, de golpe, una conversación que normalmente ocurre completamente detrás de escena. Sarah Shoker, ex-investigadora de OpenAI que lideró el equipo de Geopolítica tres años, señaló algo que la cobertura mainstream ignoró: las políticas de uso militar de las frontier AI companies son vagas por diseño, lo que permite a los líderes preservar "optionality" y decidir caso a caso sin comprometerse con nada concreto. El público tiene muy poca visibilidad sobre qué contratos existen, en qué condiciones, y qué usos se están habilitando realmente.

Pero lo que me preocupa más es el precedente. El gobierno americano demostró que está dispuesto a usar su poder regulatorio de forma punitiva contra una empresa americana que cumple las reglas, que rechazó negocios para proteger intereses nacionales, que tiene contratos vigentes con el propio gobierno. Y lo hizo de una manera tan contradictoria que sugiere que la decisión tuvo más de reacción emocional ante una negativa que de estrategia coherente.

El mensaje que eso manda a toda empresa de tecnología que trabaje con el gobierno es bastante claro: o aceptás los términos del gobierno de turno sin restricciones, o te arriesgás a ser designado adversario. "All lawful purposes" sin más definición no es una garantía —es un cheque en blanco.

Y para la industria global de AI, la señal es igualmente clara: si incluso en Estados Unidos el gobierno puede designar como adversario a una de sus propias empresas líderes, ¿qué incentivo tiene cualquier gobierno o empresa en otro país de construir infraestructura crítica sobre AI americana? La respuesta obvia es construir la propia. Que es exactamente lo opuesto de lo que la administración Trump dice querer lograr con su política de AI.

Hay una ironía difícil de ignorar acá: DeepSeek —que sí tiene vínculos documentados con intereses militares chinos— nunca recibió la misma urgencia de designación. Anthropic, que cortó revenue para no vender al ejército chino, sí.

No sé si esto se resuelve limpiamente. Anthropic dijo que desafiará la designación en la justicia. Altman dijo que espera que el Pentágono la revierta. Hoy 03/03, la designación formal todavía no había sido enviada oficialmente, lo que sugiere que alguien, en algún lugar, frenó quizás porque estan usando los mismos sistemas de Anthropic en su guerra contra Irán.

Pero el daño está en la señal que se mandó al mercado. Y sobre todo, marca un punto que no tiene vuelta atrás: ya existe una tecnología en manos privadas capaz de afectar el balance geopolítico real. Y cuando el gobierno de Estados Unidos intentó doblegar a la empresa que la tiene, tuvo que parar.

| Estrategias Inteligencia Artifical
Tags:
defensa IA innovación privacidad