Noticias de DoW

Murder by policy: guerra abierta contra Anthropic

Cuando publiqué el post anterior sobre Anthropic y el Departamento de Guerra, el daño parecía mayormente simbólico. Una amenaza sin base legal sólida, una señal política agresiva, pero todavía reversible. Diez días después, la situación cambió y no solo hay perdidas millonarias reales sino... inversores y hasta competidores que empiezan a asustarse.

A eso sumenle demandas judiciales, declaraciones bajo juramento con números concretos, y un detalle clave: los competidores directos de Anthropic (OpenAI y Google DeepMind) presentaron un amicus brief en la corte apoyando a la empresa que compite contra ellos todos los días.

Los números bajo juramento

El CFO de Anthropic, Krishna Rao, declaró ante la corte federal del Distrito Norte de California el 9 de marzo. Bajo pena de perjurio.

"Si los clientes adoptan una lectura estrecha de la designación (solo afecta contratos directos con el Pentágono), hay cientos de millones de dólares en revenue 2026 en riesgo. Si adoptan la lectura amplia (que hacer cualquier negocio con Anthropic te expone como contratista federal), el impacto podría reducir el revenue total de la empresa en múltiples miles de millones de dólares en 2026.

¿Porque es importante el contexto? Anthropic generó $5 mil millones en ventas totales desde que empezó a comercializar en 2023. Gastó más de $10 mil millones en entrenar y servir modelos. Y necesitó levantar más de $60 mil millones en capital externo para operar (porque en frontier AI ninguna empresa puede autofinanciarse todavía, por más revenue que genere).

El punto de Rao es preciso: si los inversores pierden confianza, Anthropic no puede levantar el capital para entrenar la próxima generación de modelos. Si no puede entrenar los próximos modelos, pierde posición competitiva. Si pierde posición competitiva, pierde más clientes. El loop se retroalimenta hasta que se vuelve "casi imposible de revertir", en sus propias palabras (mis palabras serian mas simples: si no logra levantar plata, muere en sus ambiciones)

Lo que ya está pasando en el mercado

Thiyagu Ramasamy, Head of Public Sector de Anthropic, declaró en paralelo con datos más granulares.

Anthropic proyectaba superar $500 millones en annual recurring revenue del sector público en 2026. De diciembre 2025 a enero 2026 habían experimentado un crecimiento de 4x en ARR de clientes gubernamentales. El número proyectado para los próximos cinco años era de múltiples miles de millones.

Eso está en colapso. La estimación actual es una pérdida inmediata de más de $150 millones en ARR de contratos del Departamento de Guerra, incluyendo el acuerdo de $200 millones con el CDAO. El acuerdo OneGov con la GSA (que daba acceso a Claude a los tres poderes del gobierno por $1 por agencia) fue removido de la plataforma USAi.gov el mismo día de los anuncios de Trump y Hegseth. El Departamento del Tesoro y la Federal Housing Finance Agency cancelaron todo uso de Claude el 2 de marzo. Lawrence Livermore National Laboratory (donde 10,000 científicos usaban Claude para investigación nuclear) también cerró el acceso.

Pero lo más revelador de la declaración de Ramasamy es el efecto de contagio más allá del gobierno. El jefe de public sector de una agencia federal le informó que el Departamento de Guerra estaba aconsejando a todas las agencias civiles abandonar Claude (sin ninguna base legal para hacerlo). Una empresa de electrónica y una de ciberseguridad recibieron presión federal para dejar de usar Anthropic. Una de ellas "reconoció que no había base legal para la directiva (solo presión política) pero dijo que no tenía otra opción que cumplir."

Eso es lo que el CFO llama chilling effect. El gobierno no necesita tener razón legalmente si las empresas tienen suficiente miedo de las consecuencias políticas.

Del lado comercial, según el Chief Commercial Officer Paul Smith: una empresa financiera pausó negociaciones de un deal de $15 millones. Dos empresas de servicios financieros se negaron a cerrar deals por $80 millones combinados sin una cláusula de cancelación unilateral. Un supermercado canceló una reunión de ventas citando la designación. Una empresa Fortune 20 con contratos gubernamentales dijo que sus abogados estaban "freaked out" ante la idea de mantener relación con Anthropic.

El amicus brief de la competencia

El 9 de marzo, el mismo día que Anthropic presentó sus demandas, apareció en el expediente judicial un amicus brief firmado por casi 40 investigadores y empleados de OpenAI y Google DeepMind. En sus capacidades personales, no en nombre de las empresas.

Entre los firmantes: Jeff Dean, chief scientist de Google y uno de los arquitectos más importantes del deep learning moderno. En una industria donde la competencia es despiadada, es una señal de que el precedente asusta más que la rivalidad.

"The government's designation of Anthropic as a supply chain risk was an improper and arbitrary use of power that has serious ramifications for our industry." Y agrega: "If allowed to proceed, this effort to punish one of the leading U.S. AI companies will undoubtedly have consequences for the United States' industrial and scientific competitiveness in the field of artificial intelligence and beyond."

El argumento técnico del brief es más sutil y merece atención. Dice que en ausencia de legislación clara que regule el uso de AI, los compromisos éticos de los desarrolladores y sus términos de uso son la única salvaguarda real contra el mal uso catastrófico. Si el gobierno puede forzar a una empresa a eliminar esos compromisos bajo amenaza de designación, el mecanismo entero de seguridad de la industria se vuelve paper-thin.

"Until a legal framework exists to contain the risks of deploying frontier AI systems, the ethical commitments of AI developers (and their willingness to defend those commitments publicly) are not obstacles to good governance or innovation."

Traducción libre: en este momento, los contratos y las políticas de uso de las empresas de AI son el único freno real. La ley no alcanzó todavía. Si destruís ese freno, no queda nada.

Por qué el amicus brief importa más allá del drama

Que OpenAI y Google defiendan a Anthropic en la corte (la empresa que les compite directo por clientes, talento y contratos) no es un gesto de solidaridad corporativa vacío. Es una señal de que la industria percibe esto como un precedente que los afecta a todos.

La lógica es simple: si el gobierno puede designar a Anthropic como riesgo de cadena de suministro por mantener restricciones de uso que el propio gobierno había aceptado contractualmente, puede hacerlo con cualquier empresa del sector. La amenaza no es específica a Anthropic. Es estructural.

Y hay algo más en los datos de las declaraciones judiciales que me llama la atención. Ramasamy menciona que en septiembre de 2025, cuando empezaron las negociaciones para el contrato GenAI.mil, el Departamento de Guerra comenzó a pedir que Anthropic eliminara su Usage Policy completa de los contratos del DoW y subcontratos. No dos restricciones específicas. La política entera.

Eso es diferente a lo que la narrativa pública sugirió. No era solo vigilancia masiva y armas autónomas. Era "necesitamos poder hacer cualquier cosa con tu modelo sin que tu política de uso nos aplique." Anthropic negoció durante meses, cedió en varios puntos (incluyendo operaciones de ciberataques ofensivos), pero no cedió en las dos restricciones que consideraba fundamentales.

El gobierno tiene su versión. Pero los documentos bajo juramento cuentan una historia más matizada que "empresa woke se niega a ayudar al ejército."

Dónde estamos hoy

Anthropic presentó dos demandas simultáneas el 9 de marzo: una en la corte federal de San Francisco alegando violación de free speech, otra en la corte de apelaciones de Washington DC alegando discriminación y represalia del DoW.

Está pidiendo una audiencia de emergencia para suspender los efectos de la designación mientras el caso se resuelve. La audiencia fue solicitada para el viernes 13 de marzo.

El gobierno todavía no respondió formalmente a las demandas. Pero ya hay datos suficientes para ver el contorno de lo que viene: una batalla legal que va a obligar al gobierno a explicar, con especificidad y evidencia, por qué una empresa americana que pasó 18 meses de vetting de seguridad, tiene Top Secret facility clearance, y hasta hace dos semanas era considerada "best-in-class" por los mismos funcionarios del Pentágono, de repente es un riesgo equivalente a Huawei.

Esa explicación, en un mundo coherente es imposible... porque no podés pasar de ser "nuestro mejor aliado" al mismo grado de riesgo que un enemigo declarado, pero ya no se que se puede esperar.

| Derechos Inteligencia Artifical
Tags:
Anthropic DoW emprendedores IA innovación inversiones