Washington rompe con Anthropic: el pulso por los límites de la IA llega al Gobierno de EE. UU. y sacude el mercado

El choque entre política, defensa y tecnología ha entrado en una fase inédita. La Administración de Donald Trump ha ordenado a las agencias federales dejar de usar la tecnología de Anthropic, la empresa creadora de Claude, mientras el secretario de Defensa, Pete Hegseth, ha anunciado su intención de designar a la compañía como “riesgo en la cadena de suministro” para la seguridad nacional. El movimiento, que incluye una transición de hasta seis meses para que el Pentágono y otros organismos migren a alternativas, abre un debate que trasciende a una startup: ¿quién marca los límites de la Inteligencia Artificial cuando esa tecnología se vuelve infraestructura estratégica?

Lo relevante no es solo el titular. En el mundo de la contratación pública estadounidense, “riesgo en la cadena de suministro” es una etiqueta con efectos en cascada: puede impedir que contratistas, integradores y proveedores que trabajan con Defensa mantengan relaciones comerciales con la empresa señalada. Dicho de otro modo: el problema deja de ser “perder un contrato” y pasa a ser quedar aislada de un ecosistema entero.

Dos líneas rojas: vigilancia masiva interna y armas totalmente autónomas

Anthropic ha respondido con un comunicado firmado por su CEO, Dario Amodei, en el que defiende que la compañía sí quiere colaborar con el Estado en materia de seguridad nacional, pero se niega a aceptar un modelo de “cualquier uso legal” sin excepciones. La empresa fija dos límites concretos:

  • Vigilancia masiva doméstica: según Anthropic, usar IA para recomponer, a escala y de forma automática, datos dispersos sobre ciudadanos (movimientos, navegación, relaciones) chocaría con valores democráticos y generaría riesgos nuevos para libertades civiles. La compañía argumenta que el marco legal va por detrás de las capacidades tecnológicas y que, en algunos casos, la compra de datos a intermediarios puede permitir perfiles muy intrusivos sin una orden judicial.
  • Armas plenamente autónomas: Anthropic admite que sistemas parcialmente autónomos pueden ser relevantes, pero asegura que los modelos actuales no son lo bastante fiables como para seleccionar y atacar objetivos sin humanos “en el bucle”. A su juicio, retirar ese control humano hoy podría poner en riesgo tanto a civiles como a tropas.

La empresa sostiene que esas excepciones no formaban parte de sus contratos anteriores con Defensa y que, aun así, no habían sido un obstáculo para desplegar Claude en usos militares “de misión crítica” como análisis de inteligencia, simulación, planificación operativa o ciberoperaciones.

La respuesta política: “no habrá veto de ejecutivos tecnológicos”

La reacción desde Washington ha sido pública y especialmente dura. En mensajes atribuidos a Trump y a Hegseth, la Administración acusa a Anthropic de intentar imponer sus condiciones y de situar su “ideología” por encima de decisiones militares. La orden presidencial instruye a cesar el uso de la tecnología de Anthropic en el Gobierno federal, con una ventana de transición para evitar interrupciones operativas.

Más allá de la retórica, el efecto práctico es inmediato. Varias agencias han empezado a ejecutar el mandato: medios internacionales han informado de que el Departamento del Tesoro y la agencia federal de vivienda (incluyendo a entidades vinculadas al sistema hipotecario) se alinearon con la orden y anunciaron el fin del uso de productos de Anthropic.

Por qué el mercado se inquieta: no es solo un contrato

En la discusión pública se ha hablado de un contrato de alrededor de 200 millones de dólares vinculado al Pentágono. Esa cifra, por sí sola, no explicaría una tormenta empresarial: para una compañía en expansión, un contrato grande ayuda, pero no lo es todo. Lo que inquieta a inversores y clientes corporativos es el precedente: que una empresa estadounidense de IA pueda ser tratada como un problema de cadena de suministro, una categoría que históricamente se asocia a adversarios geopolíticos o a proveedores considerados de alto riesgo.

El conflicto llega, además, en un momento de valoración extremadamente alta. En febrero, Anthropic anunció una ronda de financiación de 30.000 millones de dólares que la situó en torno a 380.000 millones de valoración “post-money”. En ese contexto, cualquier señal de bloqueo regulatorio o aislamiento comercial tiene un impacto desproporcionado: no por el ingreso inmediato, sino por la expectativa de crecimiento futuro y adopción empresarial.

Algunos analistas señalan otro factor: el riesgo de contagio. Si la etiqueta impide a contratistas de Defensa colaborar con Anthropic, muchas compañías podrían optar por evitar a Claude para no comprometer relaciones con el Estado. Ese incentivo de “mejor no tocarlo” es el que, en un mercado dominado por compliance, puede frenar despliegues incluso fuera del ámbito militar.

Las afirmaciones virales y lo que sí se puede sostener

La polémica se ha mezclado con narrativas explosivas en redes sociales, incluyendo afirmaciones sobre supuestas operaciones militares concretas atribuidas al uso de Claude. Esas versiones circulan con fuerza, pero no están respaldadas con pruebas públicas verificables al mismo nivel que los comunicados oficiales o la cobertura de medios de referencia. Lo que sí está documentado es el núcleo del conflicto: un desacuerdo sobre salvaguardas y una respuesta del Gobierno que escala hacia una restricción generalizada del uso de la tecnología de Anthropic en agencias federales.

La pregunta de fondo: ¿quién decide los límites cuando la ley llega tarde?

En el fondo, el choque anticipa una tensión que va a repetirse. Los gobiernos quieren mantener capacidad de acción (“si es legal, debe poder usarse”), mientras algunas empresas tecnológicas intentan fijar límites (“si es legal, puede no ser aceptable o seguro”). La vigilancia masiva interna y las armas plenamente autónomas funcionan aquí como dos símbolos: uno sobre derechos y otro sobre responsabilidad en sistemas letales.

Para el público general, la lección es menos abstracta de lo que parece. Cuando una tecnología permite cruzar umbrales —convertir datos aparentemente inocuos en un retrato completo de una persona, o automatizar decisiones críticas—, el debate deja de ser técnico y pasa a ser institucional: controles, auditorías, supervisión y, sobre todo, quién responde si algo sale mal.

Y ahí aparece un principio que, paradójicamente, une a ambos lados del discurso: el “human in the loop”. En el ámbito legal, médico o financiero, automatizar no significa delegar decisiones; significa cerrar flujos de trabajo, definir entradas y salidas, y exigir revisión humana. La responsabilidad final no es de la IA: es de quien la integra y la supervisa. En defensa, la discusión se vuelve aún más sensible, precisamente por las consecuencias.


Tabla resumen: qué ha pasado y qué está en juego

ElementoQué ocurreImplicación
Orden presidencialLas agencias federales deben dejar de usar tecnología de AnthropicSalida acelerada y efecto reputacional
Ventana de transiciónHasta 6 meses para completar el cambio en Defensa y otros organismosReduce riesgo operativo, pero fija un calendario
Designación “supply chain risk”Defensa plantea vetar relaciones comerciales indirectas (contratistas y socios)Potencial aislamiento del ecosistema de defensa
Motivo del choque (según Anthropic)Negativa a habilitar vigilancia masiva doméstica y armas totalmente autónomasDebate sobre límites éticos y seguridad técnica
Contexto financieroValoración en torno a 380.000 millones de dólares tras ronda de febreroMayor sensibilidad a decisiones políticas

Preguntas frecuentes

¿Qué significa que una empresa sea declarada “riesgo en la cadena de suministro” en EE. UU.?
Puede implicar restricciones para que contratistas y proveedores que trabajan con Defensa no hagan negocios con esa empresa, afectando relaciones indirectas y proyectos asociados.

¿Por qué Anthropic dice que se negó a ciertas condiciones del Gobierno?
La compañía afirma que rechazó dos usos: vigilancia masiva doméstica y armas plenamente autónomas sin supervisión humana, por considerarlos incompatibles con valores democráticos o inseguro con la tecnología actual.

¿Puede una orden federal hundir el valor de una empresa de IA?
No necesariamente “a cero”, pero sí puede elevar el riesgo y frenar adopción en sectores regulados, sobre todo si la medida afecta a contratistas y cadenas de suministro.

¿Qué debería aprender una empresa que usa IA de este caso?
Que automatizar exige gobernanza: flujos cerrados, formatos, auditoría y revisión humana. La responsabilidad del resultado final recae en quien supervisa, no en el modelo.

Fuente: Noticias inteligencia artificial

Scroll al inicio