Anthropic demanda al Gobierno de Estados Unidos por vetarla para contratos de defensa
Written by Rossana Marquez on March 9, 2026
La compañía tecnológica Anthropic, que desarrolla Claude, uno de los modelos más avanzados de inteligencia artificial (IA), ha demandado al Gobierno de Estados Unidos después de que el Departamento de Defensa la catalogara como un “riesgo para la cadena de suministro”, una medida extraordinaria que le impide contratar con la Administración federal o con otras compañías que tengan contratos con el Pentágono.
Dario Amodei, fundador de Anthropic, ha presentado la denuncia ante un juez federal de San Francisco, donde tiene la sede, para tratar de anular la orden del presidente de Estados Unidos, Donald Trump, tras la negativa de la compañía de levantar las salvaguardas para que el Pentágono pueda usar sin límites todas las funcionalidades de Claude.
Anthropic, que hace solo un año firmó un contrato de 220 millones de dólares con el Pentágono para usar Claude en la gestión de archivos clasificados en la nube, ha marcado dos líneas rojas al Departamento de Defensa: que su modelo de IA no se utilice para el espionaje masivo de ciudadanos ni para la gestión de armas autónomas sin supervisión humana.
Pero el departamento dirigido por Pete Hegseth insiste en que no quiere que una empresa le ponga limitaciones sobre cómo tiene que actuar el ejército en un entorno de guerra. A pesar del veto impuesto por el Pentágono, el ejército está usando la herramienta de Anthropic en los bombardeos en Irán, para definir objetivos, planificar operaciones y en otras múltiples tareas de gestión y de recopilación de información clasificada.
“Estas acciones no tienen precedentes y son ilegales”, aseguran los abogados de Anthropic. “La Constitución no permite al Gobierno ejercer su enorme poder para castigar a una empresa por su libertad de expresión”.
La calificación de Anthropic como empresa que supone un riesgo para la cadena de suministro es algo completamente inusual. Es una medida reservada para empresas con vínculos con potencias no aliadas, como Huawei o ZTP por sus lazos con Pekín, o Kaspersky por sus relaciones con el Kremlin. Es la primera vez que una empresa estadounidense entra en esta lista negra, en una decisión muy controvertida, con aristas políticas, empresariales y tecnológicas.
Además, la demanda busca también fijar los límites del veto. Trump aseguró que afectaba a todos los contratos con todas las agencias y la imposibilidad de contratar con otras empresas que colaboran con la Administración federal. Esto supondría básicamente el hundimiento de Anthropic, que factura más de 20.000 millones de dólares, pero que tiene jugosos contratos con Google, Amazon, y otros gigantes tecnológicos, que tienen vínculos comerciales con la Administración federal.
La inclusión en la lista negra no supone un corte inmediato de los vínculos, porque la herramienta de Anthropic es tan necesaria para el ejército que han concedido seis meses de margen para la desconexión antes de que sea sustituida por otra IA.
La denuncia se produce después de que el pasado viernes, Hegseth, que ha bautizado a su ministerio como Departamento de Guerra, etiquetase oficialmente a Anthropic como riesgo para la cadena de suministros. Amodei y altos responsables de la Administración Trump habían seguido negociando, sin éxito, hasta el fin de semana para tratar de solucionar la crisis.
No obstante, las posturas están alejadas y afectadas por temas personales después de que acusaran a Amodei de “mentir” y “querer jugar a ser dios”. Y el empresario achacó el veto de la Administración a que no ha donado dinero a la causa del presidente republicano y por “no elogiar el estilo dictador de Trump”.
Anthropic argumenta en la demanda que la Administración de Trump ha violado sus derechos de la Primera Enmienda (que garantiza la libertad de expresión) para hablar sobre los límites de las aplicaciones militares de la IA. “Anthropic se fundó con base en la creencia de que las tecnologías de IA deben desarrollarse y usarse de una manera que maximice los resultados positivos para la humanidad, y su principio rector principal es que los sistemas de inteligencia artificial más capaces también deben ser los más seguros y los más responsables”, escribieron los abogados de la empresa en una denuncia presentada en el Tribunal de Distrito de los Estados Unidos para el Distrito Norte de California. “Anthropic presenta esta demanda…
Fuente editorial adaptada por BeOne Radio Canada.
📻 Escúchanos en vivo: https://www.be1radio.com/popup-player/
📲 Síguenos en Instagram: @be1radio
🎙 Entrevistas y promociones: https://www.be1radio.com/booking/