Empresa de IA demanda al Pentágono y otras agencias del gobierno de Estados Unidos por haber sido designada —según ella, injustamente— como un riesgo para la seguridad nacional. Se trata de Anthropic PBC, cuyo modelo “Claude” fue utilizado en la captura de Nicolás Maduro y Cilia Flores.
Anthropic calificó tal designación de la administración estadounidense como una represalia inconstitucional por negarse al uso de su modelo de inteligencia artificial, Claude, en guerra autónoma letal y vigilancia masiva.
La demanda refiere que las directivas presidenciales y secretariales que prohíben el uso de su tecnología carecen de base legal y procedimental, lo que, desde su perspectiva, viola la Primera y Quinta Enmienda de la Constitución.
Anthropic acusa que el gobierno la castiga por su postura ética sobre la seguridad de la IA, lo que genera daños irreparables a su reputación y contratos vigentes. La demanda busca una declaración judicial de ilegalidad para frenar estas medidas coercitivas y restaurar sus derechos operativos.
Lea también: Juicio a Nicolás Maduro: exdictador de Venezuela y su esposa insisten en exigencia de desestimación de los cargos de narcoterrorismo en su contra
Modelo Claude de Anthropic usado en la captura de Maduro
El Departamento de Guerra habría usado el modelo de Inteligencia Artificial Claude desarrollado por Anthropic, durante la misión militar para capturar a Nicolás Maduro y Cilia Flores ocurrida el 3 de enero de 2026, según información de prensa promovida por la demandante.
Se indica en la reseña que tecnología se realizó mediante una colaboración con la empresa de análisis de datos Palantir Technologies y marcó un hito en el uso de herramientas de lenguaje en operaciones clasificadas.
Refiere la nota que el despliegue de Claude en la captura de Maduro y Flores muestra el creciente papel de la IA generativa en el ámbito militar.
Se indica que el portavoz del Pentágono, Sean Parnell, confirmó que la relación con Anthropic está bajo revisión, pues se requiere de socios «dispuestos a ayudar a nuestros combatientes a ganar en cualquier lucha».
La nota incluye la advertencia del secretario de Defensa, Pete Hegseth, de que su despacho no empleará modelos de IA que impidan la conducción de guerras, esto en referencia a las salvaguardas éticas impuestas por Anthropic (1).
Empresa de IA demandó al Pentágono y lo señala de represalias
El 9 de marzo de 2026, Anthropic PBC, empresa de IA demandó al Pentágono, así como a múltiples departamentos y funcionarios del gobierno federal de los Estados Unidos ante el Tribunal de Distrito de los Estados Unidos para el Distrito Norte de California.
El núcleo de la demanda presentada por Anthropic PBC contra el Departamento de Guerra y otros, se sustenta en la decisión del Ejecutivo de designar a la empresa de Inteligencia Artificial como un «Riesgo para la Cadena de Suministro de la Seguridad Nacional» y ordenar el cese inmediato del uso de su tecnología IA, «Claude».
Anthropic sostiene que estas acciones son una represalia ilegal y sin precedentes motivada por la negativa de la empresa a eliminar dos restricciones de seguridad críticas en su política de uso: la prohibición del uso de Claude para la guerra letal autónoma y para la vigilancia masiva de ciudadanos estadounidenses.
Refiere que a pesar de que la IA de Anthropic es actualmente la más utilizada en los sistemas clasificados del Departamento de Guerra, el gobierno inició una campaña de «desterramiento» comercial y de reputación que la demandante califica como una violación de la Primera, Quinta y Decimocuarta Enmienda, además de exceder la autoridad estatutaria del presidente y las agencias involucradas.
El modelo «Claude» de Anthropic PBC
Anthropic PBC fue fundada en 2021 por exempleados de OpenAI y opera como una Corporación de Beneficio Público (PBC) en Delaware. Su principio rector es que los sistemas de Inteligencia Artificial más capaces, deben ser también los más seguros y responsables.
Su producto principal es la familia de modelos de lenguaje extenso (LLM) conocida como «Claude» (versiones recientes 4.6 Opus y Sonnet, febrero de 2026).
Refiere la demanda que An
thropic es un socio estratégico clave que desarrolló «Claude Gov», una versión especializada para seguridad nacional, el cual es el único modelo de IA de frontera actualmente desplegado en los sistemas clasificados del Departamento de Guerra.
Anthropic mantiene una «Política de Uso» que prohíbe específicamente dos aplicaciones por considerarlas técnicamente poco fiables y éticamente arriesgadas en la actualidad:
Guerra letal autónoma: el despliegue de sistemas de armas que puedan matar sin supervisión humana directa.
Vigilancia masiva: el uso de IA para recopilar y analizar datos de ciudadanos estadounidenses a una escala que supera los marcos legales actuales.
Origen del conflicto: ultimátum del Departamento de Guerra
Indica la demanda que, en los primeros meses de 2026, las negociaciones para expandir el uso de Claude en la plataforma «GenAI.mil» se tensaron cuando el Departamento de Guerra exigió que Anthropic eliminara sus restricciones de seguridad y aceptara una política de «todo uso legal».
Enero de 2026: el secretario de Guerra, Peter Hegseth, ordena que todos los contratos de IA del Departamento de Guerra incluyan la cláusula de «cualquier uso legal».
Febrero de 2026: filtraciones desde el Pentágono sugieren que se está preparando una designación de «riesgo de cadena de suministro» contra Anthropic para «hacerles pagar un precio» por su postura.
24 de febrero de 2026: reunión entre el secretario Hegseth y el CEO de Anthropic, Dario Amodei. Hegseth presenta un ultimátum: Anthropic tiene hasta el 27 de febrero a las 5:01 p. m. para ceder o enfrentar consecuencias civiles y criminales, así como el uso de la Ley de Producción de Defensa para confiscar su tecnología.
26 de febrero de 2026: Amodei emite una declaración pública reafirmando que Anthropic no puede, «en buena conciencia», permitir usos de su tecnología para los cuales no ha sido entrenada ni probada, tales como la guerra autónoma y vigilancia masiva.
Anthropic acusa represalia del gobierno federal
Tras la declaración de Anthropic acusa que el gobierno comenzó una serie coordinada de acciones que la empresa demandante cuestiona.
La directiva presidencial (27 de febrero de 2026)
El presidente emitió un comunicado en redes sociales calificando a Anthropic como una «empresa woke de izquierda radical» y ordenó a todas las agencias federales cesar inmediatamente el uso de su tecnología. Amenazó con usar el «Poder Total de la Presidencia» para forzar el cumplimiento.
La orden secretarial (27 de febrero de 2026)
El secretario Hegseth designó formalmente a Anthropic como un Riesgo para la Cadena de Suministro de la Seguridad Nacional.
La orden:
Prohíbe a cualquier contratista o socio militar realizar actividad comercial con Anthropic.
Establece un periodo de transición de seis meses para que el DoW deje de usar Claude.
Calificó la postura de Anthropic como una «clase magistral de arrogancia» y «traición».
Efecto cascada en otras agencias
GSA (Administración de Servicios Generales): eliminó a Anthropic de USAi.gov y rescindió el contrato «OneGov».
Tesoro y FHFA: anunciaron el fin de todos los vínculos con la empresa.
Estado y HHS: circularon memorandos internos para detener el uso de Claude.
Los cargos acusados
Anthropic acusa cinco cargos:
CargoFundamento legalArgumento principalI. Violación de la APA5 U.S.C. § 706; 10 U.S.C. § 3252La designación de «riesgo» es arbitraria y caprichosa. La ley 3252 se refiere a riesgos de sabotaje por adversarios extranjeros (China, Rusia, etc.), no a desacuerdos comerciales con empresas estadounidenses.II. Primera EnmiendaLibertad de Expresión y PeticiónEl gobierno castiga a Anthropic por su «punto de vista» y discurso protegido sobre la seguridad de la IA. Es una represalia clásica contra el ejercicio de la libertad de expresión.III. Ultra ViresArtículo II de la ConstituciónEl presidente no tiene autoridad inherente ni estatutaria para ordenar un boicot masivo a una empresa privada por sus opiniones políticas o éticas.IV. Debido procesoQuinta EnmiendaEl gobierno privó a Anthropic de sus intereses de propiedad (contratos) y libertad (reputación) sin notificación previa ni oportunidad de ser escuchada.V. Sanción ilegal5 U.S.C. § 558Las agencias impusieron sanciones que exceden su jurisdicción delegada por el Congreso.
La demanda subraya que la designación de «riesgo de seguridad» contradice las acciones y declaraciones previas del propio gobierno:
Elogios técnicos: el secretario Hegseth describió la tecnología de Anthropic como poseedora de «capacidades exquisitas» apenas días antes de la prohibición.
Dependencia operativa: horas después de la prohibición, el ejército estadounidense supuestamente utilizó herramientas de Anthropic en un ataque aéreo en Irán.
Falta de evidencia: funcionarios de inteligencia del Pentágono admitieron a la prensa que «no hay evidencia de riesgo en la cadena de suministro» y que la decisión es puramente «ideológica».
Certificaciones vigentes: Anthropic mantiene autorizaciones FedRAMP de alto nivel y sus empleados poseen autorizaciones de seguridad de alto secreto que no han sido revocadas por motivos técnicos.
Daños e impacto
Anthropic alega daños irreparables que incluyen:
Económicos: pérdida de contratos federales actuales y futuros, además de la desestabilización de contratos con el sector privado (socios de nube e inversores).
Reputacionales: la estigmatización de ser etiquetada como un «riesgo nacional» afecta su viabilidad comercial global.
Constitucionales: la pérdida de libertades de la Primera Enmienda se considera, por definición jurídica, un daño irreparable.
Vea en Sin Filtros “Dentro del Sistema: Institucionalidad fracturada y control militar en Venezuela”: