La empresa de inteligencia artificial Anthropic llevó su disputa con el Gobierno de Estados Unidos a los tribunales federales después de que el Pentágono la incluyera en una lista de proveedores considerados “amenaza para la cadena de suministro”. La medida surgió tras la negativa de la compañía a eliminar las restricciones que impiden usar su tecnología para vigilancia masiva de ciudadanos o para el desarrollo de armas autónomas.
La startup presentó dos demandas separadas en tribunales de California y Washington, solicitando que se revoque la designación impuesta por el Departamento de Defensa, al considerar que vulnera derechos constitucionales y pone en riesgo sus contratos con agencias federales.
Según el escrito judicial, la decisión del gobierno constituye una represalia contra la empresa por ejercer su libertad de expresión.
“La Constitución no permite que el Gobierno utilice su poder para castigar a una empresa por ejercer derechos protegidos”, sostiene la demanda. “Anthropic acude al poder judicial como último recurso para detener una campaña ilegal de represalias”.
LA DECISIÓN DEL PENTÁGONO
El Pentágono impuso la designación el 5 de marzo, después de que Anthropic se negara a permitir que su tecnología fuera utilizada sin las salvaguardas éticas que aplica a todos sus clientes.
Es la primera vez que una empresa estadounidense recibe la calificación de “amenaza en la cadena de suministro”, una herramienta creada originalmente para impedir que compañías vinculadas a adversarios extranjeros accedan a sistemas sensibles de seguridad nacional.
El director ejecutivo de Anthropic, Dario Amodei, había señalado inicialmente que la medida solo afectaría el ámbito militar. Sin embargo, el gobierno anunció que la prohibición se implementará gradualmente durante seis meses y podría extenderse a todo el aparato federal.
LA POSTURA DE ANTHROPIC
Anthropic sostiene que su política corporativa establece límites claros al uso de la inteligencia artificial. Entre ellos, impedir que su chatbot Claude se utilice para crear armas autónomas o sistemas de vigilancia masiva.
En un ensayo publicado en enero, Amodei advirtió sobre los riesgos de una IA utilizada para monitorear poblaciones enteras.
“Una IA capaz de analizar miles de millones de conversaciones podría detectar focos de deslealtad y eliminarlos antes de que crezcan”, escribió.
La empresa, fundada por Amodei tras abandonar OpenAI por preocupaciones sobre seguridad y desarrollo acelerado de la tecnología, mantuvo esa posición incluso cuando el Pentágono exigió flexibilizar las restricciones.
Durante una reunión con el secretario de Defensa Pete Hegseth, la compañía rechazó abrir el uso de su tecnología sin límites. Un día después, el gobierno confirmó su inclusión en la lista negra.
Hegseth defendió la decisión argumentando que la defensa nacional debe regirse por leyes estadounidenses y no por normas fijadas por empresas privadas. El presidente Donald Trump reforzó esa postura con una orden pública para que todas las agencias federales suspendieran el uso de la tecnología de Anthropic.
UN CONFLICTO QUE SACUDE LA INDUSTRIA DE LA IA
La disputa ocurre en un momento en que el Pentágono impulsa el desarrollo acelerado de inteligencia artificial. En 2025 firmó contratos por más de 200 millones de dólares con cuatro compañías: Anthropic, OpenAI, xAI y Google.
De ellas, Anthropic era la única que operaba en entornos clasificados y que mantenía restricciones éticas explícitas sobre el uso militar de sus sistemas.
Tras la ruptura con el gobierno, OpenAI firmó rápidamente un nuevo acuerdo con el Pentágono para reemplazar parte de las funciones que cumplía Anthropic. La decisión provocó tensiones internas en la compañía, incluida la renuncia de la responsable de robótica Caitlin Kalinowski, quien defendió que la vigilancia masiva sin control judicial y la autonomía letal sin supervisión humana “son líneas que requieren mayor reflexión”.
El caso abre ahora un precedente clave para el futuro de la inteligencia artificial en Estados Unidos, al enfrentar directamente los límites éticos de la tecnología con las exigencias estratégicas de seguridad nacional.







