La amenaza del secretario de Defensa de EE.UU., Pete Hegseth, de excluir al grupo de IA Anthropic de las cadenas de suministro del Gobierno, o posiblemente obligarlo a dar prioridad a los pedidos gubernamentales, plantea varias cuestiones importantes.
Es el último ejemplo de las tácticas de mano dura de Washington en el sector empresarial, al tiempo que muestra cómo el control de los modelos de IA se está convirtiendo en un nuevo campo de batalla.
Según se ha informado, Hegseth ha dado a Anthropic hasta el viernes para que conceda al ejército estadounidense acceso total a sus aplicaciones, lo que supone la última escalada de una disputa en curso entre una de las principales empresas emergentes de IA del mundo y el Gobierno estadounidense.
Hasta ahora, Anthropic se ha negado a conceder a Washington acceso completo a sus modelos para uso militar clasificado, incluyendo misiones potencialmente letales llevadas a cabo sin control humano y para la vigilancia masiva nacional.
¿Qué ha amenazado exactamente Hegseth y por qué?
Hegseth convocó al director ejecutivo de Anthropic, Dario Amodei, a una reunión en Washington el martes. Un portavoz de Anthropic confirmó que la reunión tuvo lugar y declaró a DW:
"Durante la conversación, Dario expresó su agradecimiento por el trabajo del Departamento y dio las gracias al secretario por su servicio. Continuamos las conversaciones de buena fe sobre nuestra política de uso para garantizar que Anthropic pueda seguir apoyando la misión de seguridad nacional del Gobierno en consonancia con lo que nuestros modelos pueden hacer de forma fiable y responsable".
Sin embargo, según los medios de comunicación que citan a personas familiarizadas con las conversaciones, Hegseth profirió dos amenazas directas a Amodei si Anthropic no cumplía.
Una era excluir a la empresa de la cadena de suministro del Pentágono, mientras que la otra sería invocar la Ley de Producción de Defensa, una medida de la época de la Guerra Fría que otorga al presidente de los Estados Unidos el poder de controlar la industria nacional en aras de la supuesta defensa nacional.
"Si no se suman, [Hegseth] se asegurará de que se invoque la Ley de Producción de Defensa sobre Anthropic, obligándolos a ser utilizados por el Pentágono independientemente de si quieren o no", citó el Financial Times a un alto funcionario del Pentágono que no quiso revelar su nombre.
Hegseth quiere que el Pentágono tenga acceso ilimitado al chatbot de IA generativa de Anthropic, Claude, pero Anthropic, que desde hace tiempo se presenta como una empresa de IA orientada a la seguridad, se resiste.
Se cree que la empresa se opone a que su tecnología Claude se utilice en operaciones en las que las decisiones finales sobre objetivos militares se toman sin intervención humana, o para la vigilancia masiva dentro de Estados Unidos.
"Anthropic considera que estas cosas no redundan en el mejor interés a largo plazo de la humanidad, al menos con el nivel actual de tecnología y las barreras de seguridad existentes, mientras que el Pentágono está presionando para que se le permita cualquier uso legal que desee", declaró Geoffrey Gertz, investigador principal del Center for a New American Security, a DW.
Afirma que hablar de invocar la Ley de Producción de Defensa sería un intento de ejercer control sobre una empresa de IA de una manera "sin precedentes" y le preocupa que esto pueda frustrar el desarrollo de Anthropic.
¿Cuál ha sido la relación entre Anthropic y el ejército estadounidense?
Desde noviembre de 2024, Anthropic ha estado proporcionando el modelo Claude a las agencias de inteligencia y defensa de Estados Unidos.
Según el Wall Street Journal, el ejército estadounidense utilizó Claude durante la incursión de 2026 en Venezuelaque dio lugar a la captura de Nicolás Maduro. Ni Anthropic ni el Departamento de Defensa de EE.UU. han hecho comentarios al respecto, y no está claro exactamente cómo se utilizó el sistema de IA en la incursión.
La amenaza de Hegseth de eliminar a Anthropic de las cadenas de suministro del Pentágono tendría un impacto financiero en la empresa.
En julio de 2025, el Departamento de Defensa de Estados Unidos adjudicó a Anthropic un contrato de 200 millones de dólares para "crear prototipos de capacidades de IA de vanguardia que mejoren la seguridad nacional de Estados Unidos".
Anthropic aplaudió el acuerdo, y Thiyagu Ramasamy, director del sector público de la empresa, afirmó que abriría "un nuevo capítulo en el compromiso de Anthropic con el apoyo a la seguridad nacional de Estados Unidos".
Sin embargo, en ese momento también hizo hincapié en su compromiso con "el despliegue responsable de la IA".
"En el centro de este trabajo se encuentra nuestra convicción de que las tecnologías más poderosas conllevan la mayor responsabilidad", afirmó en un comunicado. "Estamos creando sistemas de IA que sean fiables, interpretables y controlables precisamente porque reconocemos que, en el contexto gubernamental, donde las decisiones afectan a millones de personas y lo que está en juego no podría ser más importante, estas cualidades son esenciales".
¿Anthropic está tan orientada a la seguridad como dice?
Anthropic fue fundada en 2021 por siete antiguos empleados de OpenAI. Según su director ejecutivo, Dario Amodei, se creó "basándose en un principio sencillo: la IA debe ser una fuerza para el progreso humano, no un peligro".
Sin embargo, a pesar de la disputa con el Pentágono, hay indicios de que Anthropic está reconsiderando ese compromiso en pos de sus ambiciones comerciales.
El martes (24 de febrero), el mismo día de la reunión con Hegseth, la empresa anunció que iba a suavizar su política de seguridad básica para seguir siendo competitiva con otros modelos de IA líderes.
"El entorno político ha cambiado y ahora da prioridad a la competitividad de la IA y al crecimiento económico, mientras que los debates centrados en la seguridad aún no han cobrado un impulso significativo a nivel federal", afirmó Anthropic en una entrada de blog en la que anunciaba los cambios.
(gg)



