Anthropic, la prometedora startup de IA, está en la mira del gobierno de
Trump. El Pentágono busca acceso total a sus modelos, pese a las
alarmas por seguridad y ética.
La amenaza del secretario de Defensa de EE.UU.,
Pete Hegseth, de excluir al grupo de IA Anthropic de las cadenas de
suministro del Gobierno, o posiblemente obligarlo a dar prioridad a los
pedidos gubernamentales, plantea varias cuestiones importantes.
Es el último ejemplo de las tácticas de mano dura de Washington en el
sector empresarial, al tiempo que muestra cómo el control de los modelos de IA se está convirtiendo en un nuevo campo de batalla.
Según se ha informado, Hegseth ha dado a Anthropic hasta el viernes
para que conceda al ejército estadounidense acceso total a sus
aplicaciones, lo que supone la última escalada de una disputa en curso
entre una de las principales empresas emergentes de IA del mundo y el
Gobierno estadounidense.
Hasta ahora, Anthropic se ha negado a conceder a Washington acceso
completo a sus modelos para uso militar clasificado, incluyendo misiones
potencialmente letales llevadas a cabo sin control humano y para la
vigilancia masiva nacional.
¿Qué ha amenazado exactamente Hegseth y por qué?
Hegseth convocó al director ejecutivo de Anthropic, Dario Amodei, a
una reunión en Washington el martes. Un portavoz de Anthropic confirmó
que la reunión tuvo lugar y declaró a DW:
"Durante la conversación, Dario expresó su agradecimiento por el
trabajo del Departamento y dio las gracias al secretario por su
servicio. Continuamos las conversaciones de buena fe sobre nuestra
política de uso para garantizar que Anthropic pueda seguir apoyando la
misión de seguridad nacional del Gobierno en consonancia con lo que
nuestros modelos pueden hacer de forma fiable y responsable".
Sin embargo, según los medios de comunicación que citan a personas
familiarizadas con las conversaciones, Hegseth profirió dos amenazas
directas a Amodei si Anthropic no cumplía.
Una era excluir a la empresa de la cadena de suministro del Pentágono, mientras que la otra sería invocar la Ley de Producción de Defensa, una medida de la época de la Guerra Fría
que otorga al presidente de los Estados Unidos el poder de controlar la
industria nacional en aras de la supuesta defensa nacional.
"Si no se suman, [Hegseth] se asegurará de que se invoque la Ley de
Producción de Defensa sobre Anthropic, obligándolos a ser utilizados por
el Pentágono independientemente de si quieren o no", citó el Financial Times a un alto funcionario del Pentágono que no quiso revelar su nombre.
Hegseth quiere que el Pentágono tenga acceso ilimitado al chatbot de
IA generativa de Anthropic, Claude, pero Anthropic, que desde hace
tiempo se presenta como una empresa de IA orientada a la seguridad, se
resiste.
Se cree que la empresa se opone a que su tecnología Claude se utilice
en operaciones en las que las decisiones finales sobre objetivos
militares se toman sin intervención humana, o para la vigilancia masiva
dentro de Estados Unidos.
"Anthropic considera que estas cosas no redundan en el mejor interés a
largo plazo de la humanidad, al menos con el nivel actual de tecnología
y las barreras de seguridad existentes, mientras que el Pentágono está
presionando para que se le permita cualquier uso legal que desee",
declaró Geoffrey Gertz, investigador principal del Center for a New
American Security, a DW.
Afirma que hablar de invocar la Ley de Producción de Defensa sería un
intento de ejercer control sobre una empresa de IA de una manera "sin
precedentes" y le preocupa que esto pueda frustrar el desarrollo de
Anthropic.
¿Cuál ha sido la relación entre Anthropic y el ejército estadounidense?
Desde noviembre de 2024, Anthropic ha estado proporcionando el modelo
Claude a las agencias de inteligencia y defensa de Estados Unidos.
Según el Wall Street Journal, el ejército estadounidense utilizó Claude durante la incursión de 2026 en Venezuelaque dio lugar a la captura de Nicolás Maduro.
Ni Anthropic ni el Departamento de Defensa de EE.UU. han hecho
comentarios al respecto, y no está claro exactamente cómo se utilizó el
sistema de IA en la incursión.
La amenaza de Hegseth de eliminar a Anthropic de las cadenas de
suministro del Pentágono tendría un impacto financiero en la empresa.
En julio de 2025, el Departamento de Defensa de Estados Unidos
adjudicó a Anthropic un contrato de 200 millones de dólares para "crear
prototipos de capacidades de IA de vanguardia que mejoren la seguridad
nacional de Estados Unidos".
Anthropic aplaudió el acuerdo, y Thiyagu Ramasamy, director del
sector público de la empresa, afirmó que abriría "un nuevo capítulo en
el compromiso de Anthropic con el apoyo a la seguridad nacional de
Estados Unidos".
Sin embargo, en ese momento también hizo hincapié en su compromiso con "el despliegue responsable de la IA".
"En el centro de este trabajo se encuentra nuestra convicción de que
las tecnologías más poderosas conllevan la mayor responsabilidad",
afirmó en un comunicado. "Estamos creando sistemas de IA que sean
fiables, interpretables y controlables precisamente porque reconocemos
que, en el contexto gubernamental, donde las decisiones afectan a
millones de personas y lo que está en juego no podría ser más
importante, estas cualidades son esenciales".
¿Anthropic está tan orientada a la seguridad como dice?
Anthropic fue fundada en 2021 por siete antiguos empleados de OpenAI.
Según su director ejecutivo, Dario Amodei, se creó "basándose en un
principio sencillo: la IA debe ser una fuerza para el progreso humano,
no un peligro".
Sin embargo, a pesar de la disputa con el Pentágono, hay indicios de
que Anthropic está reconsiderando ese compromiso en pos de sus
ambiciones comerciales.
El martes (24 de febrero), el mismo día de la reunión con Hegseth, la
empresa anunció que iba a suavizar su política de seguridad básica para
seguir siendo competitiva con otros modelos de IA líderes.
"El entorno político ha cambiado y ahora da prioridad a la
competitividad de la IA y al crecimiento económico, mientras que los
debates centrados en la seguridad aún no han cobrado un impulso
significativo a nivel federal", afirmó Anthropic en una entrada de blog
en la que anunciaba los cambios.
(gg)
Nota cortesía:
Fuente de información:
Arthur Sullivan (26 de febrero de 2026). El Pentágono presiona a Anthropic por control total de su IA. DW en Español. Alemania. Recuperado el 27 de febrero de 2026 de: https://www.dw.com/es/el-pent%C3%A1gono-presiona-a-anthropic-por-control-total-de-su-ia/a-76142785
Imágenes tomadas de la red. Todos los créditos y derechos de autor a sus propietarios.