En su lucha contra el Pentágono, Anthropic enfrenta una de las mayores crisis de sus cinco años de existencia

En su enfrentamiento con el Pentágono, Anthropic se enfrenta a una de las mayores crisis de su existencia de cinco años

Jeremy Kahn

Thu, February 26, 2026 at 10:04 AM GMT+9 8 min read

En este artículo:

ANTH.PVT

AI company Anthropic is facing perhaps the biggest crisis in its five-year existence as it stares down a Friday deadline to remove restrictions on how the U.S. Department of War can use its technology or face the possibility that the Pentagon will take action that could cripple its business.

Pete Hegseth, el secretario de guerra de EE. UU., ha exigido que Anthropic elimine las restricciones que estipula actualmente en sus contratos y que prohíben que sus modelos de IA se utilicen para vigilancia masiva o que se incorporen en armas autónomas letales, que pueden tomar decisiones para atacar sin intervención humana. En cambio, Hegseth quiere que Anthropic estipule que su tecnología puede utilizarse para “cualquier propósito legal” que el Departamento de Guerra quiera perseguir.

Si la empresa no cumple para el viernes, Hegseth ha amenazado no solo con cancelar el contrato existente de $200 millones de Anthropic con su departamento, sino con que la empresa sea etiquetada como “riesgo de la cadena de suministro”, lo que significa que ninguna empresa que haga negocios con el Departamento de Guerra podría usar los modelos de Anthropic. Eso podría frenar el crecimiento de Anthropic: justo cuando la empresa, que actualmente está valorada en $380 mil millones, ha estado viendo una tracción comercial significativa y está contemplando una oferta pública inicial tan pronto como el próximo año.

Una reunión el martes entre Hegseth y el CEO de Anthropic, Dario Amodei, en Washington, D.C., no logró resolver el conflicto y terminó con Hegseth reiterando su ultimátum.

La disputa ocurre en un contexto de hostilidad a veces manifiesta hacia Anthropic por parte de otros funcionarios de la administración Trump. En particular, el zar de la IA David Sacks ha atacado públicamente a la empresa en redes sociales por representar una “IA despierta” y el “complejo industrial del apocalipsis”. Sacks ha acusado a la empresa de participar en una “estrategia sofisticada de captura regulatoria basada en alarmismo”. Su argumento, básicamente, es que los ejecutivos de Anthropic advierten de manera poco sincera sobre riesgos extremos de los sistemas de IA para justificar regulaciones sobre la tecnología con la que solo Anthropic y algunas otras empresas de IA pueden cumplir fácilmente.

El CEO de Anthropic, Dario Amodei, ha calificado esas posturas de “inexactas” e insistió en que la empresa comparte muchos objetivos de política con la administración Trump, incluido el deseo de ver que EE. UU. se mantenga a la vanguardia del desarrollo de la tecnología de IA.

Aun así, Sacks y otros dentro de la administración podrían estar esperando que Hegseth cumpla sus amenazas de incluir a Anthropic en una lista negra dentro de la cadena de suministro de seguridad nacional.

Otras empresas de IA, como OpenAI y Google, aparentemente no han impuesto restricciones sobre cómo el ejército de EE. UU. utiliza su tecnología.

La historia continúa  

Principios versus pragmatismo

Trabajar con el ejército ha sido controvertido para algunos trabajadores de tecnología. En 2018, Google se enfrentó a una rebelión vocal del personal por su decisión de ayudar al Pentágono con “Project Maven”, un esfuerzo para usar IA con el fin de analizar imágenes de vigilancia aérea. La revuelta de empleados obligó a Google a retirarse de una oferta para renovar su contrato para trabajar en el proyecto. Pero en los años posteriores, el gigante de internet ha renovado en silencio sus vínculos con el aparato de defensa, y en diciembre el Departamento de Guerra anunció que desplegaría los modelos de IA Gemini de Google para una serie de casos de uso.

Owen Daniels, director asociado de análisis en el Center for Security and Emerging Technology (CSET) de la Universidad de Georgetown, le dijo a The Associated Press que “los pares de Anthropic, incluidas Meta, Google y xAI, han estado dispuestos a cumplir con la política del departamento sobre el uso de modelos para todas las aplicaciones legales. Así que el poder de negociación de la empresa aquí es limitado, y corre el riesgo de perder influencia en el impulso del departamento para adoptar IA”.

Pero los principios pueden ser un motivador inusualmente poderoso para los empleados de Anthropic. La empresa fue fundada por un grupo de investigadores que se separaron de OpenAI en parte porque les preocupaba que ese laboratorio estuviera dejando que las presiones comerciales la desviaran de su misión original de asegurar que una IA poderosa se desarrolle en beneficio de la humanidad. Y más recientemente, Anthropic asumió posturas basadas en principios sobre no incorporar publicidad en sus productos Claude y no desarrollar chatbots diseñados específicamente para ser compañeros románticos o eróticos.

Dada la cultura de la empresa, algunos comentaristas externos han especulado que al menos parte del personal de Anthropic renunciaría si la empresa cede a las demandas de Hegseth y elimina las limitaciones que actualmente están integradas en sus contratos gubernamentales.

Hegseth también ha dicho que existe otra opción disponible para el Pentágono si Anthropic no cumple su solicitud de manera voluntaria. Esto implicaría usar la Ley de Producción para la Defensa de 1950 para obligar a Anthropic a ofrecer al ejército una versión de su modelo Claude sin que existan restricciones.

Esa DPA, que originalmente se diseñó para permitir que el gobierno asuma el control de la fabricación civil en caso de guerra, se invocó durante la pandemia de Covid-19 para obligar a las empresas a producir equipos de protección y vacunas. Desde entonces, se ha utilizado numerosas veces, principalmente por la administración Biden, incluso en ausencia de una emergencia nacional clara. Por ejemplo, en 2023 la Casa Blanca de Biden invocó la DPA para obligar a las empresas de tecnología a compartir información sobre las pruebas de seguridad de sus avanzados modelos de IA con el gobierno.

Katie Sweeten, quien se desempeñó hasta septiembre de 2025 como enlace del Departamento de Justicia con el Departamento de Defensa y ahora es socia en el despacho de abogados Scale, le dijo a CNN que la postura de Hegseth no tenía sentido desde una perspectiva de política. “Yo supondría que no queremos utilizar la tecnología que es un riesgo de la cadena de suministro, ¿verdad? Así que no sé cómo encaja eso”, dijo.

Dean Ball, quien se desempeñó como asesor de política de IA para la Administración Trump, ayudando a redactar su plan de Acción de IA, y que ahora es un senior fellow en la Foundation for American Innovation, también calificó la postura del Pentágono de “incoherente” en una publicación en X. “¿Cómo puede una opción de política ser ‘riesgo de cadena de suministro’ (usualmente aplicado a adversarios extranjeros) y la otra ser DPA (apropiación de emergencia de activos críticos)?” dijo.

Ball le dijo a Tech Crunch que imponer la etiqueta de riesgo de la cadena de suministro enviaría un mensaje terrible a cualquier empresa que haga negocios con el gobierno. “Básicamente sería el gobierno diciendo, ‘Si no están de acuerdo con nosotros políticamente, vamos a intentar sacarlos del negocio’”, dijo.

Algunos comentaristas legales señalaron que ambos bandos del conflicto tenían algunos argumentos legítimos. “No querríamos que Lockheed Martin le vendiera al ejército un F-35 y luego le dijera al Pentágono qué misiones podría volar”, dijo Alan Rozenshtein, profesor asociado de derecho en la Universidad de Minnesota y fellow en Brookings, en una columna publicada en el sitio Lawfare.

Pero Rozenshtein también argumentó que el Congreso, no el Pentágono, debería establecer las reglas sobre cómo despliega la IA el ejército de EE. UU. “Los términos que rigen cómo el ejército utiliza la tecnología más transformadora del siglo se están estableciendo mediante regateo bilateral entre un secretario de defensa y un CEO de una startup, sin participación democrática y sin restricciones duraderas”, escribió.

A mediados de semana, Anthropic no mostró señales de apartarse de su postura.

El futuro de Claude en juego

Helen Toner, directora ejecutiva interina de CSET de Georgetown y exmiembro de la junta de OpenAI, publicó en X que es probable que el Pentágono esté subestimando en qué medida Anthropic podría mostrarse renuente a abandonar su postura porque—por extraño que suene—hacerlo podría sentar un mal precedente para versiones futuras de Claude. Los investigadores de Anthropic han expresado cada vez más su preocupación sobre lo que cada versión sucesiva de Claude aprende sobre su propio carácter en función de datos de entrenamiento que ahora incluyen artículos de noticias y comentarios en redes sociales sobre Claude mismo.

Pero la empresa ya ha cedido antes cuando la situación estaba en un callejón sin salida. En junio de 2025, Anthropic se enfrentó a una amenaza potencialmente existencial cuando un juez federal dictaminó que su uso de bibliotecas de libros pirateados para entrenar sus modelos de IA Claude probablemente violaba la ley de derechos de autor. Esto dejó a la empresa expuesta a decenas de miles de millones de dólares en posibles responsabilidades si llevaba el caso a un juicio completo y lo perdía. En lugar de continuar peleando el caso, Anthropic anunció un acuerdo de $1.5 mil millones con los titulares de los derechos de autor.

Y solo la semana pasada, Anthropic volvió a demostrar, en un contexto diferente, que a veces está dispuesta a poner el pragmatismo y las exigencias comerciales por encima de principios elevados. La empresa actualizó su Responsible Scaling Policy (RSP), eliminando un compromiso previo de no entrenar nunca un modelo de IA a menos que pudiera garantizar que contaba con controles de seguridad adecuados. La nueva RSP en cambio simplemente se compromete a igualar o superar los esfuerzos de seguridad que están haciendo los competidores. También dice que Anthropic retrasará el desarrollo de modelos si la empresa cree que tiene una ventaja clara sobre la competencia y si además piensa que el entrenamiento del modelo presenta un riesgo catastrófico significativo. Jared Kaplan, director de investigación de Anthropic, le dijo a Time que “los compromisos unilaterales ya no tienen sentido si ‘los competidores van por delante’”.

Queda por ver si Anthropic hará una concesión similar a las presiones comerciales en su enfrentamiento con el Departamento de Guerra.

Esta historia se presentó originalmente en Fortune.com

Términos y Política de Privacidad

Privacy Dashboard

Más información

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Gate Fun en tendencia

    Ver más
  • Cap.M.:$2.25KHolders:0
    0.00%
  • Cap.M.:$2.31KHolders:2
    0.20%
  • Cap.M.:$2.31KHolders:2
    0.00%
  • Cap.M.:$2.26KHolders:1
    0.00%
  • Cap.M.:$2.29KHolders:2
    0.00%
  • Anclado