Un tribunal federal de apelaciones de Estados Unidos rechazó este miércoles, de manera provisoria, el pedido de Anthropic para frenar su inclusión en una lista negra de seguridad nacional establecida por el Pentágono. La decisión mantiene la clasificación de la compañÃa de inteligencia artificial como un riesgo para la cadena de suministro, impidiendo que acceda a contratos militares y posibilitando restricciones a nivel federal.
El fallo fue emitido por un panel del Tribunal de Apelación para el Circuito del Distrito de Columbia, que decidió no suspender la designación mientras continúa el litigio principal sobre el caso. La determinación representa un respaldo a la administración de Donald Trump, a diferencia de un fallo anterior de otra corte que habÃa favorecido a la empresa.
Respaldo al gobierno y reacción de Anthropic
El gobierno de Trump celebró la resolución judicial. El fiscal general en funciones, Todd Blanche, vinculó la decisión con la autonomÃa de las Fuerzas Armadas. “La autoridad militar y el control operativo pertenecen al comandante en jefe y al Departamento de Guerra, no a una empresa tecnológica”, afirmó Blanche en un mensaje publicado en X, red social anteriormente conocida como Twitter.
Por su parte, una portavoz de Anthropic declaró que la compañÃa confÃa en que la justicia finalmente declarará ilegal la inclusión de la empresa como amenaza en la cadena de suministro del Pentágono. En declaraciones públicas, representantes de la firma reiteraron su compromiso con los estándares de seguridad y ética en el desarrollo de inteligencia artificial.
La desarrolladora del modelo de inteligencia artificial Claude sostiene que el secretario de Defensa, Pete Hegseth, superó sus competencias al catalogarla como riesgo, lo que provocó la sanción actual. Anthropic argumenta que la clasificación limita gravemente sus posibilidades empresariales y podrÃa afectar su posición en el mercado tecnológico estadounidense.
Detalles del conflicto y acciones legales
Anthropic presentó dos demandas contra la medida tomada por el Pentágono, que surgió luego de que la empresa se negara a permitir el uso de sus tecnologÃas para vigilancia interna o desarrollo de armamento autónomo, citando motivos de ética y seguridad. El procedimiento legal aún no ha concluido, ya que la reciente resolución corresponde a una instancia preliminar.
En su presentación judicial, Anthropic alertó sobre el impacto económico significativo de la clasificación. “Según la mejor estimación de Anthropic, para 2026, las acciones adversas del gobierno corren el riesgo de perder cientos de millones, o incluso miles de millones de dólares, en ingresos”, señalaron los abogados de la compañÃa en el escrito dirigido a la justicia estadounidense.
La inclusión de Anthropic en la lista de riesgos del Pentágono generó preocupación entre empresas privadas. Según consta en la documentación judicial, más de 100 clientes corporativos contactaron a la compañÃa para solicitar precisiones sobre el alcance y consecuencias de la resolución oficial.
El litigio responde a una disputa más amplia entre el sector tecnológico y los organismos gubernamentales en materia de inteligencia artificial. Mientras el proceso judicial sigue en curso, la restricción impuesta a Anthropic continuará vigente hasta que el tribunal de apelaciones se expida sobre el fondo de la cuestión.










