
27 DE MARZO DEL 2026 – INTERNACIONAL. Un juez de los Estados Unidos decidió bloquear temporalmente la medida que buscaba poner a la empresa Anthropic en una lista negra del Departamento de Defensa. Esta situación representa el capítulo más reciente de una fuerte pelea entre el fabricante de la inteligencia artificial Claude y los altos mandos militares sobre cómo se debe usar esta tecnología en escenarios de guerra. La disputa comenzó cuando el gobierno intentó señalar a la compañía como un peligro, pero la justicia ha intervenido para pausar esta decisión mientras se analiza a fondo quién tiene la razón en este conflicto legal.
La demanda fue presentada en un tribunal de California, donde Anthropic acusa al secretario de Defensa, Pete Hegseth, de abusar de su poder al marcarlos como un riesgo para la seguridad nacional. Esta etiqueta se usa normalmente para empresas que podrían permitir que países enemigos espíen o saboteen los sistemas del ejército. Sin embargo, la jueza Rita Lin escuchó los argumentos en San Francisco y decidió otorgar una orden provisional para detener la prohibición militar contra Anthropic, permitiendo que la empresa respire un poco mientras el juicio sigue su curso normal en las próximas semanas.
El origen del conflicto por el uso de la IA Claude
Todo este problema legal surgió después de que los directivos de Anthropic se negaran rotundamente a que el ejército utilizara su chatbot Claude para labores de vigilancia o en la creación de armas que funcionen solas. Esta negativa provocó que el Pentágono tomara represalias bloqueando el acceso de la firma a jugosos contratos de defensa. Los líderes de la compañía de tecnología aseguran que este castigo, reflejado en la restricción de defensa hacia Anthropic, podría causarles pérdidas de miles de millones de dólares y manchar su imagen ante otros clientes en todo el mundo.
Por su parte, Anthropic defiende su postura diciendo que los modelos actuales de inteligencia artificial todavía no son lo suficientemente seguros o confiables para ser usados en armas autónomas sin supervisión humana. Además, han dejado claro que se oponen a que su tecnología se use para espiar a las personas dentro del país, pues consideran que esto viola los derechos fundamentales. A pesar de estas razones éticas, el Pentágono mantiene la postura de que una empresa privada no debería tener el poder de poner límites a las capacidades de acción de las fuerzas armadas.
Un caso sin precedentes en la industria tecnológica
La jueza Rita Lin, quien fue nombrada durante el gobierno de Joe Biden, aclaró que su resolución actual no es la palabra final sobre el asunto, pero sirve para evitar daños inmediatos a la empresa. El caso es seguido muy de cerca por todo el sector de Silicon Valley, ya que pone a prueba la autonomía de las empresas de software frente a las exigencias del Estado. Si la prohibición militar contra Anthropic se mantiene después del juicio, sentaría un ejemplo muy duro para cualquier otra compañía que decida cuestionar las órdenes o necesidades del Departamento de Defensa en el futuro cercano.
Mientras el litigio continúa pendiente de una sentencia definitiva, los expertos aseguran que el Pentágono está preocupado por la cadena de suministro y la posible infiltración de adversarios. No obstante, Anthropic insiste en que su tecnología está diseñada bajo principios de seguridad que el gobierno parece no querer aceptar bajo sus propios términos. La batalla legal por evitar la restricción de defensa hacia Anthropic no solo definirá el futuro financiero de la creadora de Claude, sino también las reglas éticas bajo las cuales se desarrollará la inteligencia artificial para fines bélicos en el siglo XXI.





