• Inicio
  • Locales
  • Nacionales
  • Internacionales
  • Deportes
  • Espectaculos
  • Lo mejor en redes
viernes, marzo 27, 2026
Democratizando la información
  • Inicio
  • Locales
  • Nacionales
  • Internacionales
  • Deportes
  • Espectaculos
  • Lo mejor en redes
No Result
View All Result
  • Inicio
  • Locales
  • Nacionales
  • Internacionales
  • Deportes
  • Espectaculos
  • Lo mejor en redes
No Result
View All Result
OLA NOTICIAS
No Result
View All Result

Freno judicial a la exclusión de Anthropic de los contratos del Pentágono

Carlos Medina Cortez by Carlos Medina Cortez
marzo 27, 2026
in Destacado, Internacionales, Portada, Principal
Tiempo de lectura: 4 mins de lectura
5 1
A A
0
12
SHARES
83
VIEWS
Comparte en FacebookComparte en "X"Compartir

27 DE MARZO DEL 2026 – INTERNACIONAL. Un juez de los Estados Unidos decidió bloquear temporalmente la medida que buscaba poner a la empresa Anthropic en una lista negra del Departamento de Defensa. Esta situación representa el capítulo más reciente de una fuerte pelea entre el fabricante de la inteligencia artificial Claude y los altos mandos militares sobre cómo se debe usar esta tecnología en escenarios de guerra. La disputa comenzó cuando el gobierno intentó señalar a la compañía como un peligro, pero la justicia ha intervenido para pausar esta decisión mientras se analiza a fondo quién tiene la razón en este conflicto legal.

La demanda fue presentada en un tribunal de California, donde Anthropic acusa al secretario de Defensa, Pete Hegseth, de abusar de su poder al marcarlos como un riesgo para la seguridad nacional. Esta etiqueta se usa normalmente para empresas que podrían permitir que países enemigos espíen o saboteen los sistemas del ejército. Sin embargo, la jueza Rita Lin escuchó los argumentos en San Francisco y decidió otorgar una orden provisional para detener la prohibición militar contra Anthropic, permitiendo que la empresa respire un poco mientras el juicio sigue su curso normal en las próximas semanas.

El origen del conflicto por el uso de la IA Claude

Todo este problema legal surgió después de que los directivos de Anthropic se negaran rotundamente a que el ejército utilizara su chatbot Claude para labores de vigilancia o en la creación de armas que funcionen solas. Esta negativa provocó que el Pentágono tomara represalias bloqueando el acceso de la firma a jugosos contratos de defensa. Los líderes de la compañía de tecnología aseguran que este castigo, reflejado en la restricción de defensa hacia Anthropic, podría causarles pérdidas de miles de millones de dólares y manchar su imagen ante otros clientes en todo el mundo.

Por su parte, Anthropic defiende su postura diciendo que los modelos actuales de inteligencia artificial todavía no son lo suficientemente seguros o confiables para ser usados en armas autónomas sin supervisión humana. Además, han dejado claro que se oponen a que su tecnología se use para espiar a las personas dentro del país, pues consideran que esto viola los derechos fundamentales. A pesar de estas razones éticas, el Pentágono mantiene la postura de que una empresa privada no debería tener el poder de poner límites a las capacidades de acción de las fuerzas armadas.

Un caso sin precedentes en la industria tecnológica

La jueza Rita Lin, quien fue nombrada durante el gobierno de Joe Biden, aclaró que su resolución actual no es la palabra final sobre el asunto, pero sirve para evitar daños inmediatos a la empresa. El caso es seguido muy de cerca por todo el sector de Silicon Valley, ya que pone a prueba la autonomía de las empresas de software frente a las exigencias del Estado. Si la prohibición militar contra Anthropic se mantiene después del juicio, sentaría un ejemplo muy duro para cualquier otra compañía que decida cuestionar las órdenes o necesidades del Departamento de Defensa en el futuro cercano.

Mientras el litigio continúa pendiente de una sentencia definitiva, los expertos aseguran que el Pentágono está preocupado por la cadena de suministro y la posible infiltración de adversarios. No obstante, Anthropic insiste en que su tecnología está diseñada bajo principios de seguridad que el gobierno parece no querer aceptar bajo sus propios términos. La batalla legal por evitar la restricción de defensa hacia Anthropic no solo definirá el futuro financiero de la creadora de Claude, sino también las reglas éticas bajo las cuales se desarrollará la inteligencia artificial para fines bélicos en el siglo XXI.

Deja una respuesta Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Lo más Reciente

Derrumbe en mina de El Rosario, Sinaloa: cuatro trabajadores continúan desaparecidos

by Brittany Magaña
marzo 27, 2026
0
Derrumbe en mina de El Rosario, Sinaloa: cuatro trabajadores continúan desaparecidos

Un derrumbe ocurrido al interior de una mina en El Rosario ha dejado como saldo cuatro trabajadores desaparecidos, luego del...

Read moreDetails

Derrame de hidrocarburos en el Golfo de México: expertos señalan posible responsabilidad directa de Pemex

by Brittany Magaña
marzo 27, 2026
0
Derrame de hidrocarburos en el Golfo de México: expertos señalan posible responsabilidad directa de Pemex

El escenario más probable en torno al derrame de hidrocarburos en el Golfo de México apunta a una responsabilidad directa...

Read moreDetails

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In
No Result
View All Result
  • Inicio
  • Locales
  • Nacionales
  • Internacionales
  • Deportes
  • Espectaculos
  • Lo mejor en redes