×
Versión Impresa
Día Jueves, 19 de Febrero de 2026 Edición 7251.
Secciones
Última Hora
Podcasts
Encuestas
Servicios
Plaza Libre
Efemérides
Cumpleaños
RSS
Juegos
Herramientas
Más
Contáctanos
Sobre Diario Libre
Aviso Legal
Redes Sociales
Anthropic
Anthropic

EE. UU. dice que IA de Anthropic representa "riesgo inaceptable" para el ejército

La firma de inteligencia artificial también se ha negado a que sus sistemas se utilicen para impulsar la vigilancia masiva en Estados Unidos

Expandir imagen
EE. UU. dice que IA de Anthropic representa riesgo inaceptable para el ejército
El modelo de IA Claude de Anthropic ha estado en el punto de mira en las últimas semanas tanto por su supuesto uso en la identificación de objetivos para bombardeos estadounidenses en Irán. (FUENTE EXTERNA)

La firma de inteligencia artificial Anthropic plantea un "riesgo inaceptable" para las cadenas de suministro militares, insistió el gobierno de Estados Unidos el martes al justificar su decisión de designarla como peligrosa para el país.

El modelo de IA Claude de Anthropic ha estado en el punto de mira en las últimas semanas tanto por su supuesto uso en la identificación de objetivos para bombardeos estadounidenses en Irán como por la negativa de la compañía a que sus sistemas se utilicen para impulsar la vigilancia masiva en Estados Unidos o sistemas de armas letales totalmente autónomos.

Para justificar su decisión de cortar lazos con Anthropic en respuesta a una demanda de la empresa, el Departamento de Guerra (DoW) estadounidese dijo que le preocupaba que "permitir que continuara accediendo a la infraestructura de combate técnico y operacional del DoW introduciría un riesgo inaceptable en las cadenas de suministro del DoW", según un documento judicial al que tuvo acceso la AFP.

"Los sistemas de IA son especialmente vulnerables a la manipulación", añadió el gobierno en la presentación ante un tribunal federal de California.

"Anthropic podría intentar desactivar su tecnología o alterar de forma preventiva el comportamiento de su modelo antes o durante operaciones bélicas en curso, si Anthropic —a su discreción— considera que se están traspasando sus 'líneas rojas' corporativas", señaló.

La negativa de Anthropic a aceptar que su tecnología de IA pudiera ser empleada por los militares para "cualquier uso legal" planteaba, por tanto, un "riesgo inaceptable para la seguridad nacional", según el documento.

Clasificación de la empresa de IA

La clasificación de Anthropic como "riesgo para la cadena de suministro", que la firma ha impugnado en una causa contra el Pentágono y otros órganos del gobierno federal, implica en teoría que todos los proveedores del gobierno tendrían prohibido hacer negocios con la empresa.

Esta designación suele reservarse para organizaciones de países adversarios extranjeros, como el gigante tecnológico chino Huawei.

Otras grandes tecnológicas estadounidenses, como Microsoft, que a su vez utiliza el modelo Claude de Anthropic y abastece al ejército estadounidense, se han alineado con la compañía de IA.

"No es el momento de poner en riesgo el ecosistema de IA que la administración ha contribuido a impulsar", afirmó Microsoft en un escrito amicus curiae presentado ante el tribunal la semana pasada.

TEMAS -

AFP es una importante agencia de información mundial que ofrece una cobertura rápida, contrastada y completa.