EE. UU. dice que IA de Anthropic representa "riesgo inaceptable" para el ejército
La firma de inteligencia artificial también se ha negado a que sus sistemas se utilicen para impulsar la vigilancia masiva en Estados Unidos
La firma de inteligencia artificial Anthropic plantea un "riesgo inaceptable" para las cadenas de suministro militares, insistió el gobierno de Estados Unidos el martes al justificar su decisión de designarla como peligrosa para el país.
El modelo de IA Claude de Anthropic ha estado en el punto de mira en las últimas semanas tanto por su supuesto uso en la identificación de objetivos para bombardeos estadounidenses en Irán como por la negativa de la compañía a que sus sistemas se utilicen para impulsar la vigilancia masiva en Estados Unidos o sistemas de armas letales totalmente autónomos.
Para justificar su decisión de cortar lazos con Anthropic en respuesta a una demanda de la empresa, el Departamento de Guerra (DoW) estadounidese dijo que le preocupaba que "permitir que continuara accediendo a la infraestructura de combate técnico y operacional del DoW introduciría un riesgo inaceptable en las cadenas de suministro del DoW", según un documento judicial al que tuvo acceso la AFP.
"Los sistemas de IA son especialmente vulnerables a la manipulación", añadió el gobierno en la presentación ante un tribunal federal de California.
"Anthropic podría intentar desactivar su tecnología o alterar de forma preventiva el comportamiento de su modelo antes o durante operaciones bélicas en curso, si Anthropic —a su discreción— considera que se están traspasando sus 'líneas rojas' corporativas", señaló.
La negativa de Anthropic a aceptar que su tecnología de IA pudiera ser empleada por los militares para "cualquier uso legal" planteaba, por tanto, un "riesgo inaceptable para la seguridad nacional", según el documento.
Clasificación de la empresa de IA
La clasificación de Anthropic como "riesgo para la cadena de suministro”, que la firma ha impugnado en una causa contra el Pentágono y otros órganos del gobierno federal, implica en teoría que todos los proveedores del gobierno tendrían prohibido hacer negocios con la empresa.
Esta designación suele reservarse para organizaciones de países adversarios extranjeros, como el gigante tecnológico chino Huawei.
Otras grandes tecnológicas estadounidenses, como Microsoft, que a su vez utiliza el modelo Claude de Anthropic y abastece al ejército estadounidense, se han alineado con la compañía de IA.
"No es el momento de poner en riesgo el ecosistema de IA que la administración ha contribuido a impulsar", afirmó Microsoft en un escrito amicus curiae presentado ante el tribunal la semana pasada.
EE. UU. dice que IA de Anthropic representa "riesgo inaceptable" para el ejército
Israel no reabre el cruce gazatí de Rafah pese a haberlo anunciado
La OTAN adapta su misión en Irak por la seguridad de su personal
Trump dice que EE. UU. no necesita de Ormuz y amenaza con dejar su seguridad a otros países