×
Compartir
Secciones
Podcasts
Última Hora
Edición RD
Servicios
Plaza Libre
Efemérides
Cumpleaños
RSS
Horóscopos
Crucigrama
Más
Contáctanos
Sobre Diario Libre
Aviso Legal
Versión Impresa
versión impresa
Redes Sociales
herramientas de IA
herramientas de IA

Harris: organismos federales deben demostrar que sus herramientas de IA no hacen daño a la gente

Casa Blanca emite normativas sobre el uso responsable de inteligencia artificial en entidades gubernamentales

Expandir imagen
Harris: organismos federales deben demostrar que sus herramientas de IA no hacen daño a la gente
La vicepresidenta Kamala Harris habla sobre salud pública en Raleigh, Carolina del Norte. (AP/MATT KELLEY)

Los organismos federales deben demostrar que sus herramientas de inteligencia artificial no hacen daño a la gente, o bien dejar de usarlas, según nuevas normas reveladas por la Casa Blanca el jueves.

"Cuando los organismos del gobierno utilicen herramientas de IA, les requeriremos que verifiquen que esas herramientas no ponen en peligro los derechos y la seguridad del pueblo estadounidense", dijo la vicepresidenta Kamala Harris a la prensa antes del anuncio.

Para diciembre, cada entidad debe tener un conjunto de salvaguardas concretas que guíen todo, desde las pantallas de reconocimiento facial en los aeropuertos hasta las herramientas de IA que ayudan a controlar la red eléctrica o determinan las hipotecas y seguros de viviendas.

La nueva directiva emitida el jueves a los jefes de los organismos por la Oficina de Administración y Presupuesto de la Casa Blanca es parte del amplio decreto sobre IA firmado por el presidente Joe Biden en octubre.

Si bien el decreto amplio trata de salvaguardar los sistemas comerciales de IA fabricado por las empresas tecnológicas líderes, tales como los que activan los chatbots de IA generativa, la directiva del jueves apunta a las herramientas que los organismos emplean desde hace años para tomar decisiones sobre inmigración, vivienda, bienestar infantil y una gama de servicios.

Como ejemplo, Harris dijo que "si la Administración de Veteranos quiere usar IA en sus hospitales para ayudar a los médicos a diagnosticar a los pacientes, deberán demostrar ante todo que la IA no produce diagnósticos racialmente prejuiciosos".

Los organismos que no pueden aplicar las salvaguardas "deben dejar de usar el sistema de IA a menos que la conducción pueda explicar por qué hacerlo incrementaría los riesgos o derechos en general o crearía un obstáculo insalvable para sus operaciones cruciales", según un anuncio de la Casa Blanca.

Hay otros dos "requisitos vinculantes", dijo Harris. Uno es que las entidades federales deben contratar un jefe de IA con la "experiencia, pericia y autoridad" para supervisar todas las tecnologías de IA empleadas por el organismo, dijo Harris. La otra es que cada año los organismos deben publicar un inventario de sus sistemas de IA que incluya una evaluación de sus posibles riesgos.

Hay algunas excepciones para las agencias de inteligencia y el Departamento de Defensa, que mantiene un debate particular sobre el uso de armas autónomas.

TEMAS -

Noticias y servicios que extienden el alcance global de la cobertura basada en hechos