El reto de incorporar valores humanos en la inteligencia artificial

China y el Occidente priorizan diferentes aspectos en los algoritmos

La inteligencia artificial muestra avances acelerados.

Los algoritmos informáticos codificados con valores humanos determinarán cada vez más los trabajos que obtendremos, las relaciones románticas que comenzaremos, los préstamos bancarios que recibiremos y las personas a las que mataremos, intencionalmente con drones militares o accidentalmente con coches autónomos.

La forma en que incorporemos esos valores humanos en los códigos será una de las fuerzas más importantes que conformarán nuestro siglo. Sin embargo, nadie está de acuerdo en cuáles deberían ser esos valores. Aún más desconcertante es que este debate ahora corre el riesgo de enmarañarse en la rivalidad geotecnológica entre EEUU y China.

Durante los últimos dos siglos, el Occidente ha disfrutado de un casi monopolio en el negocio global de distribuir valores. Ha incorporado sus normas en tratados e instituciones internacionales. Pero en el ámbito digital, ahora se enfrenta a un rival formidable en China, que está emergiendo rápidamente como una superpotencia de inteligencia artificial (IA) decidida a establecer sus propias reglas.

La diferencia entre los valores de China y del Occidente se destacó durante un seminario de ética de IA en la Fundación Nuffield en Londres este mes.

Hasta la fecha, las compañías, los gobiernos y los institutos privados han publicado alrededor de 50 versiones de principios de inteligencia artificial en todo el mundo. Entre ellos se encuentran las mayores empresas de tecnología de China, incluyendo a Tencent y Baidu. En mayo, una academia respaldada por el gobierno emitió los Principios de IA de Beijing.

Los códigos de principios creados en el Occidente tienden a centrarse en la imparcialidad, la transparencia, los derechos individuales, la privacidad y la responsabilidad. Pero Song Bing, director del Centro de Instituto Berggruen de China, argumentó en el seminario que esto choca con la sensibilidad china. “Estos valores son en su mayoría de origen occidental. Eso no significa que no haya resonancia en China y en el resto del mundo. ¿Pero son el conjunto correcto de reglas para un marco normativo global?”, preguntó.

La Sra. Song dijo que los especialistas en ética de IA en China priorizan los valores que son abiertos, inclusivos y adaptables, y que toman en cuenta la totalidad de la humanidad y rechazan la competencia de suma cero. Resumiendo esta filosofía, ella dijo que estos valores resultan en “una gran compasión y una profunda armonía”. El bien colectivo es tan importante como los derechos individuales.

Sin embargo, Liu Zhe, un filósofo de la Universidad de Pekín, dijo que sería un error creer que solamente existe un sistema de valores chino, ya que combina elementos del confucianismo, el taoísmo y el budismo. Esa gama de valores se opondría a un enfoque universal con respecto a la IA dentro de China, mucho menos en otros lugares.

Zeng Yi, de la Academia de Ciencias de China en Beijing, también cuestionó la necesidad de un conjunto global de principios. “No deben competir entre sí, sino que deben completarse entre sí para proporcionar un panorama global para la IA”, dijo.

Incluso preguntó si el intento de “humanizar la IA” tenía sentido, dado que algunos investigadores chinos consideran que los humanos son “los peores animales del mundo”. ¿Tal vez los robots pueden operar bajo un estándar de ética más alto que los humanos? Esta propuesta anti-antropocéntrica, como se ha descrito, alarmó a los participantes occidentales en el seminario, quienes argumentaron que era una promesa falsa y peligrosa.

Estos puntos de vista son importantes porque, como ha argumentado Kai-Fu Lee en su libro AI Superpowers (Superpotencias de la IA), es posible que pronto China liderará el mundo en la aplicación de la IA en muchos campos. Las aplicaciones, los dispositivos y los robots chinos que incorporan estos principios se utilizan cada vez más en todo el mundo.

China ha adoptado lo que el Sr. Lee llama un enfoque “técnico-utilitario”, enfatizando el mayor bien para el mayor número en lugar de un imperativo moral para proteger a los derechos individuales. Eso, sugiere, es una de las razones por las que los consumidores chinos están menos preocupados por la instalación de dispositivos de reconocimiento facial en los carros de los supermercados para personalizar los viajes de compras o en las aulas para detectar a los estudiantes desatentos. En China, los ciudadanos aceptan la vigilancia a cambio de la conveniencia a diferencia del Occidente.

Los críticos advierten que tales argumentos pueden usarse para defender lo que debería ser el uso indefendible de las tecnologías de vigilancia para reprimir la disidencia en Xinjiang y en otros lugares. Además, el uso de datos privados e inteligencia artificial por parte de las organizaciones chinas no sólo afecta a los ciudadanos chinos. Los funcionarios estadounidenses recientemente han expresado preocupaciones sobre la seguridad y la privacidad de la propiedad china de Grindr, la aplicación de citas para la comunidad gay que tiene 4.5 millones de usuarios activos diariamente.

Dadas las diferentes tradiciones culturales, los filósofos podrían debatir para siempre sobre el conjunto perfecto de principios universales de inteligencia artificial. ¿Debería incorporarse un mini-Confucio o un mini-Kant en nuestra aplicación de atención médica? Pero a nivel práctico, necesitamos algún acuerdo mínimo a nivel global. Los marcos internacionales básicos que describen el uso aceptable de la IA en la guerra cibernética y la robótica son un buen lugar para comenzar.