La reaparición mediante IA de personalidades fallecidas divierte y exaspera

Familiares de figuras como Robin Williams y Malcolm X han expresado su descontento por el uso de sus imágenes en videos generados por inteligencia artificial, lo que ha llevado a OpenAI a implementar restricciones

Las creaciones de IA provocan un debate sobre el control de imágenes de personas fallecidas. (AFP)

En una realidad paralela, la reina Isabel II se maravilla ante unos bollitos de queso, un Saddam Hussein armado hasta los dientes entra pavoneándose en un ring de lucha libre y el papa Juan Pablo II intenta andar en skate.

Videos hiperrealistas de celebridades fallecidas, creados con aplicaciones de inteligencia artificial (IA) fáciles de usar como Sora de OpenAI, inundan las redes sociales y suscitan un debate sobre el control de la imagen de los difuntos.

La aplicación de OpenAI, lanzada en septiembre y considerada para muchos una máquina de "deepfakes" (contenidos hiperrealistas falsos generados por IA), ha producido un flujo de videos de figuras históricas, incluido Winston Churchill, así como de celebridades como Michael Jackson y Elvis Presley.

En un clip de TikTok revisado por la AFP, la reina Isabel II, con collar de perlas y corona, llega a un combate de lucha libre en scooter, cruza la cuerda y salta sobre un luchador.

En otro clip en Facebook, la reina elogia unos bollitos de queso en un pasillo de supermercado, mientras que en otro más se la ve jugando al fútbol. 

Pero no todos los videos generados por el modelo Sora 2 de OpenAI han provocado risas.

En octubre, el gigante de la IA impidió a los usuarios de su aplicación Sora crear videos utilizando la imagen de Martin Luther King Jr. tras las quejas de sus herederos.

Algunos usuarios habían hecho videos en los que este ícono de la lucha por los derechos civiles hacía ruidos de mono durante su famoso discurso "I Have a Dream" (Tengo un sueño), y profería comentarios groseros, ofensivos o racistas.

"Enloquecedor" 

"Estamos entrando en el 'valle inquietante'", explicó Constance de Saint Laurent, profesora en la Universidad de Maynooth, en Irlanda, en referencia a esa teoría según la cual, cuando un objeto alcanza cierto grado de semejanza antropomórfica o de hiperrealismo, provoca una sensación de angustia y malestar.

"Si de pronto empezaras a recibir videos de un ser querido fallecido, sería traumático", dijo a la AFP. "Estos videos tienen consecuencias reales".

En las últimas semanas, los hijos del actor Robin Williams y del activista estadounidense Malcolm X han condenado el uso de Sora para crear videos de sus padres difuntos. 

Zelda Williams, hija de Robin Williams, pidió recientemente en Instagram que dejaran de enviarle clips de su padre generados por IA. Es "enloquecedor", afirmó.

Un portavoz de OpenAI indicó a la AFP que, si bien "en aras de la libertad de expresión existe un fuerte interés en la representación de figuras históricas", las personalidades públicas y sus familias deberían tener el control último de su imagen.

Para las figuras "fallecidas recientemente", representantes autorizados pueden ahora solicitar que su imagen no se utilice en Sora, añadió.

Dejar de confiar 

"A pesar de lo que OpenAI afirma su voluntad de permitir a la gente controlar su imagen, han publicado una herramienta que, claramente, hace lo contrario", señaló a la AFP Hany Farid, cofundador de la empresa estadounidense de ciberseguridad GetReal Security y profesor en la Universidad de California en Berkeley.

"Aunque (en gran medida) han puesto fin a la creación de videos de Martin Luther King Jr., no impiden que los usuarios se apropien de la identidad de muchas otras celebridades", lamentó.

"Más allá de que OpenAI implemente ciertas protecciones" para esa figura política, "habrá otro modelo de IA que no lo haga, y por lo tanto este problema no hará más que empeorar", advirtió Farid.

Esto quedó en evidencia tras el asesinato este mes del director de Hollywood Rob Reiner, cuando los verificadores de AFP descubrieron clips con su imagen generados por IA que se difundían en línea.

A medida que proliferan las herramientas avanzadas de IA, la vulnerabilidad ya no se limita a las figuras públicas: personas fallecidas no célebres también pueden ver sus nombres, su imagen y sus palabras tergiversados con fines de manipulación.

Los investigadores advierten que la propagación sin control de contenido sintético -llamado "AI slop" (contenido basura)- podría, en última instancia, ahuyentar a los usuarios de las redes sociales.

"El problema de la desinformación en general no es tanto que la gente se la crea. Mucha gente no la cree", dijo Saint Laurent. "El problema es que ven información real y no confían" que sea cierto, apuntó. Y herramientas como Sora van a "amplificar masivamente este fenómeno".

AFP es una importante agencia de información mundial que ofrece una cobertura rápida, contrastada y completa.