Un video en el que se utiliza una herramienta de clonación de voz de inteligencia artificial para imitar la voz de la vicepresidenta de Estados Unidos, Kamala Harris, para que parezca que dijo cosas que nunca dijo, está suscitando preocupaciones por el poder que tiene la inteligencia artificial para engañar, a sólo tres meses de que se realicen las elecciones generales.
El video acaparó la atención después de que el multimillonario Elon Musk lo compartiera en su plataforma de redes sociales X el viernes por la noche sin señalar explícitamente que se había publicado originalmente como parodia.
A última hora del domingo, Musk aclaró que el video era una sátira, fijando la publicación del creador original en su perfil y utilizando un juego de palabras para señalar que la parodia no es un delito.
El video utiliza muchos de los elementos visuales de un anuncio real que Harris, la probable candidata demócrata a la presidencia, publicó la semana pasada para lanzar su campaña. Pero el anuncio falso sustituye la voz en off de Harris por una voz generada por inteligencia artificial que la imita de forma convincente.
“Yo, Kamala Harris, soy su candidata demócrata a la presidencia porque Joe Biden finalmente sacó a la luz su senilidad en el debate”, dice la voz creada por IA en el video. Afirma que Harris es alguien “contratada por la diversidad” porque es mujer y persona no blanca, y dice que no sabe “lo más mínimo sobre cómo dirigir el país”. El video mantiene la marca “Harris para Presidenta”. También añade algunos clips auténticos de Harris que fueron tomados en el pasado.
También lea Cómo se han utilizado los deepfakes para desinformar sobre la guerra en UcraniaMia Ehrenberg, portavoz del equipo de campaña de Harris, dijo en un correo electrónico enviado a The Associated Press que “creemos que el pueblo estadounidense quiere la verdadera libertad, oportunidad y seguridad que ofrece la vicepresidenta Harris, no las mentiras falsas y manipuladas de Elon Musk y Donald Trump”.
El video, que ha sido ampliamente compartido, es un ejemplo de cómo se han utilizado imágenes, videos o clips de audio generados por inteligencia artificial tanto para burlarse como para engañar con respecto a la política, a medida que Estados Unidos se acerca a las elecciones presidenciales. Expone cómo, conforme las herramientas de IA de alta calidad se han vuelto mucho más accesibles, sigue sin haber una acción federal significativa hasta ahora para regular su uso, dejando las normas que rigen la IA en la política en gran medida a los estados y las plataformas de medios sociales.
El video también plantea cuestiones sobre la mejor manera de tratar los contenidos que desdibujan los límites de lo que se considera un uso apropiado de la IA, sobre todo si entran en la categoría de sátira.
El usuario original que publicó el video, un youtuber conocido como Mr Reagan, ha indicado desde un inicio tanto en YouTube como en X que el video manipulado es una parodia. Pero el post inicial de Musk, que ha sido visto más de 130 millones de veces, según la plataforma, sólo incluía el comentario “Esto es increíble”, con un emoji de risa.
El fin de semana, antes de que Musk aclarara en su perfil que el video era una broma, algunos usuarios de “notas de la comunidad″ de X —una función que sirve para añadir contexto a las publicaciones— sugirieron etiquetar su publicación como manipulada. Esta etiqueta no se ha añadido, aunque Musk ha publicado un comentario aparte sobre el video paródico.
Algunos usuarios se preguntaban si su publicación inicial podría violar las políticas de X, que dicen que los usuarios no pueden “compartir de forma engañosa contenido multimedia falso o alterado que probablemente causaría daño”.
Your browser doesn’t support HTML5
La red social X prevé una excepción para los memes y la sátira siempre que no causen “confusión significativa sobre la autenticidad de los contenidos multimedia”.
Chris Kohls, el hombre detrás del personaje virtual de Mr. Reagan, remitió a un reportero de AP a un video de YouTube que publicó a primera hora del lunes para responder a lo ocurrido. En el video de YouTube, confirmó que utilizó IA para hacer el anuncio falso y argumentó que era obviamente una parodia, con o sin etiqueta.
Musk apoyó este mes al candidato republicano, el expresidente Donald Trump. No contestó a la solicitud de comentarios enviada por correo electrónico.
Dos expertos en contenidos multimedia generados por IA revisaron el audio del anuncio falso y confirmaron que gran parte de éste se había generado con tecnología de IA.
Uno de ellos, Hany Farid, experto en análisis forense digital de la Universidad de California, campus Berkeley, dijo que el video es una muestra del poder de la IA generativa y los videos manipulados digitalmente.
“La voz generada por la IA es muy buena”, afirma en un correo electrónico. “Aunque la mayoría de la gente no creerá que es la voz de la vicepresidenta Harris, el video es mucho más impactante cuando las palabras salen con su voz”.
Farid dijo que las empresas de IA generativa que ponen a disposición del público herramientas de clonación de voz y otras herramientas de IA deberían esforzarse más por garantizar que sus servicios no se utilicen de forma que puedan perjudicar a las personas o a la democracia.
Rob Weissman, copresidente del grupo de defensa Public Citizen, discrepó de Farid y dijo que creía que el video engañaría a mucha gente.
“No creo que sea obvio que se trata de una broma”, dijo Weissman en una entrevista. “Estoy seguro de que la mayoría de la gente que lo ve no asume que es una broma. La calidad no es muy buena, pero sí lo suficiente. Y precisamente porque se alimenta de temas preexistentes que han circulado a su alrededor, la mayoría de la gente creerá que es real”.
Weissman, cuya organización aboga ante el Congreso, las agencias federales y los estados para que regulen la IA generativa, dijo que el video es “el tipo de cosas sobre las que hemos estado advirtiendo”.
Otros deepfakes de IA generativa, tanto en Estados Unidos como en otros países, habrían intentado influir en los votantes con desinformación, humor o ambas cosas. En Eslovaquia, en 2023, unos clips de audio falsos suplantaron a un candidato que hablaba de planes para amañar unas elecciones y subir el precio de la cerveza días antes de la votación. En Luisiana, en 2022, un anuncio satírico de un comité de acción política superpuso la cara de un candidato a alcalde a la de un actor que lo representaba como un estudiante de secundaria con bajo rendimiento.
El Congreso aún no ha aprobado una normativa sobre el uso de la IA en la política, y las agencias federales sólo han tomado medidas limitadas, dejando la mayor parte de la regulación estadounidense existente en manos de los estados. Más de un tercio de los estados han creado sus propias leyes para regular el uso de la IA en campañas y elecciones, según la Conferencia Nacional de Legislaturas Estatales.
Además de X, otras empresas de redes sociales también han desarrollado políticas relativas a los contenidos multimedia alterados y manipulados que se comparten en sus plataformas. Los usuarios de la plataforma de videos YouTube, por ejemplo, deben revelar si han utilizado inteligencia artificial generativa para crear videos o se enfrentarían a una suspensión.
¡Conéctate con la Voz de América! Suscríbete a nuestros canales de YouTube, WhatsApp y al newsletter. Activa las notificaciones y síguenos en Facebook, X e Instagram.