La desinformación se ha propagado en redes sociales, en medio de la tragedia ocasionada por los incendios forestales que comenzaron el 7 de enero de 2025 en el área de Los Ángeles, California, y que hasta la fecha han dejado al menos 24 muertos, miles de desplazados y más de 12.000 estructuras destruidas, según reportes de medios.
A continuación, presentamos tres de las publicaciones falsas más virales sobre los incendios en Los Ángeles, todas creadas con inteligencia artificial (IA).
1. Las falsas imágenes sobre el cartel de Hollywood en llamas generadas con IA
Una de las desinformaciones más replicadas en redes sociales, específicamente en la plataforma X, consiste en videos o imágenes fijas que muestran el cartel gigante de Hollywood y el paisaje a su alrededor ardiendo en llamas.
“Parece una imagen sacada de una película, pero lamentablemente es real. ¡Incendios en California alcanzan el icónico letrero de #Hollywood ! La situación es crítica, y equipos de emergencia trabajan sin descanso para contener el avance del incendio. #PrayForLA #California”, así comentó un usuario de X al tiempo que compartía una foto del supuesto cartel, la cual recibió más de 22 mil vistas.
Por otro lado, el 10 de enero, otra cuenta de X compartió un video en el que se muestra el icónico cartel de Hollywood ardiendo entre llamas, acompañado de música de suspenso. Este post ha acumulado más de 7 millones de visualizaciones y más de 3.000 réplicas.
Sin embargo, ambas publicaciones son falsas. Expertos en verificación como El Sabueso, Reuters Fact Check, EFE Verifica han confirmado que hasta la fecha el letrero sigue en pie y que las imágenes han sido generadas con IA. Incluso, a simple vista en una de ellas se puede percibir una letra ele de más.
Según EFE Verifica, de acuerdo con el informe del Gobierno de California, ningún fuego alcanzó el Parque Griffith en el que está situado el letrero. Además, el análisis realizado a las imágenes muestran elevadas probabilidades de que estén generados con IA.
Jeff Zarrinnam, presidente de la organización Hollywood Sign Trust, opens new tab, dijo a Reuters el 9 de enero que el monumento no había sido afectado y estaba “seguro”.
Por otro lado, James O’Brien, profesor de informática en la Universidad de California, Berkeley, en correo electrónico a Reuters, se refirió a algunas de las imágenes que no presentan marcas, analizando rasgos como “la iluminación poco natural de las letras del cartel y los diferentes niveles de compresión entre el fuego, la iluminación y el fondo, son señales de que el fuego fue agregado a la foto; ya sea mediante un software de edición de imágenes o una IA generativa”.
2. El video falso de las carreteras de Los Ángeles incendiadas: otra creación de la IA
Con sonidos de sirenas y un fuego devastador que se extiende por todas partes, usuarios de redes sociales han compartido como real una secuencia de imágenes de aproximadamente 30 segundos, en la que se muestra las carreteras de Los Ángeles en medio de los incendios.
Ejemplo de esto es una publicación en X el 10 de enero, que describe el video como “El incendio en Los Ángeles, California”. Hasta la fecha, el post ha superado las 500.000 vistas y ha sido replicado más de 2.000 veces.
Aunque los incendios forestales de California han dejado a su paso imágenes impactantes, estas publicaciones no se corresponden con la realidad. El video muestra claros indicios de haber sido generado con IA, una conclusión a la que llegaron los expertos en verificación de Maldita.es, Chequeado, Infoveritas y Newtral, quienes analizaron el mismo contenido en plataformas como Facebook, Instagram y TikTok.
Mediante una búsqueda inversa en Google utilizando capturas del video, se comprobó que el material solo ha sido compartido en redes sociales y no en medios de comunicación establecidos o confiables. Además, algunas publicaciones en X han sido etiquetadas con notas por parte de la comunidad en la plataforma.
Por su parte, el medio Infoveritas, analizó las imágenes con Hive Moderation, una herramienta para detectar la probabilidad de que sean creadas con IA. Los porcientos en 2 de las imágenes analizadas fueron superiores al 50 %.
Entre las inconsistencias que presenta el video, destacan los siguientes detalles:
En las imágenes de una carretera rodeada de palmeras y una montaña en llamas, los cables parecen discontinuos, "se cortan a la mitad o su punto de conexión no coincide con los postes". Además, "un cable cruza la carretera a una altura muy baja, lo cual resulta incoherente si van a pasar camiones o vehículos altos", según señala Newtral.
Maldita.es también identificó que en una parte del video, “se ve un solo coche circulando por una carretera y al instante aparece un segundo vehículo de la nada u otro coche que desaparece mientras circula por la carretera”.
3. Más de la IA: falsas imágenes de bomberos salvando animales
Los incendios en el área de Los Ángeles también han afectado a cientos de animales. Algunos han logrado escapar junto a sus dueños, mientras que otros han quedado atrapados entre las llamas.
En este contexto, ha circulado un video de aproximadamente 30 segundos en el que se muestra a un bombero (que podría no ser el mismo, ya que lleva ropa diferente) salvando ciervos, perros y caballos de las llamas.
“Un bombero rescata Bambis en los incendios de California”, escribió una cuenta de X junto al video, el 11 de enero. La publicación ha acumulado hasta la fecha alrededor de 400.000 visualizaciones y más de 2.000 réplicas.
A pesar de que se trata de un mensaje que destaca positivamente el trabajo que realizan los bomberos al salvar vidas humanas y animales, este video es una desinformación.
Mediante una búsqueda inversa de fotogramas en Google, se localizó el posible origen de este material en una cuenta de Instagram llamada FutureRiderUS, que se presenta como un "bloguero/a" dedicado a crear videos virales.
Los materiales publicados por este creador digital tienen un denominador común: han sido creados con ayuda de tecnología, en su mayoría, inteligencia artificial.
Según un Informe sobre Riesgos Globales 2024 presentado el Foro Económico Mundial (FEM), la propagación de información falsa o errónea, potenciadas por la inteligencia artificial, se ha establecido como uno de los principales riesgos a corto plazo a nivel mundial.
“Uno puede recurrir a la IA para hacer videos manipulados y para tener un impacto en grupos grandes, lo que impulsa mucho la desinformación”, afirmó a inicios del pasado año, Carolina Klint, cuya compañía matriz, Marsh McLennan, coescribió el reporte junto con Zurich Insurance Group.
“Las sociedades podrían volverse más polarizadas” conforme la gente encuentra más dificultades para verificar los hechos, advirtió Klint.
Estos nuevos avances comienzan a generar dudas, incluso sobre la fiabilidad de los medios de comunicación, como se señala en un artículo de investigación titulado “Videos falsos y desinformación ante la IA: el deepfake como vehículo de la posverdad”, publicado en la Revista de las Ciencias de la Comunicación y la Información en 2024.
“El aprendizaje profundo de las redes neuronales artificiales genera nuevas formas de deepfake, desconcertantes por su realismo y verosimilitud, que empiezan a cuestionar los medios de comunicación, deslegitimando la representación de la realidad y la información veraz como base de una sociedad democrática”, señalaron los autores del artículo, Lucía Ballesteros y Francisco Javier Ruiz, ambos de la Universidad de Málaga, España.
¡Conéctate con la Voz de América! Suscríbete a nuestros canales de YouTube, WhatsApp y al newsletter. Activa las notificaciones y síguenos en Facebook, X e Instagram.