YouTube está siguiendo el ejemplo de Twitter y Facebook, diciendo que tomará pasos para limitar a QAnon y otros grupos que creen en teorías de conspiraciones sin fundamento que podrían conducir a verdaderos actos de violencia.
La plataforma de vídeos, propiedad de Google, indicó el jueves que ahora prohibirá material que apunte a una persona o un grupo con teorías de conspiración que hayan sido usadas para justificar actos de violencia.
Un ejemplo serían vídeos que amenacen o acosen a alguien al sugerir que ellos son parte de una conspiración, como lo hace QAnon, la cual pinta al presidente Donald Trump como un guerrero secreto batallando contra una organización de supuesto tráfico de niños manejado por celebridades y funcionarios gubernamentales que serían parte de un “estado profundo”.
El Pizzagate es otra teoría de conspiración que ha circulado en internet, esencialmente la semilla de QAnon, que caería en la categoría de los vedados por Youtube. Sus promotores aseguraban que niños estaban siendo lastimados en una pizzeria de Washington D.C. Un hombre que creyó en la supuesta conspiración entró al restaurante en diciembre del 2016 y disparó un rifle de asalto. Fue sentenciado a prisión en el 2017.
YouTube es la tercera de las principales plataformas en anunciar políticas que buscan suprimir a QAnon, un grupo de teorías de conspiración que todos ayudaron a avanzar.
Twitter anunció en julio una ofensiva contra QAnon, aunque no se prohibió a sus seguidores de la plataforma. Si prohibió miles de cuentas asociadas con contenido de QAnon y bloqueó páginas web asociadas con el grupo para que estas no pudieran ser promovidas desde Twitter. Twitter también dijo que dejaría de recomendar tuits asociados con QAnon.
Facebook, mientras tanto, anunció la semana pasada que estaba prohibiendo a grupos que abiertamente respaldan a QAnon. Dijo que cancelaría páginas, grupos y cuentas de Instagram por representar a QAnon, aún si no promovían la violencia.
La red social dijo que considerará una variedad de factores al decidir qué grupos cumplen con el criterio para ser prohibidos. Esos incluyen el nombre del grupo, su biografía o información de antecedentes, o discusiones dentro de su página o grupos en Facebook, o cuenta en Instagram, que es propiedad de Facebook.
La medida de Facebook se produce dos meses después de anunciar una ofensiva menos agresiva, diciendo que dejaría de promover al grupo y sus seguidores. Pero ese esfuerzo falló debido a un inconsistente cumplimiento.
YouTube dijo que ya había retirado decenas de miles de vídeos de QAnon y eliminado cientos de canales bajo sus políticas actuales, especialmente aquellos que explícitamente amenazan con violencia o que nieguen la existencia de eventos mayores de violencia.
"Todo este trabajo ha sido esencial en reducir el alcance de conspiraciones dañinas, pero hay más que podemos hacer para enfrentar ciertas teorías de conspiraciones que son usadas para justificar actos reales de violencia, como QAnon”, dijo la compañía el jueves.
Expertos dicen que la medida muestra que YouTube está tomando en serio las amenazas relacionadas a teorías de conspiraciones violentas y reconociendo la importancia de limitar el avance de esas conspiraciones. Pero, con QAnon irrumpiendo cada vez más en la política y la vida de Estados Unidos, se preguntan si no es demasiado tarde.
"Mientras esto es un cambio importante, por casi tres años YouTube fue un lugar importante para el avance de QAnon”, dijo Sophie Bjork-James, una antropóloga de la Universidad de Valderbilt, que ha estudiado QAnon. “Sin la Plataforma, QAnon posiblemente continuaría siendo una oscura conspiración. Por años, YouTube proveyó al grupo radical con una audiencia internacional”.