Youtube permite que el odio florezca con tal de crecer
Una veintena de trabajadores y extrabajadores de Youtube revela que la plataforma dejó fluir contenido ofensivo y desinformación para aumentar el tráfico
Censurar el extremismo o subestimarlo para seguir creciendo: a esta disyuntiva se enfrentó Youtube en los últimos años, y ahora debe hacer frente a su decisión. El creciente debate sobre la libertad de expresión en internet es ambiguo y está lleno de trampas, pero el relato sobre la diligencia del portal de vídeos puede servir para probar que las tecnológicas son en parte responsables del problema.
Una veintena de empleados y ex empleados de Youtube han declarado en público que la empresa pudo atajar antes el escándalo del contenido extremista, los discursos de odio y la desinformación, pero que optó por subestimar la nebulosa en aras de aumentar el tiempo de reproducción de los vídeos y, por ende, disparar las ganancias por publicidad.
El informe que desenmascara la postura irreflexiva de la directiva de Youtube, de la que trabajadores actuales o pasados dan cuenta, llega unos días después del ataque terrorista en Nueva Zelanda que ha vuelto a poner las miradas más críticas sobre Facebook (dado que el ataque fue transmitido en vivo en la red social) pero también sobre la plataforma de vídeos, pues algunos de sus creadores de contenido fueron mencionados en la transmisión.
Youtube estaba advertido
Youtube es muy criticado por permitir contenido ofensivo que se beneficia de su algoritmo para llegar a cada vez más personas. Esto incluye desde vídeos anti vacunas, material para pedófilos, teorías de conspiración, panfletos políticos de la extrema derecha y una trepidante cantidad de contenido racista, xenófobo, islamofóbico y homofóbico.
Hace unos años, Youtube se puso el objetivo de llegar a las mil millones de horas de reproducciones diarias, y en esa carrera se dio cuenta de que la indignación vende. «Cuanto más escandaloso es el contenido, más visitas», aseguró la miembro del Centro Carr de la Universidad de Harvard, Brittan Heller. Esa estrategia es la que tiene a Youtube contra las cuerdas, ahora que es apuntado como catalizador del odio y el oscurantismo.
Un reportaje de Bloomberg News culpa en parte a la directora ejecutiva de Youtube, Susan Wojcicki, de este despliegue de contenido problemático en el portal. El informe dice que muchos trabajadores de la empresa advirtieron del auge de estos vídeos en la plataforma desde hace años y del peligro de convertirse en la tribuna de mensajes tóxicos y descontextualizados.
Medidas que llegan tarde
Una fuente que trabajó con Wojcicki la recuerda diciendo: «Mi trabajo es dirigir la compañía, no lidiar con esto». Un ex director de Google, la matriz de Youtube, recientemente explicó que tuvo que bloquear el dominio del sitio en casa después de que su hija encontrara un vídeo sexualizado recomendado por el algoritmo. Esto tiene explicación, según las fuentes.
El algoritmo de Youtube fue creado para impulsar a los usuarios a ver más vídeos sin importar la naturaleza del contenido, y según exempleados la empresa rechazó las preocupaciones de sus trabajadores y les ordenó no prestar atención al problema para no entrar en mayor riesgo legal. La plataforma finalmente tomó medidas para limitar algunos contenidos, pero no han detenido la situación por completo y la medicina quizá llegó muy tarde.
Ahora, con procesos electorales en distintas partes del mundo prontos a tomar lugar, y con más críticas al sector tecnológico por su papel en el desgaste informativo en internet, Youtube está presionado para hacer un mejor trabajo en este sentido. No solo el público general y algunos de sus propios creadores de contenido lo exigen, sino que puede haber consecuencias legales.
En Australia, por ejemplo, este martes se aprobó una ley que podría enviar a prisión o imponer multas de miles de millones de dólares a ejecutivos de tecnológicas que permitan la transmisión de contenidos violentos, informó Axios.