Una cámara oculta revela prácticas perversas de los moderadores de Facebook
El canal de TV Channel 4 revela que los moderadores de Facebook son instruidos para mantener todo tipo de contenidos tóxicos
Un reportero infiltrado con una cámara oculta logró entrar a trabajar como moderador de contenidos en las oficinas de CPL Resources en Dublín, un compañía que lleva años prestando servicios a Facebook. Pero el reportero trabajaba en realidad para la cadena británica Channel 4.
De las grabaciones obtenidas la cadena emitió ayer un reportaje titulado Inside Facebook: Secrets of a Social Network que revela algunas de las premisas en las que se instruye a los moderadores de contenidos de Facebook. Los moderadores son el personal encargado de supervisar que lo que se publica en Facebook no viola la ley ni las condiciones de uso de esta red social.
Comer crías de rata vivas y grabarlo es «es aceptable» si se trata de «alimentarse»
Sin embargo el vídeo revela cómo se alecciona a los moderadores para que sepan cuándo y cómo deben actuar dependiendo de cada caso, de quién hace qué y de cuántos seguidores tiene, lo que propicia que los moderadores se salten las políticas de Facebook y en ocasiones la Ley.
Todo es relativo, también los contenidos tóxicos en Facebook
Según BBC News los moderadores son formados para que «ignoren de forma rutinaria los mensajes compartidos por niños que pueden ser menores de edad» o menores de la edad mínima requerida para disponer de una cuenta en Facebook.
También «a pesar de las numerosas peticiones para que sean eliminados los moderadores mantienen online vídeo explico que muestran a niños víctimas de malos tratos», dice la publicación.
Facebook niega rotundamente beneficiarse económicamente del contenido explícito
También según la grabación de Channel 4 uno de los formadores explica que vídeos como ese, en el que se ve cómo un adulto pega a un niño, deben marcarse como «contenido explícito» pero nada más, porque «si censuramos demasiado entonces la gente perderá el interés en la plataforma.»
Otras prácticas reveladas por el documental y recogidas por BBC News incluyen directices sobre los abusos raciales a los inmigrantes: «se permiten». También al parecer se puede dejar correr una caricatura en la que un adulto mete la cabeza de una niña en el agua y se puede leer el texto «Qué hacer con las hijas si su primer ligue es un joven de color», algo que la propia Facebook ha admitido «viola sus políticas en contra de la incitación al odio.»
Una muerte violenta «no hay que borrarla necesariamente» según los formadores grabados por la cadena de televisión
También, según BBC y Business Insider, en el programa de Channel 4 se ve cómo «un moderador le dice al reportero encubierto que no actúe activamente con respecto a los usuarios que pueden ser menores de edad a menos que el usuario admita tener menos de 13 años.»
Entre otros ejemplos y mientras que las imágenes de mujeres en top-less (o cualquier imagen en las que aparezcan pezones) hay que eliminarlas directamente, «no hay que borrar necesariamente» la grabación de una muerte violenta que se puede «resolver» marcando el contenido como «explícito».
De forma parecida «se puede dejar pasar» un vídeo en el que un tipo se come crías de rata vivas si su propósito es el de «alimentase», porque «no viola la política de Facebook en contra de la crueldad contra los animales.»
Según Facebook «los monitores involucrados han vuelto a hacer el curso de formación»
«Las páginas con un gran número de seguidores son ‘contenido protegido’ y no pueden ser borradas por los moderadores de CPL», la compañía subcontratada por Facebook. «En cambio son los empleados de Facebook quienes se encarga de poner esas páginas en revisión. Una de esas páginas protegidas es la del activista de extrema derecha Tommy Robinson, según Channel 4, a la que siguen poco más de 904.000 personas», dicen en Business Insider.
En un post al respecto desde Facebook aseguran que «después de ver el programa» la compañía quiere «dejar claro que eliminamos contenido de Facebook independientemente de quién lo publique cuando infrinja nuestras normas. No hay protecciones especiales para ningún grupo, ni a la derecha ni a la izquierda.»
Facebook se disculpa y asegura que cambiará los procesos de moderación
Facebook ha confirmado a la BBC que durante los meses de abril y mayo se había producido «un cuello de botella en la moderación de contenidos», pero que aquello ya estaba solucionado y que la compañía «planea ampliar la plantilla de moderadores de 10.000 a 20.000 personas este año».
Además, dice Facebook, la red social está invirtiendo en tecnología que «les ayude a procesar el contenido problemático de forma más eficaz.»