Facebook admite que no puede impedir totalmente los contenidos nocivos
La muerte de un moderador de los contenidos de Facebook arroja sombras acerca de las condiciones y el estrés que supone lidiar con "lo peor de la humanidad"
Facebook se enfrenta, igual que otros servicios de contenidos generados por los usuarios como Google, Youtube o Twitter, a la dificultad de impedir que contenidos nocivos como las noticias falsas, el racismo, los discursos del odio, la propaganda terrorista y la violencia, entre otros, lleguen a su plataforma.
Incluso en los últimos meses se ha criticado a las plataformas sociales de «no hacer lo suficiente» para combatir los contenidos indeseados al margen de cuál sean los límites. Un problema que «no tiene solución del todo» según Carolyn Everson, vicepresidenta de marketing de Facebook en declaraciones recogidas por Bloomberg, «porque las plataformas sociales reflejan el lado pernicioso de la humanidad.»
El debate llegó a su punto álgido tras la difusión del vídeo del ataque terrorista de Nueva Zelanda, que se retransmitió en directo a través de Facebook debido a que fallaron los controles que debían evitar su difusión.
Entonces Facebook reconoció que su inteligencia artificial para el control de contenidos «no es perfecta» y que probablemente nunca lo será, pero se comprometió a mejorar su tecnología para prevenir la propagación de ese tipo de retransmisiones en tiempo real.
Como resultado de aquella situación algunas regiones preparan leyes para regular los contenidos de las redes sociales, un sector que «durante mucho tiempo ha eludido la responsabilidad por lo que sus usuarios dicen o comparten», en palabras del secretario del Reino Unido Jeremy Wright.
«Cuerpos en sillas»
Lejos de eludir plenamente su responsabilidad sobre los contenidos que comparten sus usuarios Facebook cuenta con un ‘ejército’ de hasta 30.000 moderadores de contenidos.
Sin embargo, según una investigación de Casey Newton para The Verge, las condiciones de trabajo de la mayoría de estos moderadores, que prestan servicio a través de subcontratas, son «indescriptiblemente estresantes,» en palabras de uno de esos trabajadores.
La situación de estos trabajadores ha vuelto a cobrar protagonismo (The Verge ya había realizado una investigación similar antes) tras la muerte en su puesto de trabajo de Keith Utley, el pasado 9 de mayo, debido a un paro cardíaco. Algunos compañeros de Utley achacan su muerte al estrés y a las condiciones laborales.
«Los moderadores tienen dos descansos de 15 minutos al día y 30 minutos para comer, además de 9 minutos diarios de tiempo de «relajación» al que pueden recurrir cuando se sienten sobrepasados por la carga emocional del trabajo,» dicen en The Verge. Pero después de estar «continuamente expuestos a violencia gráfica y a explotación infantil a muchos moderadores se les diagnostica un trastorno de estrés postraumático y otras afecciones relacionadas.»
De hecho el artículo «Bodies in seats» en The Verge arranca con una advertencia al lector precisamente porque relata algunos de los contenidos a los que se ven expuestos los moderadores, que incluyen «descripciones de actos violentos contra personas y animales, relatos de acoso sexual y otros contenidos potencialmente desagradables.»
A lo anterior hay que sumar que, según Newton, los empleados que se han pronunciado sobre sus condiciones de trabajo hablan de «una presión implacable de sus mandos para cumplir con los estrictos objetivos de Facebook.»
Los diversos testimonios de estos empleados que recoge la investigación de The Verge, y algunas de las fotografías que acompañan el artículo, se contradicen con declaraciones de ejecutivos de Facebook que sostienen que las condiciones de trabajo descritas «no reflejan con precisión» la rutina diaria de la mayoría de los moderadores, mientras que Casey Newton asegura haber recibido «docenas de mensajes de moderadores de todo el mundo, muchos de los cuales hablan de situaciones similares.»