Youtube limita la difusión de vídeos de contenido «engañoso y dañino»
La plataforma de vídeo de Google no sugerirá vídeos que promueven "engaños o afirmaciones falsas" o que resultan "potencialmente peligrosos"
Youtube ha anunciado, a través de su blog, su intención de limitar la difusión de contenidos de vídeo que aunque no violen la normas de la comunidad del servicio se sitúen «al límite» de éstas, sin especificar cuál será el ancho de su manga.
Algunos ejemplos mencionados por Google incluyen los vídeos que difundan «engaños o afirmaciones falsas» o que resulten «potencialmente dañinos,» como en el caso de los remedios milagrosos para enfermedades graves o la promoción de prácticas que ponen en riesgo potencial a los usuarios, como las asociadas al meme ‘Bird Box Challenge’.
Fin a listas interminables de vídeos similares
El propósito de Youtube es eliminar ese tipo de vídeos de los contenidos relacionados, de los vídeos que se sugieren durante o después de la reproducción de un vídeo anterior.
También, y para diversificar los contenidos, anuncia que reducirá la similitud entre los vídeos sugeridos. Así se quiere evitar que un vídeo sobre cómo cocinar galletas vaya seguido de una «lista interminable» de vídeos sobre cómo cocinar galletas, explican en el blog de Youtube.
Estos cambios tienen como propósito «mejorar la calidad de las recomendaciones» y dar menos difusión a «afirmaciones falsas» como que «la tierra es plana» y a teorías como las relacionadas «con eventos históricos como el 9/11.»
Según Youtube el sistema de recomendación promociona cada día y solo en la páginas principal unos 200 millones de vídeos. Es decir, sin contar todos los videos sugeridos y recomendados que se promocionan en cada página y en cada vídeo individual.
Inteligencia artificial entrenada (y sesgada) por humanos
Para aplicar estas restricciones Youtube confía en una combinación de inteligencia artificial y de personas, «examinadores humanos y expertos que entrenan a los sistemas de aprendizaje automático que generan las recomendaciones» aplicando las directrices y proporcionando información «crítica» relativa al contenido y contexto de un video.
Este cambio afectará «a menos del 1%» de los vídeos de Youtube, pero según Google «supondrá una mejor experiencia para la comunidad de YouTube.»
En cualquier caso los vídeos excluidos del sistema de recomendación seguirán ahí, disponibles en la plataforma de vídeo siempre y cuando se ajusten a las normas de la comunidad de Youtube.
La aplicación de la inteligencia artificial para que decida cuán «al límite» de las normas de uso se encuentra un contenido no está extenso de dudas, toda vez que se ha comprobado que las inteligencias artificiales tienden a «heredar» los sesgos de los humanos que las entrenan.
El riesgo de ocultar contenidos que se ajustan a las normas
El término «shadow ban» (prohibición en la sombra) se popularizó el año pasado en internet a raíz de teorías de la conspiración y acusaciones hacia Twitter relacionadas, precisamente, con que perjudicaba la difusión contenidos políticos próximos a los republicanos.
Esta «censura en la sombra» consiste en este caso en mantener el contenido sin eliminarlo porque no inclumple las normas de uso de un servicio, pero lo «invisibiliza» en respecto a otros contenidos para que pase desapercibido en mayor o menor medida.
Además de a Twitter esta teoría también ha señalado, aunque nunca probado, a Google (incluyendo Youtube) Instagram y muy especialmente a Facebook. La red social por excelencia ha sido acusada incluso de «practicar la censura a una escala inimaginable», especialmente por medios de comunicación y políticos afines al partido republicano.
Esta combinación de las dificultades de controlar los contenidos y de los contenidos considerados dudosos o engañosos, que inundan cada vez más las redes sociales, está destruyendo la credibilidad del público en las plataformas sociales en comparación con la credibilidad que el público atribuye a los medios de comunicación convencionales, según el último barómetro de confianza de Edelman.