Inteligencia artificial para evaluar la credibilidad de los medios
En lugar de luchar contra las "fake news" noticia por noticia un grupo de investigadores propone un algoritmo para detectar medios adulterados
Las redes sociales dedican sus esfuerzos a luchar contra las «fake news«, pero tal vez la respuesta al problema esté en los medios de comunicación sensacionalistas más que en las propias noticias.
Empresas como Facebook contratan a miles de trabajadores y tiran de sofisticados sistemas de inteligencia artificial para detectar posibles noticias falsas y retirarlas del ciclo noticioso, pero un grupo de investigadores en EEUU y Catar desarrollan un algoritmo que supervisa los contenidos de la prensa, más que los artículos individuales que se viralizan en la web.
La inteligencia artificial se desarrolla en el Instituto Tecnológico de Massachusetts (MIT) y el Instituto de Investigación de Informática de Catar y tiene el objetivo de evaluar la calidad de las fuentes de una noticia por encima de la propia noticia.
Trabajando en el supuesto de que la prensa sensacionalista no está próxima a cambiar sus actitudes periodísticas el algoritmo de aprendizaje automático tira de colecciones de artículos existentes para medir la precisión y el posible sesgo de una fuente informativa, estudiando el lenguaje de las noticias para descubrir el sensacionalismo.
Así funciona el sistema que detecta a la prensa mentirosa
Los investigadores estudiaron más de 2.000 medios de comunicación para entrenar el sistema de inteligencia artificial y encontrar las similitudes entre ellos a la hora de abordar las «fake news». La clave siempre está en el lenguaje, que para las informaciones tergiversadas suele ser exagerado y cargado emocionalmente.
El algoritmo también tiene en cuenta la longitud de la página del medio de comunicación en Wikipedia y hasta su dirección URL, al considerar que los enlaces complicados tienen mayores probabilidades de brindar información poco veraz.
Este algoritmo todavía no está listo para implementarse en las labores de la guerra contra las «fake news», pero podría tener consecuencias impresionantes en la causa. Facebook, Whatsapp, Twitter y Youtube, por ejemplo, podrían usar esta inteligencia artificial para bloquear automáticamente las noticias de sitios clasificados como deshonestos, aunque los moderadores humanos seguirían siendo necesarios para aquellas situaciones en las que el resultado es confuso.
Los mismos medios de comunicación y los sitios de verificación de datos podrían tirar de esta tecnología para saber si una fuente es auténtica.
No obstante, estos avances no están exentos de la crítica. Los sistemas de inteligencia artificial que ya se han puesto en marcha son señalados por un posible «sesgo liberal», puesto que el fenómeno de las «fake news» ha sido hasta ahora más evidente en la prensa conservadora. Además el sistema todavía no es perfecto (pero de eso se trata el aprendizaje automático).
Por el momento el algoritmo solo puede detectar la exactitud de un medio con una eficacia del 65%, y el sesgo en un 80%. También necesita de al menos 150 artículos por fuente para dar un resultado confiable, por lo que no serviría para evaluar medios incipientes.