Monitor Más Monitor


Proponen sistema de IAl para detectar fake news

Proponen sistema de IAl para detectar fake news
Inteligencia Artificial para detectar noticias falsas

Publicación:03-06-2020
++--

Uno de los grandes problemas que asolan las redes sociales e Internet es la distribución de las llamadas fake news, noticias falsas o bulos.

Se expanden prácticamente sin control y pueden llegar a engañar a miles de personas sobre todo tipo de temas, aunque sobre todo predominan los de índole política y social. Por lo tanto, detectarlas antes de que puedan llegar a extenderse es vital para evitar la desinformación y el engaño. Para conseguirlo se están utilizando diversas iniciativas, y ya hay propuestas de sistemas para identificarlas con ayuda de la Inteligencia Artificial. Uno de ellos, planteado por investigadores de Microsoft y la Universidad estatal de Arizona, propone el uso de una técnica conocida como supervisión social ligera.

Este sistema funciona con base en el entrenamiento de un sistema de Inteligencia Artificial en la detección de fake news incluso en escenarios en los que los ejemplos etiquetados como tales no están disponibles, la supervisión social ligera abre la puerta a la exploración de cómo ciertos aspectos de las interacciones entre usuarios indican que las noticias pueden ser engañosas.

Utilizando como base un estudio publicado recientemente, los autores de esta propuesta sugieren que la supervisión ligera, en la que las fuentes ruidosas o imprecisas proporcionan señales que permiten etiquetar datos, podrían mejorar la precisión de la detección de fake news sin necesidad de utilizar ajustes para mejorar la precisión. Para ello han desarrollado un framework al que llaman Tri-relationship for Fake News (TiFN), que se encarga de modelar a los usuarios de redes sociales y sus conexiones como «red interactiva» para la detección de noticias falsas.

Estas redes de interacción describen las relaciones entre diversas entidades, como editores, artículos y usuarios. Dada una red de interacción, el objetivo del framework es integrar distintos tipos de entidades, a partir de la observación de que la gente tiende a interactuar con personas de mentalidad parecida. Al hacer sus predicciones, el framework también tiene en cuenta el hecho de que los usuarios que tienen conexiones tienen una probabilidad mayor de compartir artículos de intereses parecidos. También que los medios y posteadores con un mayor sesgo político tienen una mayor probabilidad de publicar fake news, al igual que los usuarios con un nivel de credibilidad bajo.

Para probar si el sistema de supervisión social ligera que usa el TiFN podría ayudar a detectar fake news de manera eficaz, el equipo ha validado el framework utilizando datos de Politifact con 120 artículos de noticias verdaderas y otros 120 que estaban verificadas como falsas compartidos entre 23.865 usuarios. TiFN consiguió una precisión de detección de fake news entre el 75% y el 87% en las 12 primeras horas de su publicación , incluso con una supervisión social ligera muy limitada.

En otra prueba en la que se utilizó un segundo framework personalizado llamado Defend, los investigadores lo utilizaron también con supervisión débil para señalar frases en noticias y comentarios de usuarios que expliquen por qué un artículo es falso. Probado en un segundo conjunto de datos de Politifact con 145 noticias verdaderas y 270 falsas con 89.999 comentarios de 68.523 usuarios de Twitter, Defend consiguió una precisión del 90% en detección de fake news.



« Especial »