Monitor Más Monitor


Facebook entrena una IA para detectar "memes de odio"

Facebook entrena una IA para detectar memes de odio
Mark Zuckerberg

Publicación:13-05-2020
++--

La red social informó que ya creó una base de datos con imágenes para tal fin. Asimismo, afirmó haber mejorado en la detección de "contenido problemático".

La empresa estadounidense Facebook afirmó hoy haber mejorado la detección de "contenido problemático" con la incorporación de nueva tecnología, en el contexto de la pandemia del nuevo coronavirus, y haber recibido mayor cantidad de solicitudes de gobiernos sobre datos de los usuarios de sus redes sociales. Asimismo, dio a conocer que está entrenando una Inteligencia Artificial para detectar "memes de odio".

La red social dio a conocer una iniciativa el martes para hacer frente a los "memes de odio" usando inteligencia artificial respaldada por la colaboración externa (crowdsourcing) para identificar ese tipo de publicaciones.

Asimismo, explicó que ya creó una base de datos de 10.000 memes --imágenes a veces con texto para transmitir un mensaje específico que se presume humorístico-- como parte de la intensificación de sus acciones contra los discursos de odio.

Facebook dijo que está dando acceso a investigadores a esa base de datos como parte de un "desafío de memes de odio" para desarrollar algoritmos mejorados que permitan detectar mensajes visuales con contenido odioso, con un premio de 100.000 dólares.

"Estos esfuerzos estimularán a la comunidad de investigadores de IA [inteligencia artificial] en general a probar nuevos métodos, comparar su trabajo y cotejar sus resultados para acelerar el trabajo en la detección del discurso de odio multimodal", dijo Facebook en una publicación de blog.

La red se está apoyando fuertemente en la inteligencia artificial para filtrar contenido cuestionable durante la pandemia de coronavirus, que ha reducido su capacidad de moderación humana como resultado de los confinamientos.

El informe de transparencia trimestral de la compañía detalla que Facebook eliminó unos 9,6 millones de publicaciones por violar las políticas de "discurso de odio" en los primeros tres meses de este año, incluyendo 4,7 millones de contenidos "vinculados al odio organizado".

Guy Rosen, vicepresidente de integridad de Facebook, dijo que con inteligencia artificial "podemos encontrar más contenido y ahora podemos detectar casi el 90% del contenido que eliminamos antes de que alguien nos lo informe".

Facebook se comprometió hace un año a "interrumpir" la conducta de odio organizada tras los letales ataques en una mezquita de Nueva Zelanda, que provocaron un "llamado a la acción" por parte de los gobiernos para frenar la propagación del extremismo en línea.

Los sistemas automatizados y la inteligencia artificial pueden ser útiles, dijo Facebook, para detectar contenido extremista en varios idiomas y analizar texto incrustado en imágenes y videos para comprender su contexto completo.

Mike Schroepfer, director de tecnología de Facebook, dijo a los periodistas en una conferencia telefónica que una de las técnicas que ayudaron a este esfuerzo fue un sistema para identificar imágenes "casi idénticas", con el que es posible vigilar la publicación de imágenes y videos maliciosos con pequeños cambios para evadir la detección.

"Esta tecnología puede detectar coincidencias casi perfectas", dijo Schroepfer.

Heather Woods, profesora de la Universidad del Estado de Kansas que estudia memes y contenido extremista, elogió la iniciativa de Facebook y la inclusión de investigadores externos.

"Los memes son claramente complejos, no solo porque son multimodales, al incorporar imágenes y texto, como señala Facebook, sino porque son contextuales", dijo Woods.

"Me imagino que los matices y la especificidad contextual de los memes seguirán siendo un desafío para Facebook y otras plataformas que buscan eliminar el discurso de odio", añadió.

Asimismo, el CEO Mark Zuckerber presentó el nuevo "reporte de transparencia" corporativo durante una rueda de prensa con medios de todo el mundo, de la que participó Télam, que recoge datos del último semestre de 2019 y del primer trimestre de este año, cuando el estallido de la pandemia del nuevo coronavirus fuera de China modificó el comportamiento de las personas con respecto a las redes y la forma en la que Facebook monitorea las publicaciones.

Zuckerberg explicó las medidas adoptadas para "mantener comunicadas a 2.000 millones de personas" durante la pandemia y también "evitar la propagación de mensajes con horrenda desinformación".

Aunque no está directamente reflejado en el informe, Zuckerberg hizo hincapié en la situación actual: se suprimieron "cientos de miles" de publicaciones con "curas" para la enfermedad Covid-19 y se reportaron hasta "50 millones" de mensajes con la "etiqueta" de información dudosa.

Según explicó el CEO de la empresa que también controla Instagram y WhatsApp, esa última práctica de "etiquetado" resultó en una caída superior al 90% de clics a esos posteos engañosos.

Desde el 1° de mayo se removieron más de 2,5 millones de piezas de contenido sobre venta de máscaras faciales, desinfectantes para manos, toallas sanitarias y tests para detectar el virus, informó.

El chequeo de los datos ha sido el punto más polémicos en el accionar de Facebook que, desde hace un tiempo, ha implementado asociaciones con organizaciones locales de todo el mundo para que realicen esa tarea, ha desarrollado tecnologías de reconocimiento de Inteligencia Artificial y ha creado un consejo asesor de expertos que analizan los impactos de las políticas de la empresa en la comunicación de las comunidades.

"Como resultado, ahora podemos encontrar más contenido y detectar casi el 90% de las publicaciones que eliminamos antes de que alguien nos lo informe", informó la empresa.

Aunque se destacaron los avances de las herramientas de detección artificial, el jefe técnico de Facebook, Mike Schroepfer, señaló "un gran aumento" en la cantidad de información falsa y reconoció que "construir un clasificador para algo que comprende contenido que nunca antes se ha visto requiere mucha información y tiempo".

Aunque avanzadas, las tecnologías que utilizan el lenguaje y aquellas que lo combinan con imágenes deben ser "alimentadas" con miles de ejemplos antes de conseguir buenos resultados, agregó.

En ese sentido, hoy se anunció el lanzamiento de SimSearchNet, un sistema que puede, por ejemplo, detectar aquellos mensajes que, luego de ser eliminados, son vueltos a publicar con sutiles modificaciones y que, hasta ahora, implicaban un rechequeo.

Respecto de los pedidos de datos de usuarios, durante los últimos seis meses de 2019 las solicitudes gubernamentales aumentaron un 9,5 %, de 128.617 a 140.875, un tercio emitidas por los Estados Unidos.

Argentina, por su parte, emitió 2.149 pedidos durante el último semestre registrado, con una tendencia creciente: en el período anterior habían sido 1.750.

Desde la empresa afirmaron examinar "cada solicitud que realizan los gobiernos para asegurar de que sean legalmente válidas" y que "si una solicitud parece deficiente o demasiado amplia" se rechaza y, de ser necesario, se acude a los tribunales.

"No existen 'puertas de atrás' para los gobiernos en materia de información de las personas", aclararon.

Ese punto es habitualmente señalado por diversas entidades que, como Amnistía Internacional, han criticado la "vigilancia omnipresente" de la red social más grande del mundo y el potencial daño que podría generar la recolección de tantos datos.

De manera simultánea, se anunció que Instagram dispondrá de nuevas herramientas contra el acoso, en especial cuando se trata de ataques grupales contra una persona.

"Hemos estado probando la capacidad de eliminar comentarios en masa, así como bloquear o restringir varias cuentas que publican comentarios negativos. La retroalimentación temprana ha sido alentadora, y hemos descubierto que ayuda a las personas, especialmente con más seguidores, a mantener un ambiente positivo en su cuenta", explicaron.

Además de eliminar los mensajes negativos se podrá amplificar y fomentar las interacciones positivas, con la capacidad de "fijar un número selecto de comentarios en la parte superior" de las publicaciones.

También se podrá habilitar o deshabilitar a quienes puedan realizar "menciones" o "etiquetados" dentro de las publicaciones.



« Especial »