banner edicion impresa

Monitor Más Monitor


El año del escrutinio más fuerte contra Facebook

El año del escrutinio más fuerte contra Facebook
Anuncios en Facebook comparan las vacunas con el Holocausto

Publicación:24-12-2021
++--

Facebook en 2021: el año del escrutinio más fuerte contra la compañía de Zuckerberg.

Sin duda, las redes sociales le hacen honor a su nombre: han "atrapado" a miles de millones de personas en todo el mundo para crear o reforzar relaciones humanas en el ámbito digital (o al menos ese es el objetivo de estas plataformas desde el "deber ser").

No es ninguna exageración cuando en este punto se habla de miles de millones. De acuerdo con DataReportal —sitio de análisis de tendencias digitales en el que están involucradas compañías como Kepios, Hootsuite y We Are Social—, en octubre de 2021, había alrededor de 4.550 millones de usuarios activos de redes sociales en todo el planeta, lo que equivaldría al 57,6% de la población mundial.

Aunque los usuarios activos no necesariamente son personas, sino más bien cuentas que tienen actividad en las redes sociales, se trata de una enorme cantidad.

Dentro de ese universo, la que más "atrapa" usuarios es Facebook. Según DataReportal, Facebook es la red social más utilizada en el mundo, con 2.910 millones de usuarios activos cada mes. Este dato también se puede comprobar en el reporte financiero del tercer trimestre de 2021 de Facebook (ahora Meta), en el que podemos observar uno más: todas las redes sociales de la compañía tienen 3.580 millones de usuarios activos mensuales.

Además, Meta tiene presencia como plataforma de mensajería (para negocios y para todo público), de conexión entre personas, fotografías, videos cortos, y más.

Una red, literalmente hablando, tiene la capacidad de "atrapar". Metafóricamente, involucra un artefacto que te retiene en contra de tu voluntad. Es por esto que insistimos tanto en esta palabra. No es que la compañía fundada por Mark Zuckerberg retenga contra su voluntad a miles de millones de usuarios; sin embargo, este año demostró que sus plataformas, en especial Facebook e Instagram, pueden causar daños tangibles, reales, y sus mecanismos están diseñados para que salir no sea fácil.

Facebook, algo no anda bien (desde hace tiempo)

A mediados de septiembre de este año, The Wall Street Journal reveló, como parte de su investigación llamada 'The Facebook files', que la compañía sabía que Instagram era una red social tóxica para muchas personas adolescentes, en especial mujeres.

El periódico estadounidense revisó documentos internos de la compañía de Zuckerberg, en los cuales se pudo constatar que investigadores de Facebook habían hecho estudios durante los últimos tres años sobre cómo Instagram afecta a sus millones de usuarios jóvenes.

La investigación muestra que la plataforma puede dañar la salud mental y la imagen corporal, especialmente entre las adolescentes. Por su parte, Karina Newton, jefa de políticas públicas de Instagram, escribió en un comunicado que, si bien la red social puede ser un lugar donde la gente tiene "experiencias negativas", también da voz a las personas marginadas y ayuda a los amigos y familiares a mantenerse conectados; asimismo, recalcó que la investigación interna de Facebook demostraba el compromiso de la empresa con "la comprensión de los problemas complejos y difíciles con los que los jóvenes pueden luchar".

Pese a estas defensas iniciales, las repercusiones de este informe sobre Instagram serían notables para la empresa y alimentarían una bola de nieve de problemas que va creciendo cada vez más. Pero ya llegaremos a eso.

Facebook sabía que podía influir en elecciones en 2016, pero Zuckerberg negó que las noticias falsas tuvieran un impacto real en las decisiones de los votantes: "Personalmente, creo que la idea de que las noticias falsas en Facebook –que representan una pequeña porción del contenido– influyeron en la elección es bastante alocada por dónde se mire", dijo Zuckerberg en ese entonces.

En 2018, el fundador de la compañía tuvo que testificar en el Congreso por el escándalo de Cambridge Analytica, aunque sus respuestas no fueron del todo satisfactorias. Por ejemplo, el representante demócrata Frank Pallone lo presionó a contestar “sí” o “no” ante la pregunta de si la red social se comprometería a cambiar su configuración predeterminada para minimizar la recolección de datos “en la mayor medida posible”. “Este es un asunto complejo que merece más de una palabra como respuesta”, contestó Zuckerberg, lo que Pallone calificó de “decepcionante”.

Y sobre el boitcot de 2020, la empresa continúa lidiando con eso este año. Recientemente, en el marco de los "Facebook Papers" (de los que se hablará más adelante) y de un nuevo posible boicot, un portavoz de Facebook señaló que "tenemos más de 40.000 personas centradas en esto (en el tema de la seguridad para erradicar el discurso de odio) y estamos en camino de gastar más de US$ 5.000 millones en seguridad y protección en 2021. Aunque tenemos más trabajo por hacer, seguimos comprometidos con hacer esto bien".

¿Por qué Facebook enfrenta un boicot? 

Como se puede ver, nunca se han detenido completamente los problemas. Y, además, la bola de nieve viene desde tiempo atrás. La diferencia es que el escándalo de este año acrecentó esa nieve como nunca antes. Y una de las personas que hicieron posible esto fue una exdirectiva de Facebook.

De directiva a denunciante

La investigación de The Wall Street Journal tenía como base miles de documentos internos de Facebook. Sin duda, eran reales. ¿Pero cómo llegaron a las manos de los periodistas? Gracias a la filtración de una denunciante anónima.

A inicios de octubre (apenas unos días después de que Antigone Davis, director global de seguridad de Facebook, testificara ante la Comisión de Comercio del Senado de EE.UU.), se dio a conocer la identidad de la denunciante: Frances Haugen.

De hecho, ella misma fue quien dio a conocer su identidad en el programa "60 Minutes", dos días antes de que testificara ante la subcomisión de Protección al Consumidor, Seguridad de Productos y Seguridad de Datos del Senado estadounidense.

Haugen, de 37 años y con experiencia en compañías tecnológicas desde 2006, se unió a Facebook en 2019 para trabajar en integridad cívica, incluidos "temas relacionados con la democracia y la desinformación", según su sitio web. Esos problemas han sido destacados por los críticos de Facebook y otras compañías de redes sociales, particularmente en torno a la pandemia del coronavirus y las elecciones presidenciales de Estados Unidos de 2020.

Aceptó el trabajo en Facebook de directora de productos para trabajar en abordar la desinformación, dijo en su entrevista para "60 Minutes". Pero explicó que sus sentimientos sobre la empresa comenzaron a cambiar cuando la compañía decidió disolver su equipo de integridad cívica poco después de las elecciones.

A los problemas de Facebook en el pasado habría que sumarle, según Haugen, la organización digital del movimiento que detonó en la insurrección en el Capitolio de EE.UU. el 6 de enero de 2021.

Ella sugirió que, en parte, la decisión de disolver a su equipo de integridad cívica permitió que la plataforma se usara para ayudar a organizar el motín en el Capitolio.

Revelan identidad de denunciante de Facebook 0:47

La compañía de Zuckerberg no estaba de acuerdo con lo dicho por Haugen. Facebook señaló que el trabajo del equipo de integridad cívica se distribuyó a otras unidades cuando se disolvió, y los ejecutivos de la empresa rechazaron las acusaciones de que era responsable de los disturbios en el Capitolio.

Además, inmediatamente después de que concluyera la entrevista con Haugen con "60 Minutes", Facebook señaló en un comunicado a CNN Business que "todos los días, nuestros equipos deben equilibrar la protección de la capacidad de miles de millones de personas para expresarse abiertamente con la necesidad de mantener nuestra plataforma en un lugar seguro y positivo".

Sin embargo, lo anterior no impidió la llegada de Haugen al Senado ni tampoco que la bola de nieve siguiera creciendo.

El escrutinio más fuerte

Algunos líderes de Facebook han llegado a testificar al Congreso de Estados Unidos por los problemas del pasado, incluido el propio Zuckerberg, pero en realidad la compañía no ha sufrido grandes conmociones por lo sucedido.

¿Se salió con la suya Mark Zuckerberg en el Congreso? 2:04

El sentimiento era distinto ahora tras las filtraciones de Haugen, los reportes sobre toxicidad de Instagram y los grupos que fomentan el odio en Facebook.

El martes 5 de octubre, Haugen testificó ante senadores de EE.UU., y en su testimonio destacaron varios puntos:

Frances Haugen alegó que la compañía está ocultando la investigación sobre sus deficiencias a los inversores y al público, y compartió documentos con The Wall Street Journal para un trabajo periodístico que reveló que los investigadores de Facebook han encontrado repetidamente que Instagram es tóxico para las adolescentes. Facebook ha rechazado enérgicamente estos informes.

Los sistemas de inteligencia artificial (IA) de Facebook "solo detectan una minoría muy pequeña de contenido ofensivo", dijo Haugen a los legisladores del Congreso.

"Entonces, la escala es '¿podemos hacer cosas muy baratas para una gran cantidad de personas?',lo cual es parte de la razón por la que confían tanto en la IA. Es posible que ninguno de esos anuncios haya sido visto por un humano", agregó.

Facebook es extraordinariamente rentable, pero Frances Haugen se refiere repetidamente a la empresa como que le "falta de personal". Dijo que esta escasez de personal contribuye a un círculo vicioso de problemas en toda la plataforma.

Frances Haugen señaló a los legisladores del Senado que Instagram ha cambiado la vida familiar de los niños.

"Los niños que son acosados en Instagram, el acoso los sigue a casa. Los sigue a sus habitaciones. Lo último que ven antes de irse a la cama por la noche es que alguien está siendo cruel con ellos. O lo primero que en la mañana es alguien siendo cruel con ellos. Los niños están aprendiendo que sus propios amigos, las personas que les importan, son crueles con ellos", comentó.

Facebook, por su parte, respondió lo siguiente:

-Mientras los legisladores preguntaban a la denunciante Frances Haugen sobre cómo Facebook atrae y trata a los usuarios jóvenes, el portavoz de Facebook, Andy Stone, tuiteó que Haugen no trabajaba directamente en cuestiones de seguridad infantil en la empresa.

-Haugen ha sido transparente sobre el hecho de que no trabajó en temas de seguridad infantil en Facebook; señaló en una respuesta que, aunque tiene cierto conocimiento del tema, no trabajó directamente en él.

-Sin embargo, Haugen proporcionó a los legisladores una extensa documentación interna relacionada con la investigación de Facebook sobre el tema.

-Asimismo, antes del testimonio de Haugen ante el Congreso, el vicepresidente de Facebook y expolítico liberal británico, Nick Clegg, conversó extensamente con Brian Stelter, de CNN. Al ser interrogado sobre si Instagram es tóxico para las adolescentes, respondió que "no para todas las adolescentes".

El testimonio de Haugen estremeció a Facebook de manera tangible, pues, según dijo a CNN Sara Fischer -quien cubre medios de comunicación para Axios-, el precio de las acciones de la compañía cayó 15% desde su récord histórico que había alcanzado apenas en septiembre.

Frances Haugen "tomó a Facebook muy por sorpresa", dijo Fischer. Tras ver esa caída de 15%, el escándalo parece estar "causando un impacto material en su negocio", agregó.

Una muy, muy extensa documentación: los "Facebook Papers"

Los documentos internos que entregó Haugen no solamente dieron para la investigación de The Wall Street Journal y para el testimonio en el Congreso, sino que abarcaron un terreno amplísimo, tanto así que llegó a investigaciones periodísticas en todo el mundo.

A finales de octubre, todavía con la turbulencia de lo dicho por Haugen ante una subcomisión del Senado (donde pidió que no se cerrara o disolviera Facebook, sino que se tomara en serio su regulación), se publicaron los llamados "Facebook Papers".

Haugen presentó más de 10.000 páginas de documentos internos de Facebook como revelaciones a la Comisión de Valores y Bolsa, y también los proporcionó al Congreso en forma editada cuando testificó a inicios de octubre.

Estos documentos (muchos utilizados por The Wall Street Journal para su investigación) fueron revisados por un consorcio de 17 organizaciones de noticias estadounidenses, incluido CNN. El viernes 22 de octubre, el consorcio comenzó a publicar una serie de artículos —llamados colectivamente "The Facebook Papers"— basados en los documentos internos de la empresa.

El material ofrece una visión profunda de la cultura interna de Facebook, su enfoque de la desinformación y la moderación del discurso de odio, la investigación interna sobre su algoritmo de newsfeed, la comunicación interna relacionada con el 6 de enero y más.

Los documentos, incluida una auditoría interna y un documento que muestra en tiempo real las contramedidas que los empleados de Facebook estaban implementando tardíamente, pintan una imagen de una empresa que de hecho no estaba preparada fundamentalmente para lidiar con la forma en que el movimiento Stop the Steal usaba su plataforma para organizarse, y que solo entró realmente en acción después de que el movimiento, que jugó un papel fundamental en la insurrección del 6 de enero en el Capitolio, se tornó violento.

También se conoció que los empleados de Facebook dieron la voz de alarma en repetidas ocasiones por la incapacidad de la compañía para frenar la difusión de mensajes que incitan a la violencia en países "de riesgo" como Etiopía, donde la guerra civil ha hecho estragos durante el último año, según muestran documentos internos vistos por CNN.

Según esos documentos, Facebook también ha sabido, al menos desde 2018, de la existencia de traficantes de personas que utilizaban sus plataformas de esta manera. El asunto se puso tan mal que, en 2019, Apple amenazó con retirar el acceso de Facebook e Instagram a la App Store, una plataforma de la que el gigante de las redes sociales depende para llegar a cientos de millones de usuarios cada año.

Internamente, los empleados de Facebook se apresuraron a retirar el contenido problemático y a realizar cambios de política de emergencia para evitar lo que describieron como una consecuencia "potencialmente grave" para el negocio.

Facebook consiguió calmar las preocupaciones de Apple en su momento y ha negado las acusaciones de la investigación en general, al decir que "en el centro de estas historias hay una premisa que es claramente falsa: que no ponemos en primer lugar a las personas que utilizan nuestro servicio, y que realizamos investigaciones que luego ignoramos sistemáticamente". No obstante, los problemas no desaparecieron.

El foco sigue apuntando a Facebook (Meta)

No había pasado ni una semana de los "Facebook Papers" y Facebook alzó la voz, aunque con un mensaje un tanto diferente y, sobre todo, que apuntaba hacia el futuro.

El jueves 28 de octubre, Mark Zuckerberg anunció que Facebook cambiaba de nombre a Meta con efecto inmediato y que las aspiraciones de la compañía estaban en el "metaverso".

"Hoy se nos ve como una empresa de redes sociales", agregó, "pero, en nuestro ADN, somos una empresa que crea tecnología para conectar a las personas. Y el metaverso es la próxima frontera, al igual que lo eran las redes sociales cuando comenzamos".

Zuckerberg dijo que el nombre se inspiró en la palabra griega "meta", que significa "más allá". "Para mí, simboliza que siempre hay más por construir".

Pero todo ello se daba en el contexto del amplio escrutinio por los daños en el mundo real presuntamente provocados por sus diversas plataformas. En ese misma semana en que cambió de nombre, la compañía reconoció ante sus accionistas que se enfrenta a "investigaciones gubernamentales" relacionadas con las decenas de miles de páginas de documentos internos de la compañía filtrados por Frances Haugen.

Y más de un mes después, la bola de nieve, aunque quizá a un ritmo más lento, no ha dejado de crecer.

El 7 de diciembre, Instagram señaló que estaba desplegando un puñado de nuevas funciones destinadas a dificultar que los usuarios, especialmente los adolescentes, caigan en lagunas que podrían ser perjudiciales para su salud mental.

Ese día, la red social lanzó la herramienta 'Take a Break', que animará a los usuarios a alejarse de la plataforma después de haber estado navegando durante un cierto tiempo. La función, anunciada en septiembre, llegará primero a los usuarios de Estados Unidos, Reino Unido, Canadá y Australia, y a todos los usuarios en los próximos meses.

Al cabo de 24 horas, otro ejecutivo de Instagram testificó ante miembros de una subcomisión del Senado. Esta vez fue el turno de Adam Mosseri, director de la red social.

Durante su comparecencia, Mosseri dijo que Instagram planea traer de vuelta una versión de su feed de noticias que daría a los usuarios la opción de ordenar los contenidos cronológicamente en lugar de clasificarlos de acuerdo con el algoritmo de la plataforma, abordando potencialmente las preocupaciones sobre cómo los algoritmos empujan a los usuarios a agujeros dañinos.

La empresa ha estado trabajando en esta función "durante meses" y tiene previsto ponerla en marcha en el primer trimestre del próximo año, añadió Mosseri.

El director de Instagram también reconoció la necesidad de actualizar la normativa para mantener la seguridad de los usuarios en línea, así como la necesidad de más herramientas parentales y de usuario en la plataforma.

"Nada ha cambiado"

Pero las críticas no han cesado.

El senador demócrata Richard Blumenthal dijo en la audiencia de Mosseri que los niños y sus padres siguen luchando con los mismos problemas en las redes sociales a pesar de los años de testimonios de los representantes de la empresa matriz de Instagram, ahora conocida como Meta.

"Nada ha cambiado. Todo sigue ocurriendo", afirmó Blumenthal, que preside la Subcomisión de Protección del Consumidor, Seguridad de los Productos y Seguridad de los Datos, en su discurso de apertura sobre cómo la compañía ha tardado en introducir cambios. "Mientras tanto, se han roto más vidas, vidas reales con familias y futuros reales".

Por su parte, la senadora republicana Marsha Blackburn criticó las últimas actualizaciones de Instagram.

"Aunque estoy segura de que saben que compartimos plenamente el objetivo de proteger a los niños y adolescentes en línea, lo que no estamos seguros es de cómo las medias tintas que han introducido van a conseguirlo", señaló.

Los miembros del Congreso han dado muestras de una rara comunión en las críticas a las empresas tecnológicas cuando se trara de los niños que están en internet.

Algunos legisladores están presionando para que se apruebe una legislación destinada a aumentar la privacidad de los niños en internet y a reducir la aparente adicción de varias plataformas, aunque no está claro cuándo se aprobará esa legislación. Ni si se aprobará.

Con información de Samantha Murphy Kelly, Clare Duffy, Rishi Iyengar, Charles Riley, Donie O'Sullivan, Seth Fiegerman, Matt Egan y Allison Morrow*

Por CNN Español



« Especial »