Las grandes conclusiones de los “Facebook papers”

(CNN Business) — Facebook no es ajeno a los focos. Aunque la empresa ha sido criticada en varias ocasiones en los últimos años por su papel en la difusión de información errónea, especialmente en relación con las elecciones de 2016, los últimos dos meses han sido especialmente turbulentos, ya que una denunciante y altos funcionarios han sido llamados a declarar ante el Congreso tras la publicación de investigaciones y documentos internos filtrados.

Estas revelaciones hechas a la Comisión de Valores y Bolsa y proporcionadas al Congreso en forma redactada por el asesor legal de la denunciante de Facebook Frances Haugen han arrojado nueva luz sobre el funcionamiento interno del gigante tecnológico. Un consorcio de 17 organizaciones de noticias estadounidenses, incluido CNN, ha revisado las versiones redactadas de los documentos recibidos por el Congreso. También ha compartido algunos de los documentos con The Wall Street Journal, que ha publicado una investigación en varias partes que demuestra que Facebook era consciente de los problemas de sus plataformas.

Facebook se ha opuesto a las afirmaciones de Haugen, y su director general, Mark Zuckerberg, llegó a publicar una declaración de 1.300 palabras en la que sugería que los documentos se habían escogido para presentar una descripción engañosa de la empresa.

Estos son algunos puntos clave de las decenas de miles de páginas de documentos internos.Experto: Mirar para el otro lado, gran pecado de Facebook 1:02

Difusión de información errónea

En una de las revelaciones de la SEC, Haugen alega que “Facebook engañó a los inversores y al público sobre su papel en la perpetuación de la desinformación y el extremismo violento en relación con las elecciones de 2020 y la insurrección del 6 de enero”.

Uno de los documentos detalla un estudio de junio de 2019 llamado “El viaje de Carol a QAnon”, diseñado para ver qué páginas y grupos promocionarían los algoritmos de Facebook a una cuenta diseñada para que pareciera dirigida por una madre conservadora de 41 años llamada Carol Smith.

Después de que “Carol” siguiera páginas verificadas de figuras conservadoras como Fox News y Donald Trump, el algoritmo de Facebook tardó solo dos días en recomendarle que siguiera una página de QAnon.

“Si bien este fue un estudio de un usuario hipotético, es un ejemplo perfecto de la investigación que la compañía hace para mejorar nuestros sistemas y ayudó a informar nuestra decisión de eliminar a QAnon de la plataforma”, dijo un portavoz de Facebook a CNN.Ingrese su correo electrónico para suscribirse al boletín informativo de cinco cosas de CNN.close dialog

Otro documento, titulado “Stop the Steal and Patriot Party: The Growth and Mitigation of an Adversarial Harmful Movement”, presenta un análisis realizado después del 6 de enero que sugiere que Facebook podría haber hecho más para detener la propagación del movimiento “Stop the Steal”, que desempeñó un papel fundamental en los disturbios del Capitolio.

Y los comentarios filtrados de algunos empleados de Facebook el 6 de enero sugieren que la empresa podría haber tenido cierta culpa en lo sucedido al no haber actuado más rápidamente para detener el crecimiento de los grupos de “Stop the Steal”.

En respuesta a estos documentos, un portavoz de Facebook dijo a CNN: “La responsabilidad de la violencia que se produjo el 6 de enero recae en quienes atacaron nuestro Capitolio y en quienes los alentaron”.

Falta de apoyo global

Los documentos internos de Facebook y las investigaciones compartidas como parte de las revelaciones de Haugen ponen de manifiesto las deficiencias en la capacidad de Facebook para prevenir la incitación al odio y la desinformación en países como Myanmar, Afganistán, India, Etiopía y gran parte de Oriente Medio, donde la cobertura de muchos idiomas locales es inadecuada.

Aunque las plataformas de Facebook admiten más de 100 idiomas diferentes en todo el mundo, un portavoz de la empresa dijo a CNN Business que sus equipos de moderación de contenidos globales están formados por “15.000 personas que revisan contenidos en más de 70 idiomas y trabajan en más de 20 lugares” en todo el mundo.

Por ejemplo, en la India, que representa la mayor base de usuarios de Facebook, durante varios años Facebook no tenía clasificadores de discursos de odio para el hindi o el bengalí, dos de los idiomas más populares del país, hablados en conjunto por más de 600 millones de personas.

En una presentación interna sobre el discurso de odio antimusulmán, los investigadores de Facebook escribieron: “Nuestra falta de clasificadores para el hindi y el bengalí significa que gran parte de este contenido nunca se marca ni se actúa”.

Un portavoz de Facebook dijo a CNN que la compañía agregó clasificadores de discurso de odio para “hindi en 2018, bengalí en 2020 y tamil y urdu más recientemente”.

En un comunicado del 23 de octubre en el que se abordan los informes relativos a la investigación filtrada, Miranda Sissons, directora de política de derechos humanos de Facebook, y Nicole Isaac, directora de respuesta estratégica internacional de Facebook, escribieron: “Tenemos un proceso líder en la industria para revisar y priorizar los países con mayor riesgo de daño y violencia fuera de línea, cada seis meses. Cuando respondemos a una crisis, desplegamos apoyo específico para cada país según sea necesario”.

Trata de personas

Facebook ha sabido de los traficantes de personas que usan sus plataformas desde al menos 2018, pero ha luchado para tomar medidas contra el contenido relacionado, según muestran los documentos de la compañía revisados por CNN.

Según un informe interno de septiembre de 2019, una investigación de Facebook encontró que “nuestra plataforma permite las tres etapas del ciclo de vida de la explotación humana (reclutamiento, facilitación, explotación) a través de las redes del mundo real. … Los traficantes, reclutadores y facilitadores de estas ‘agencias’ utilizaban perfiles FB [Facebook], perfiles IG [Instagram], páginas, Messenger y WhatsApp”.

Otros documentos relatan cómo los investigadores de Facebook habían marcado y eliminado cuentas de Instagram que pretendían ofrecer trabajadores domésticos para la venta, y esbozaron una serie de medidas que la compañía ha tomado para abordar el problema, incluyendo la eliminación de ciertos hashtags. Sin embargo, CNN encontró la semana pasada varias cuentas de Instagram similares que seguían activas anunciando trabajadores domésticos en venta.

Después de que CNN preguntara a Facebook por las cuentas, un portavoz confirmó que infringían las políticas de la empresa. Desde entonces, las cuentas han sido eliminadas y las publicaciones borradas.

A %d blogueros les gusta esto: