Contenido abusivo, odio y desinformación

Facebook opera en más de 190 países y cuenta con más de 2 mil 800 millones de usuarios mensuales que publican contenido en más de 160 idiomas. No obstante, los “Facebook Papers” exponen cómo sus medidas para impedir que sus productos se conviertan en conductos para el discurso de odio, la retórica incendiaria y la desinformación no siguieron el ritmo de su expansión global.

Los “Papeles de Facebook” se centran en cómo la compañía está perdiendo el control de sus plataformas y de lo poco que le queda de una imagen de firma benevolente que simplemente trata de conectar al mundo. Los documentos difundidos por 17 organizaciones de noticias pintan una empresa con muchos conflictos, insuficientes soluciones y poca voluntad de actuar. Checa las principales deficiencias.

1. Idiomas y contextos

Facebook sabía que no contrató suficientes trabajadores con las habilidades lingüísticas y el conocimiento de los eventos locales necesarios para identificar publicaciones objetables de usuarios en varios lugares, desde Afganistán a Yemen.

En una revisión publicada en el tablero de mensajes interno de Facebook el año pasado sobre las formas en que la compañía identifica los abusos en su sitio, un empleado informó de “brechas significativas” en ciertos países en riesgo de violencia en el mundo real, sobre todo en Myanmar y Etiopía.

Facebook prioriza la erradicación de la violencia y el contenido de odio, y ha promovido su crecimiento fuera de Estados Unidos y Europa occidental. Pero a medida que penetra en regiones que no conoce mucho, no logra contener las consecuencias inesperadas asociadas con la llegada de millones de usuarios nuevos sin al mismo tiempo contar con el personal necesario para identificar y frenar la propagación de contenido intolerante, desinformación e incitación a la violencia.

¿Qué dice Facebook?

Mavis Jones, portavoz de Facebook, dijo que la compañía tiene hablantes nativos en todo el mundo que revisan contenidos en más de 70 idiomas, así como expertos en temas humanitarios y derechos humanos. Estos equipos trabajan para frenar el abuso en la plataforma en lugares donde existe un mayor riesgo de conflicto y violencia.

2. Algoritmo e inteligencia artificial

Frances Haugen, exgerente de productos de Facebook

Los documentos también mostraron que Facebook emplea sistemas de inteligencia artificial, incluidos algoritmos oscuros, que radicalizan a los usuarios y con frecuencia tampoco están a la altura para erradicar la abundante desinformación, extremismos, facilitación del tráfico humano, el suicidio de menores y otras consecuencias.

Entre las debilidades citadas está la falta de algoritmos de detección para los idiomas utilizados en algunos de los países que Facebook ha considerado más “en riesgo” de posibles daños y violencia en el mundo real derivados de abusos en su sitio.

La denunciante Frances Haugen advirtió que Facebook alentará más disturbios violentos en todo el mundo porque la manera en que sus algoritmos están diseñados ayuda a promover el contenido que fomenta la división.

¿Qué dice Facebook?

En su propia defensa, Facebook apunta que la incitación al odio representa menos del uno por ciento del contenido total en su plataforma y está disminuyendo. Además, asegura que utiliza investigaciones, pruebas hipotéticas y otros métodos para analizar cómo recomienda contenido y mejorar los esfuerzos para frenar la propagación de información dañina.

3. Botones y herramientas

El omnipresente botón “Me gusta” (“Like”) y la capacidad de compartir publicaciones se volvieron esenciales para la identidad de Facebook. Pero los documentos internos muestran que la compañía está luchando para lidiar con los efectos de esas herramientas, incluida la amplificación del discurso de odio y la desinformación.

Los “Facebook Papers” también señalan que la empresa tampoco ha hecho fácil que sus propios usuarios globales marquen las publicaciones que violan las reglas del sitio. En 2019, Facebook estableció una cuenta de prueba en India para determinar cómo sus herramientas afectan a las personas en su mercado más importante; en tres semanas, la cuenta del usuario ficticio se convirtió en una vorágine de noticias falsas e imágenes incendiarias. 

Hace dos años, Apple amenazó con retirar Facebook e Instagram de sus tiendas de aplicaciones, después de que se descubriera que las plataformas del gigante de las redes sociales estaban siendo usados para la contratación ilegal de personal doméstico en el Medio Oriente.

¿Qué dice Facebook?

“Una selección antojadiza de entre millones de documentos no puede ser la base de conclusiones justas acerca de nosotros”, mencionó Facebook en un tuit de su servicio de relaciones públicas este mes, tras descubrir que varias organizaciones noticiosas trabajaban en artículos sobre los documentos internos.

4. Moral y límites

Mark Zuckerberg, CEO de Facebook

Los documentos relatan el empeoramiento de la moral entre algunos miembros del personal y los desacuerdos sobre la mejor manera de combatir el mal contenido. Un equipo de la empresa encargado de detener el flujo de publicaciones dañinas se vio obstaculizado por los límites impuestos al desarrollo de sus productos.

Personal de Facebook que estudia la desinformación ha llegado a la conclusión de los propios esfuerzos de la empresa para sofocar la desinformación a veces se ven socavados por consideraciones políticas. Por ejemplo, los informes culpan al director general (CEO) de Facebook, Mark Zuckerberg, de que la plataforma se doblega al Gobierno autoritario de Vietnam para censurar a los disidentes antigubernamentales o arriesgarse a quedar fuera de línea en uno de los mercados asiáticos más lucrativos de Facebook. Los “Papeles de Facebook” afirman que Zuckerberg firmó personalmente una iniciativa del gobernante Partido Comunista de Vietnam para limitar la difusión de las llamadas publicaciones “antiestatales”.

Frances Haugen también proporcionó documentos sobre el daño de Instagram a las adolescentes. Comparó la plataforma con sustancias adictivas como el tabaco y los opioides. Además, dijo que la red social veía la seguridad como un centro de costos, que ensalzaba una cultura de empresa emergente en la que recortar gastos era bueno y que “sin duda” estaba agravando el odio.

¿Qué dice Facebook?

“No priorizamos, y nunca lo hemos hecho, el crecimiento por sobre la seguridad”, sostuvo Monika Bickert, directora de Manejo de Políticas Mundiales de Facebook. “Sí somos un negocio y queremos ganar dinero, pero la idea de que lo hacemos a expensas de la seguridad o el bienestar de la gente revela una falta de conocimiento acerca de cuáles son nuestros intereses”, manifestó Facebook en un comunicado.

Fuentes: The Wall Street Journal (WSJ), The New York Times (NYT), Bloomberg, Reuters, AP y AFP
¡Síguenos en @reformanegocios!