Facebook abordó la información electoral falsa con advertencias subestimadas como "falta de contexto" en lugar de banderas más directas, sugiere una investigación de The Markup , y la compañía pareció vacilante en etiquetar declaraciones falsas o engañosas del ex presidente Donald Trump, ahora prohibido.
Markup ha publicado nuevos datos de su navegador Citizen, que captura instantáneas de lo que 2200 voluntarios ven en sus feeds de Facebook. Su informe cubre diciembre y enero, dos meses polémicos en los que el entonces presidente Trump reclamó falsamente la victoria en las elecciones. Facebook implementó banners especiales y sistemas de etiquetado para informar a los usuarios sobre los resultados de las elecciones y verificar publicaciones falsas. Citizen Browser Project ofrece una ventana a un proceso aparentemente complicado e hiper-matizado.
Según The Markup , solo una minoría de los participantes vio algún contenido marcado: 330 personas recibieron un total de 682 publicaciones etiquetadas como "falsas, sin contexto o relacionadas con un tema especialmente controvertido, como las elecciones presidenciales". La gran mayoría de estas etiquetas solo dirigieron a las personas hacia los resultados de la votación y se agregaron a "cualquier cosa relacionada con las elecciones".
La gran mayoría de la gente no vio ninguna bandera relacionada con las elecciones.
La mayoría de las banderas restantes se aplicaron a las publicaciones de Trump, y algunas de esas publicaciones contenían información claramente falsa, como una afirmación de que era "estadísticamente imposible" que el presidente Joe Biden ganara las elecciones. Pero The Markup señala que estas publicaciones nunca fueron etiquetadas como "falsas" o "engañosas". En cambio, Facebook hizo cosas como agregar advertencias genéricas sobre la integridad electoral. En general, las etiquetas "falsas" solo aparecieron en un total de 12 publicaciones, incluidas las que "vinculaban a Bill Gates con un complot de dominación mundial, o una que decía 'Biden no ganó legalmente'". Era más probable que Facebook usara una bandera para " contexto perdido ”, que apareció 38 veces.
Facebook le dijo a The Markup que "no comentamos sobre datos que no podemos validar, pero estamos investigando los ejemplos compartidos". Y The Markup señala que Facebook afirma reducir la propagación de afirmaciones falsas, por lo que es posible que a los usuarios simplemente se les haya impedido ver muchas publicaciones marcadas como "falsas". Sin embargo, también describe las banderas de "contexto faltante" que se aplican a publicaciones que respaldan clara pero indirectamente teorías de conspiración falsas, algo que hace que sea "mucho menos obvio que la publicación no era cierta".
En general, Citizen Browser Project solo ofrece una imagen limitada de lo que sucede dentro de la plataforma, aunque sigue siendo valioso para llenar los vacíos que dejó la propia herramienta de análisis de Facebook, CrowdTangle. Pero la investigación sugiere que, como escribe The Markup , Facebook trató las publicaciones de Trump con "guantes de niño" hasta que lo suspendió por completo tras el ataque del 6 de enero al Capitolio de Estados Unidos. Esa decisión será revisada por la Junta de Supervisión de Facebook en un futuro cercano, y si se revierte, Facebook puede terminar enfrentando las mismas preguntas de moderación nuevamente.