Cuando Viana Ferguson era moderadora de contenido para Facebook, se encontró con una publicación que inmediatamente reconoció como racista: una foto de una familia blanca con un niño negro que tenía una leyenda que decía "una casa no es un hogar sin una mascota". Pero tuvo dificultades para convencer a su gerente de que la imagen no era solo una foto inocente de una familia.
"Ella no parecía tener la misma perspectiva, no había ninguna referencia que pudiera usar", dijo Ferguson. Ella señaló que no había ninguna mascota en la foto, pero el gerente también le dijo: "Bueno, tampoco hay una casa en la foto".
Ferguson dijo que era uno de varios ejemplos de la falta de estructura y apoyo que enfrentan los moderadores de Facebook en sus trabajos cotidianos, la gran mayoría de los cuales se realizan para consultorías de terceros. Ferguson habló en una llamada organizada por un grupo que se hace llamar Real Facebook Oversight Board , junto con Color of Change, una organización progresista sin fines de lucro que encabezó el llamado a un boicot de anunciantes de Facebook durante el verano, y la organización de justicia tecnológica sin fines de lucro Foxglove, con sede en el Reino Unido.
"Clickbait todavía gobierna las mentiras y el odio todavía viaja en Facebook como un incendio forestal en California".
“En 2020, en la red social más grande del mundo, el clickbait todavía gobierna las mentiras y el odio todavía viaja en Facebook como un incendio forestal en California”, dijo Cori Crider, cofundador de Foxglove. "Las cosas siguen tan mal que en dos días, Mark Zuckerberg testificará una vez más ante el Senado sobre lo que está haciendo Facebook para abordar este problema y proteger la democracia estadounidense".
Crider dijo que Facebook señala su enorme fuerza laboral de moderadores de contenido como evidencia de que se toma los problemas en serio. “Los moderadores de contenido son los bomberos en primera línea que protegen nuestras elecciones”, dijo. "Son tan importantes para el trabajo de Facebook que Facebook los ha llevado de regreso a sus oficinas durante la pandemia y los ha mantenido en las oficinas".
Los desafíos de trabajar como moderador de Facebook tanto en los EE. UU. Como en el extranjero han sido bien documentados, y las quejas constantes a lo largo de muchos años sobre cómo ver contenido traumático durante horas y horas llevó a la empresa a aceptar pagar $ 52 millones a ex moderadores con sede en EE. UU. para compensarlos por problemas de salud mental desarrollados en el trabajo.
La exmoderadora Alison Trebacz dijo en la llamada que recordaba el día después del tiroteo masivo de 2017 en el casino Mandalay Bay de Las Vegas , su cola de trabajo estaba llena de videos de víctimas de disparos heridas y moribundas. Pero para marcar un video como "perturbador", los moderadores tenían que verificar que una persona estuviera completamente incapacitada, algo que era casi imposible de hacer de manera oportuna. “Terminamos como moderadores y agentes tratando de tomar estas grandes decisiones sobre el contenido popular sin tener una dirección y orientación completas dentro de los cinco minutos posteriores al evento”, dijo.
Como parte de su trabajo, Trebacz dijo que ella y otros moderadores tenían que ver contenido gráfico con regularidad y que se sentía agotada mentalmente por la naturaleza del trabajo. Le pagaron $ 15 la hora y dijo que mientras estuvo allí, de 2017 a 2018, hubo poco apoyo de salud mental. La empresa utilizó acuerdos de no divulgación, que limitaban a los moderadores a poder hablar sobre sus trabajos con personas ajenas a la empresa, lo que aumentaba el estrés general del trabajo. Los moderadores son contratistas independientes y la mayoría no recibe beneficios ni licencia por enfermedad, señaló Jade Ogunnaike de Color of Change.
“Cuando empresas como Facebook hacen estas grandes declaraciones sobre Black Lives Matter, y que se preocupan por la equidad y la justicia, está en contraste directo con la forma en que se trata a estos moderadores y contratistas de contenido”, dijo Ogunnaike.
El grupo quiere que Facebook convierta a moderadores en empleados de tiempo completo que reciban los mismos derechos que el resto del personal de Facebook y proporcionen la formación y el apoyo adecuados. Si bien la compañía se basa en la inteligencia artificial para ayudar a erradicar el contenido violento y problemático, eso no es suficiente para abordar casos de racismo más matizados como el que mencionó Ferguson.
"Si Facebook quiere comentarios valiosos de las personas que realizan la mayor parte del trabajo, se beneficiarían si los integraran".
Pero Trebacz señaló que los moderadores humanos no se van; más bien, se están volviendo aún más importantes. "Si Facebook quiere comentarios valiosos de las personas que realizan la mayor parte del trabajo, se beneficiarían si los integraran".
Ferguson dijo que vio un fuerte aumento en el discurso de odio en Facebook luego de las elecciones presidenciales de Estados Unidos de 2016. Ella dijo que la plataforma estaba mal equipada para manejar a las personas recientemente envalentonadas que publican cada vez más contenido de odio. Si un moderador eliminó un contenido que luego se descubrió que no estaba en contra de las reglas de Facebook, podría ser disciplinado o incluso despedido, agregó.
Trebacz dijo que esperaba que Facebook proporcione más comunicación en tiempo real con los moderadores sobre las decisiones de contenido y que se tomen más decisiones de forma preventiva en lugar de reaccionar todo el tiempo. Pero dijo que espera que las próximas semanas sean "escandalosamente difíciles" para los moderadores de contenido actuales.
"Creo que va a ser un caos", dijo. "Verdaderamente."
Facebook no respondió de inmediato a una solicitud de comentarios el lunes. The Wall Street Journal informó el domingo que la compañía se está preparando para un posible caos en torno a las elecciones de la próxima semana con planes para implementar herramientas internas que se utilizan en países en riesgo. Los planes pueden incluir ralentizar la propagación de publicaciones a medida que comienzan a volverse virales, alterar el algoritmo de News Feed para cambiar el contenido que ven los usuarios y cambiar las reglas sobre qué tipo de contenido debe eliminarse.