Este artículo contiene descripciones de abuso sexual infantil y otros actos que podrían herir la sensibilidad de algunos lectores.
PUBLICIDAD
"Es principalmente pornografía", dice Sarah Katz, recordando los ocho meses en los que trabajó como moderadora de Facebook.
"La agencia fue muy directa sobre qué tipo de contenido veríamos y qué tan gráfico era, así que sabíamos a lo que nos enfrentábamos", aclara.
Katz se refiere a la agencia de moderadores humanos con sede en California, Estados Unidos, que Facebook y otras empresas subcontrataban. Para ella trabajó en 2016.
- La agotadora rutina de los moderadores de Facebook que deben ver publicaciones de contenido violento
- "Jódete y muere": revelan lo que Facebook permite y prohíbe al moderar los comentarios de los usuarios
- El plan de Facebook para permitir a sus usuarios que envíen fotos de desnudos de forma segura
Su tarea consistía en revisar las quejas que sobrecontenido inapropiado que llegaban de los usuarios de Facebook.
Y no era fácil, según le cuenta a Emma Barnett, periodista de BBC Radio 5 Live.
"Nos daban alrededor de un minuto por publicación para decidir si era spam y había que eliminarlo", empieza a explicar.
PUBLICIDAD
"A veces también borrábamos la cuenta asociada", añade.
"A la gerencia le gustaba que no trabajáramos más de ocho horas por día y que revisábamos un promedio de 8.000 publicaciones por día, 1.000 por hora", prosigue.
Reconoció que aprendió bastante, pero dijo que si tuviera que describir su trabajo con una sola palabra, sería "extenuante".