Opinión Bolivia

  • Diario Digital | miércoles, 24 de abril de 2024
  • Actualizado 10:08

La agotadora rutina de los moderadores de Facebook

La agotadora rutina de los moderadores de Facebook
Un grupo de amigos prende fuego a un perro de la calle; unos adolescentes son obligados a tener sexo oral; una niña con una cuchilla de afeitar anuncia su suicidio en un video en vivo; un recién nacido es golpeado por un pariente en la cuna… La lista es interminable. Todo lo peor que puede haber en Facebook durante ocho horas, de lunes a viernes, a cambio de un salario mínimo.

Sergio, un joven brasileño que pidió no ser identificado, vivió esta rutina durante casi un año, hasta que abandonó su empleo como revisor de denuncias sobre violencia y odio en la página en portugués de la red social. Desde entonces, dice, se ha convertido en una persona más "fría e insensible" en la vida fuera de internet. "Veía videos en directo por si alguien iba a matarse", explica. Su función era decidir lo más rápido posible si las publicaciones agresivas que otros usuarios denunciaban eran tolerables o pasaban de los límites establecidos por Facebook. En su oficina, la meta para cada revisor era evaluar 3.500 fotos, videos y textos denunciados al día. Más de siete por minuto o uno cada 8.5 segundos. "Imposible no tener error humano en ese ritmo", dice Sergio, que hoy trabaja como freelancer y decidió apagar sus rastros en la red social después de conocerla "por dentro".

Según Sergio, el empleo de los que trabajan de esta forma para el imperio de Mark Zuckerberg nada tiene que ver con la imagen común que tenemos de las oficinas de Silicon Valley. En un edificio con largas filas de ordenadores distribuidos en varios pisos, Sergio y aproximadamente 500 colegas de todo el mundo pasaban días evaluando denuncias sobre pedofilia, desnudos, necrofilia, suicidios, asesinatos, asedios, amenazas, armas, drogas y violencia animal en más de 10 idiomas.

Según el extrabajador, en estos centros de revisión de la red social más utilizada del planeta, los teléfonos móviles están prohibidos, las pausas para la comida o el baño son monitoreadas y los contratos de trabajo prevén multas y procesos judiciales contra la fuga de información. "Era como una central de atención telefónica, sin los teléfonos. La gente estaba allí para atender al cliente: en este caso, Facebook y todos sus usuarios", dice.

En su computadora, Sergio tenía acceso a una línea de tiempo "alternativa" que mostraba solo las entradas objetivo de denuncias de los usuarios, al azar, junto a un menú sobre posibles violaciones.

Los moderadores solo visualizan el nombre del autor de las publicaciones y no tienen acceso a sus perfiles completos. Su misión es eliminar, ignorar o enviar la publicación a una evaluación superior, lo que ocurre especialmente en casos de suicidio o pedofilia, que a su vez son enviados a las autoridades.

Los revisores de contenido, según Sergio, son normalmente jóvenes profesionales que viven en el extranjero o que no encuentran trabajo en sus áreas. La mayoría no completa un año en el puesto. La presión para cumplir las metas aparecía, según Sergio, en reuniones recurrentes con supervisores. "Tenían informes periódicos sobre metas de moderación. Los jefes a veces parecían porristas e intentaban motivarnos diciendo que habíamos salvado a X personas de suicidios o agresiones en el mes ", cuenta. "Pero también decían siempre que la continuidad de nuestros empleos dependía del cumplimiento de las metas diarias y citaba otros lugares con resultados mejores que el nuestro, la gente nunca sabía cuánto tiempo duraría la oficina", agrega (...).