Porros, estrés y pistolas por miedo a las represalias: así viven los moderadores de Facebook

image_pdfimage_print

En ocasiones sufren estrés postraumático y tienen las pausas para ir al baño controladas

El horroroso trabajo del moderador de contenido online

Empleados de Microsoft denuncian sufrir estrés postraumático por filtrar pornografía y contenido violento

Cuando un usuario de Facebook ve un comentario, imagen o vídeo ofensivo y lo denuncia para que nadie más tenga que verlo, al menos otra persona tiene que hacerlo: el moderador. Esta persona, a pesar de lo que podría parecer, no trabaja directamente para la red social, sino para otra empresa a la que se subcontrata este servicio, como Cognizant. Es decir, que en lugar de los 240000 dólares que cobraría en Facebook (esta cifra es la mediana entre los empleados de la firma), ingresa unos 28000, según un reportaje publicado por The Verge en el que se han revelado las condiciones de trabajo de estos moderadores. Y no son buenas.

Varias de las personas entrevistadas en este reportaje denunciaron sufrir o haber sufrido estrés postraumático, por ejemplo. Y es que el contenido que requiere moderación no siempre es una foto de la playa en la que aparece un pezón o la parrafada racista y homófoba de tu tío; también puede incluir vídeos de asesinatos que los empleados tienen que ver para determinar si viola las políticas de la empresa de Mark Zuckerberg.

Según explicaron, la forma de lidiar con el estrés es una mezcla de alcohol o drogas (una de las oficinas está en Arizona, donde la marihuana terapéutica es legal, así que recurren a ella en sus descansos), sexo en los baños (hasta el punto de que el equipo de seguridad tuvo que alertar a los gerentes) o la sala de lactancia (durante un tiempo quitaron la cerradura de esta para evitarlo), competiciones para ver quién encuentra el chiste más racista o llorar cuando alguno de los terapeutas está disponible. Todo ello, con la sombra del despido sobre sus cabezas.

En otros casos, la exposición a vídeos y comentarios conspiranoicos llegó a convencer a los trabajadores, algunos de los cuales son ahora firmes terraplanistaso tienen teorías sobre distintos atentados, según explicaron a The Verge. Randy, uno de los moderadores, que ya dejó la empresa, no cree que el 11S fuese un atentado y duerme junto a la misma pistola que llevaba al trabajo por miedo a las represalias de alguna persona cuyo contenido hubiese sido censurado o de un trabajador despedido por su decisión.

Esto se debe a que Facebook audita as decisiones con sus trabajadores y con moderadores con un perfil algo más senior (cobran un dólar más a la hora y su puesto se conoce como QA o quality assurance). El moderador y quienes le auditen deben tener la misma opinión sobre el contenido; su objetivo es que estén de acuerdo el 95% de las veces (no suelen lograrlo, pero caer de este porcentaje puede ser motivo de despido).

No se trata únicamente de eliminar el contenido que debe eliminarse, sino también de hacerlo por el motivo correcto (una publicación bien eliminada, pero por el motivo equivocado, bajaría este porcentaje). De las aproximadamente 1500 decisiones semanales, Facebook auditará unas 50 o 60 (el 2%). Pero antes lo debe hacer un QA de Cognizant y después los trabajadores de la compañía harán lo propio. Del resultado de este proceso depende la puntuación de precisión, que únicamente tiene en cuenta que estén de acuerdo, independientemente del contenido que se ha aprobado o censurado.

¿Y si no coinciden? Pueden pedir que se revise el caso. Si el QA les da la razón, no baja el porcentaje. Por este motivo, algunos han sido amenazados o, al menos, intimidados al grito de “¡Lo has auditado mal! ¡Era una teta!“. Y Randy cogió su pistola.

Al baño en el tiempo de terapia

Por si esto fuera poco, las condiciones de trabajo también distan bastante de las de Facebook. Al llegar, dejan en una taquilla sus teléfonos y cualquier libreta o papel que pudiese ser utilizado para apuntar información personal de los usuarios de la red social. El resto de sus pertenencias deben estar en bolsas transparentes para que los jefes siempre puedan ver su contenido. Después, cogerán cualquier puesto de trabajo (no tienen uno asignado, dado que cada día hay cuatro turnos) e iniciarán sesión en él.

Cada trabajador tiene media hora para comer y dos descansos de 15 minutos, tiempo que debe emplear para ir al servicio. También tiene nueve minutos diarios de “bienestar” que puede usar si se siente traumatizado por el contenido que ha tenido que moderar y necesita alejarse del ordenador un rato.

Al parecer, esas pausas son perfectas para ir al baño y mucha gente las utiliza para acudir en un momento en el que hay que esperar menos para utilizar uno de los seis urinarios disponibles (tres en el servicio de mujeres y otros tres, dos de ellos cerrados, en el de hombres). Cuando la dirección se dio cuenta, les prohibió hacerlo. Tampoco permiten a los trabajadores musulmanes utilizar este tiempo para sus rezos, que deben ser practicados durante alguna de sus pausas estipuladas.

Workplace: Facebook contra Facebook

A pesar de que no hay una cuota fija de contenido que debe ser moderado por cada trabajador cada día, uno de los trabajadores que participó en el reportaje aseguró que la cifra suele rondar las 400 publicaciones. Si por algún motivo bajan de las 300, tendrán que dar explicaciones.

Las decisiones se hacen en base a distintos documentos: tanto las políticas públicas como otras internas, que ofrecen más detalle. Además, hoy un documento de 15000 palabras que da más información. Y en casos de mayor actualidad, debaten entre los propios moderadores.

Así, por ejemplo, una publicación que aboque por la esterilización de los autistas no sería censurada (no es un grupo protegido), pero sí lo sería una que pidiese lo mismo para todos los hombres, al tratarse de un género. En este sentido, y siempre según la información de The Verge, recientemente han pedido a los moderadores que tengan en cuenta la vida sentimental del usuario a la hora de evaluar mensajes que expresen odio a un género.

A todo esto hay que unir Workplace, una versión de empresa de Facebook que funciona como la red social. Es decir, el contenido que se comparte sobre cómo tratar contenido durante un atentado no aparece de forma cronológica. Esto hace que los moderadores puedan cometer errores por creer que la información que acaban de ver sobre una política en un caso concreto es la más actual y, por lo tanto, el criterio que deben aplicar, cuando no es así. Por lo tanto, en ocasiones la moderación falla en Facebook por culpa de que la empresa a la que Facebook subcontrata el proceso utiliza las herramientas de Facebook.

700 euros al mes en Varsovia y Lisboa

La situación es parecida en Europa, con la diferencia de que todavía es más precaria. Según denuncia eldiario.es, los empleados de estos centros, subcontratados por empresas como Accenture en Lisboa o Varsovia, entre otras, cobran 700 euros al mes por un trabajo similar.

Además, en su caso se han instaurado sistemas para que los trabajadores denuncien el mal comportamiento de los compañeros a cambio de premios. Así, están vigilados durante toda la jornada, excepto en los 30 minutos de descanso que tienen cada día, un tiempo que también deben emplear para comer.

En cuanto al porcentaje de precisión, en los centros europeos debe acercarse al 98% en los entre 400 y 600 casos que revisan cada día si el moderador quiere optar a un ascenso o a un bonus, que suele rondar los 100 euros. Esta decisión deben tomar en 30 segundos.

Fuente: elmundo.es

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *