Las condiciones en las que laboran los moderadores de contenido en diversas redes sociales es un tema que en años recientes ha sido duramente cuestionado y ahora un grupo de moderadores mexicanos que trabajan para Facebook acaban de evidenciar las «condiciones deplorables» en las que laboran.
La información se ha revelado en un reportaje firmado por Buzzfeed News en donde se aclara que ese grupo de trabajadores están subcontratados por la empresa Genpact.
En términos generales, las denuncias tienen que ver con que la compañía ha obligado al personal a asistir a las oficinas de manera presencial y aún con casos de contagios confirmados, en medio de una nueva ola ocasionada por las variantes Delta y Omicron.
Adicional, estos moderadores que se dedican a filtrar el contenido en Facebook que se publica en español acusan que han tenido que lidiar con injusticias y desventajas en comparación con los equipos que revisan la información en inglés.
La cantidad de información ha revisar así como la precisión exigida son dos de las grandes denuncias al respecto.
De acuerdo con el mencionado artículo, aunque este equipo de 50 personas están enfocados solo a las publicaciones en Facebook que se desprenden desde México, también tienen como responsabilidad comprobar las publicaciones de apps como Instagram o WhatsApp, en donde se consideran a otros países de habla hispana.
Facebook responde
Adicional se dio a conocer que el equipo debe cumplir con una tasa de precisión de 85 por ciento para cumplir con las políticas de Facebook, con un margen promedio de 66 segundos para tomar una decisión sobre cada publicación evaluada.
Ante estas acusaciones, tanto Facebook como Genpact decidieron plantar postura:
«Cualquier decisión de regreso a la oficina que se tome de acuerdo con las necesidades del cliente se realiza con las mejores prácticas de seguridad y salud establecidas y de acuerdo con las regulaciones locales. En todas nuestras ubicaciones en el lugar de trabajo, incluida nuestra oficina de Richardson, Texas, seguimos los mejores estándares de seguridad de su clase, que incluyen pruebas frecuentes de antígenos».
Asegura Danielle D’Angelo, portavoz de Genpact.
«Utilizamos combinación de tecnología y personas para mantener el contenido que rompe nuestras reglas fuera de nuestra plataforma. Aunque la IA ha progresado en este espacio, las personas son una parte clave de nuestros esfuerzos de seguridad».
Menciona Kadia Koroma, portavoz de Facebook.
Este asunto que ahora se lee de manera local, ha tenido réplicas en cientos de mercados alrededor del mundo y lo que queda en duda es la responsabilidad que Facebook tiene en este tipo de demandas, toda vez que sus sistemas de inteligencia artificial para hacer de su servicio uno saludable, parece estar aún en pañales.