Connect with us

Tecnologuía

Tecnologuía

El resultado de ser moderador de Facebook: trastornos postraumáticos

Omicrono

El resultado de ser moderador de Facebook: trastornos postraumáticos

Los moderadores de Facebook están expuestos continuamente a contenido traumático, eso es algo que todo el mundo que se presenta a este puesto de trabajo debe saber; de hecho, en las ofertas así se manifiesta, por lo que se pide que la gente sea muy dura en este sentido; vamos, poco menos que Facebook necesita sociópatas para esta tarea.

Y no es para menos, pues el contenido que deben moderar puede ser desde asesinatos a sangre fría y violaciones hasta pornografía infantil; pero a cambio de ello, claro, se ofrece un sueldo muy bueno. Aún así, una ex-moderadora de Facebook está demandando a la compañía por sufrir trastornos postraumáticos; ¿a qué clase de contenido están expuestas estas personas, si se supone que están preparadas especialmente para ello?

No solo la moderadora que mencionamos, sino que miles de ellos podrían denunciar a la compañía por sufrir trastornos por estrés postraumático (TEPT); demandas que, por otro lado, posiblemente no deberían admitirse a trámite debido a que estos trabajadores ya sabían a lo que iban a exponerse.

¿Qué clase de contenido macabro hay en Facebook, Zuckerberg?

Los abogados de Selena Scola denuncian «una exposición constante y absoluta a imágenes altamente tóxicas y extremadamente perturbadoras en el lugar de trabajo». La empleada trabajó en Menlo Park (California) desde junio del 2017 hasta marzo de este mismo año; apenas 10 meses que han bastado para acabar con su salud mental. Concretamente, fue expuesta a «vídeos, imágenes y transmisiones en vivo de abuso sexual infantil, violación, tortura, bestialidad, decapitaciones, suicidios y asesinatos».

Recordemos que el año pasado se emitió en directo un vídeo de una persona grabándose a sí misma mientras iba por la calle asesinado a personas con una pistola; y no es el único caso, pues resulta que es ridículamente común encontrarse con vídeos en directo de suicidios.

Para solucionar esto, Facebook ha desarrollado una Inteligencia Artificial capaz de identificar contenido inapropiado. Pero, dada la importancia de esta tarea, no quieren dejarla en manos de un robot, aún. No obstante, esto evitaría que los moderadores humanos tuvieran que estar viendo este contenido tan macabro, que probablemente sea el peor que encontremos en todo Internet, sin exagerar.

«Reconocemos que este trabajo a menudo puede ser difícil. Es por eso que tomamos el apoyo de nuestros moderadores de contenido de manera increíblemente seria, comenzando con su capacitación, los beneficios que reciben y asegurando que a cada persona que revisa el contenido de Facebook se le ofrece apoyo psicológico y recursos de bienestar», explica Facebook; precisamente, más apoyo psicológico es lo que pide esta ex-moderadora que ha denunciado a la aplicación.

Imagen de portada | Facebook

La entrada El resultado de ser moderador de Facebook: trastornos postraumáticos aparece primero en Omicrono.

More in Omicrono

To Top
A %d blogueros les gusta esto: