Ex empleada demanda a Facebook por causarle estrés postraumático

Asegura que hay cientos de personas con su mismo problema

Los contenidos violentos están por todos lados en internet.

Los contenidos violentos están por todos lados en internet. Crédito: Shutterstock

Las imágenes y los contenidos angustiantes que una mujer tuvo que revisar como parte de su trabajo como moderadora en Facebook, le provocaron trastorno por estrés postraumático (TEPT), por lo que presentó una demanda contra la red social.

Selena Scola, quien trabajó para una tercera compañía que la contrató como moderadora de contenido en Facebook, desempeñó esta función de junio de 2017 a marzo de 2018. Durante esos nueve meses, la mujer asegura que la red social no brindó la atención debida a la salud mental de los moderadores, quienes revisan los peores contenidos de internet.

Si procede la querella presentada por Scola en un tribunal de San Mateo, California, se convertirá en una demanda colectiva, pues asegura que cientos de moderadores han pasado por lo mismo que ella.

De acuerdo con la denuncia, la demandante estuvo “expuesta a miles de imágenes, videos y difusiones de violencia gráfica transmitidas en vivo“, por lo que desarrolló “trastorno de estrés postraumático debilitante” durante ese tiempo y hasta la fecha.

El TEPT es común en personas que han sufrido fuertes eventos de violencia durante sus vidas, por ejemplo, en los soldados participantes en combate, y genera una gran angustia que se extiende por más de tres meses y que afecta la vida cotidiana de una persona. Entre los problemas que puede ocasionar se encuentran la sensación de que el evento se vive nuevamente, insomnio o pesadillas, soledad, ira, preocupación, culpa o tristeza. El tratamiento se basa en terapia o medicamentos, o bien, una combinación de ambos.

La demanda de Scola asegura que sus síntomas se desencadenan actualmente “cuando toca el mouse de una computadora, entra a un edificio frío, ve violencia en la televisión, escucha ruidos fuertes o se sobresalta. Sus síntomas también se desencadenan cuando recuerda o describe las imágenes a las que estuvo expuesta como moderadora de contenido”.

Hay unos 7,500 moderadores de contenido trabajando para Facebook y no es la primera vez que se habla de este problema. Un reporte de Wired denunció que los moderadores de esta red social y de otras compañías tecnológicas están expuestos a contenidos violentos como decapitaciones, abuso sexual infantil, abuso de animales y suicidios, lo que puede provocarles desequilibrios psicológicos.

En esta nota

Abuso sexual a menor Abuso sexual a menores abuso sexual de menores Abuso sexual infantil Decapitaciones demanda Enfermedades de salud mental estres postraumatico Facebook Salud Mental suicidio suicidios Tecnología TEPT Transmisión en vivo violencia
Contenido Patrocinado
Enlaces patrocinados por Outbrain