Facebook podría estar usando mal su algoritmo para detener suicidios, según expertos
Algunos piensan que esta herramienta podría identificar como suicida a gente que no lo es
Después de que la compañía lanzó Facebook Live, resultó que varias personas la usaron para grabarse en vivo cometiendo suicidio. Primero fue el caso de una niña de 14 años y luego el de un hombre de 33 años, ambos de Estados Unidos.
Desde entonces, Facebook cayó en cuenta de que ese era un problema que tendría que atender de forma rápida.
Fue así como crearon un algoritmo para monitorear intenciones de suicidio en la red social y que ha estado funcionando desde 2017. Desde entonces, dicho servicio ha estado involucrado en el envío de servicios de emergencia en más de 3,500 ocasiones en que se detectó que, aparentemente, alguien iba a cometer un suicidio.
Lo que hace este algoritmo es identificar publicaciones y transmisiones en vivo que parecen expresar deseos de suicidio. Después de escanear el texto, si la herramienta lo clasifica como potencialmente suicida, se envía a un moderador de contenido y después a un miembro del equipo capacitado para notificar al personal de emergencias que esté más cerca del usuario.
¿Más mal que bien?
Aunque en principio parece ser una buena idea, algunos expertos piensan que podría hacer más mal que bien, como el psiquiatra y consultor tecnológico de Harvard, John Torous, quien dice que Facebook no ha compartido información sobre el funcionamiento del algoritmo con investigadores o miembros de la comunidad científica en general.
Una de las cosas que preocupan al psiquiatra es que el algoritmo esté identificando como suicidas a los usuarios equivocados o que desaliente discusiones honestas sobre salud mental en la plataforma. Incluso, podría hasta crear una crisis de salud mental donde no había una, según Torous.
“Sabemos que Facebook lo hizo y lo están usando, pero no sabemos si es preciso, si está marcando (como suicidas) a las personas correctas o incorrectas, o si está marcando las cosas demasiado pronto o demasiado tarde”, dijo Torous.
Ante esto, la empresa ha dado a conocer que esta herramienta no es un producto para tratar la salud, sino una forma de tener ayuda si ves que alguien tiene problemas.
“Estamos en el negocio de conectar a las personas con comunidades de apoyo. No somos proveedores de salud mental”, dijo Antigone Davis, jefe global de seguridad de Facebook.
–También te puede interesar: Mark Zuckerberg le construyó una ‘caja de sueño’ a su esposa