Manuel G Pascual para El País:
Janet Majewski, cuya hija de 14 años se quitó la vida, demandó en agosto a TikTok, Snapchat y Meta aludiendo que las citadas redes sociales son responsables de que la joven emprendiera un camino de no retorno. “Tienen que cambiar lo que muestran a los niños, modificar el algoritmo de manera que no les lleven a la oscuridad”, declaró a Bloomberg Businessweek.
Los pleitos a los que se enfrentan las redes sociales les piden que se responsabilicen de los efectos nocivos de sus productos, igual que sucedió hace 30 años con las tabaqueras. “Las tecnológicas creen que ese no es su problema. No está en su cultura empresarial luchar de verdad contra la difusión de contenidos que puedan fomentar el suicidio”, opina Albert Gimeno, portavoz de la asociación Padres 2.0, especializada en ciberacoso, adicciones tecnológicas o violencia digital, entre otras. “Las medidas que han puesto en marcha y los equipos que han creado para eliminar el contenido dañino no solo tienen que lidiar con un ingente volumen de información a revisar, sino con otros departamentos de las propias compañías que van en la dirección opuesta, como marketing, publicidad, ventas o comunicación”, añade.
El intento de las redes sociales para frenar el contenido que fomenta las autolesiones y suicidio:
La respuesta de Instagram es más flexible. Por un lado, establecen herramientas de control parental de los contenidos que ven los adolescentes. También prohíben los que promueven el suicidio o las autolesiones. “Encontramos y eliminamos el 98% de ese contenido antes de que se nos comunique acerca de ello”, apunta un portavoz de Meta. Por otro lado, la compañía permite que la gente hable de sus propios sentimientos y que comparta contenidos que traten sobre el suicidio, siempre que no lo promuevan.
El enfoque mixto, que combina herramientas automáticas de detección de material problemático con la moderación humana de contenidos, predomina en el sector. TikTok, por ejemplo, publica informes trimestrales sobre el cumplimiento de sus normas. En el último, que abarca de abril a julio de este año, se muestra que se eliminaron 113,8 millones de vídeos, lo cual supone en torno al 1% del total de vídeos publicados. “De estos, el 6,1% fueron eliminados por incumplir las políticas relacionadas con suicidio y retos peligrosos”, sostienen fuentes de ByteDance, propietaria de la red social.