Así fue como las redes sociales hicieron que una menor de tan solo 14 años se quitara la vida
Una investigación judicial concluyó que la depresión y el impacto de material visto en internet influyeron en su muerte.
Noticias RCN
AFP
10:00 p. m.
El 21 de noviembre de 2017, Molly Russell, una adolescente británica de tan solo 14 años, se quitó la vida después de haber estado expuesta durante meses a contenidos en línea que hacían apología del suicidio, la autolesión y la depresión.
Casi una década después, su padre, Ian Russell, de 62 años, revive el dolor tras el estreno del documental “Molly vs. The Machines”, dirigido por Marc Silver y estrenado este domingo en Reino Unido.
En entrevista con AFP en Londres, el padre reconoció que la película “hará resurgir parte del dolor”, pero aseguró que su propósito es que el caso de su hija no sea visto como un hecho aislado y que contribuya a “hacer evolucionar” el debate sobre el impacto de las redes sociales en menores.
Así fue como las redes sociales hicieron que una menor de tan solo 14 años se quitara la vida
En 2022, una investigación judicial determinó que Molly murió “por un acto de autolesión, mientras sufría depresión y los efectos negativos de contenidos vistos en internet”.
El informe reveló que, en los seis meses previos a su fallecimiento, la adolescente consultó 16.300 publicaciones en Instagram. De ese total, aproximadamente 2.100 estaban relacionadas con depresión, autolesión o suicidio.
Sus interacciones con este tipo de contenido aumentaron progresivamente. Según su padre, llegó un punto en el que “se convenció de que no valía nada”.
“¿Cómo pudo Molly convencerse de eso? Para quienes tuvimos la suerte de conocerla, es incomprensible”, afirmó.
Padre de la menor responsabiliza a las redes sociales por la muerte de su hija
Ian Russell responsabiliza a las plataformas digitales, que describe como “diseñadas con fines de lucro”, por la pérdida de su hija. Sin embargo, no respalda una prohibición total de las redes sociales para adolescentes, medida que ha sido considerada en varios países y recientemente aprobada en Australia.
Para él, el problema no se resuelve con restricciones generales, sino enfrentando la impunidad de los gigantes tecnológicos que, según denuncia, apuntan deliberadamente a personas vulnerables con algoritmos adictivos y las inundan de contenidos perjudiciales con fines lucrativos.
Cifras refuerzan alarmas sobre incitación a la autolesión en redes sociales
La Molly Rose Foundation, organización de prevención del suicidio cofundada por Russell, publicó en octubre una encuesta que expone la magnitud del problema.
El estudio indicó que el 37% de los adolescentes encuestados había visto al menos una forma de contenido de alto riesgo relacionado con suicidio, autolesión, depresión o trastornos alimentarios durante la semana en que se realizó la consulta.
Además, el 27% afirmó haber consultado ese tipo de material al menos 10 veces en esa misma semana.
El sondeo se llevó a cabo antes de que entraran en vigor, en julio de 2025, las disposiciones sobre protección infantil de la ley británica de seguridad en línea.
En este sentido, han salido propuestas como la prohibición que impide a asistentes virtuales de inteligencia artificial producir contenidos ilegales o perjudiciales.
Esta decisión se adoptó tras la polémica generada por la proliferación de imágenes manipuladas con inteligencia artificial de carácter sexual creadas por Grok, el sistema automatizado de conversación de X.
En enero, el regulador británico Ofcom abrió una investigación contra X y xAI para determinar si respetaron la legislación sobre protección de datos en relación con esas imágenes.
Aun así, la Molly Rose Foundation exige que el regulador avance más allá.


