L’inchiesta

Il caso Molly Russell, vittima dei social media

Contenuti online pericolosi: a sei anni dalla morte della giovane britannica Patti Chiari fa il punto sulle misure di sicurezza delle piattaforme. Pochi i progressi fatti

  • 20 gennaio, 12:19
  • 1 febbraio, 11:40
1705698409594_30308e271e8486ada2447808b5c0d93b
Di: Patti Chiari/gfont 
Grazie alle prove che sono state raccolte nell’indagine sappiamo che Molly faceva queste “scorpacciate”, diciamo. Quando era molto depressa andava sui social in cerca di aiuto. Ed era naturalmente il posto più sbagliato dove cercarlo

Ian Russell

Ian Russell non ha dubbi: Instagram ha contribuito alla morte di sua figlia. È il 2017, Molly ha 14 anni, e una sera di novembre dopo aver cenato e guardato la televisione insieme alla sua famiglia, si ritira nella sua stanza. La mattina seguente sua madre, Ruth, la troverà senza vita, a causa di un atto di autolesionismo. Nella ricerca disperata di risposte, il padre accede agli account social della figlia e si imbatte in una realtà sconvolgente. Se da un lato alcune delle attività online di Molly riflettevano gli interessi comuni di una ragazzina, altre invece riguardavano l’autolesionismo e il suicidio.

Viene condotta un’indagine per appurare le cause del decesso e i dati che emergono sono allarmanti. Negli ultimi sei mesi di vita, Molly ha interagito con oltre 2’100 post su Instagram associati alla depressione, all’autolesionismo o al suicidio. “Questo materiale ha influenzato la sua salute mentale in modo significativo e non secondario” ha dichiarato Andrew Walker, medico legale coinvolto nel caso. Tali scoperte confermano i timori del signor Russell, secondo cui la morte della figlia è sì dovuta alla depressione, ma anche agli effetti negativi dei contenuti online.

Il caso di Molly segna così una svolta. Per la prima volta viene puntato il dito contro i social media, che tra una flebile giustificazione e qualche ammissione di colpa promettono di fare meglio.

Da quella tragedia cosa è cambiato?

Poco, sembrerebbe. La moderazione dei contenuti è una questione spinosa per le aziende, che cercano di bilanciare sicurezza e libertà di espressione. L’obiettivo delle piattaforme resta però quello di tenere incollati i propri utenti all’applicazione. E i contenuti estremi, che suscitano indignazione e scalpore, funzionano meglio. L’algoritmo lo sa e segue questa logica.

Facebook, Instagram, TikTok e X hanno effettivamente introdotto delle misure per limitare l’accesso al materiale potenzialmente dannoso. Se si digitano parole chiave come autolesionismo o suicidio, la ricerca viene bloccata e compare un messaggio che chiede all’utilizzatore se necessita di aiuto. Come dimostra l’inchiesta di Patti Chiari però, aggirare queste restrizioni è molto semplice, basta solo inserire gli hashtag giusti. Su Instagram, addirittura è sufficiente cliccare la scritta “vedi post”. Appaiono così immagini di ferite aperte, di sangue e lamette, messaggi distruttivi e persino consigli. E dopo aver cercato contenuti inerenti al suicidio, l’algoritmo identifica la tematica come il nostro principale interesse, continuando a bombardarci con frasi ansiogene e depressive. Questo è esattamente quello che è successo alla ragazza inglese: è caduta in un meccanismo che le riproponeva continuamente le sue fragilità.

Le aziende dichiarano che vogliono adottare nuovi strumenti, fare in modo che le sicurezza venga presa sul serio. Queste parole suonano bene ma abbiamo visto che poi nella realtà dei fatti non è cambiato nulla, i contenuti pericolosi sono ancora lì

Le parole del signor Russell ricordano che nonostante le promesse fatte siamo ancora lontani da un ambiente online completamente sicuro. Il dibattito sulla tutela della salute mentale degli utenti - specialmente di quelli minorenni - è dunque più che mai attuale e necessario. Anche in ricordo di Molly la cui vicenda è stata al centro della puntata di Patti Chiari del 19.01.2024.

Correlati

Ti potrebbe interessare