Nell'ultimo periodo assistiamo sempre di più al diffondersi di episodi di omicidi e suicidi che vengono trasmessi in diretta o in differita attraverso post su Facebook: basti pensare al recente caso dell’adolescente Katelyn Nichole Davis, che si è tolta la vita in live streaming sulla piattaforma Live.Me, e il cui video è diventato virale in pochissimo tempo.
Proprio Facebook è al centro di un dibattito che ha visto la mobilitazione di gran parte dell'opinione pubblica, e non solo. Recentemente ha ricevuto reazioni negative nell'ambiente che lo circonda in merito alla diffusione di un video che riprendeva un suicidio in live streaming e, sempre questo mese, in seguito alla diffusione del video che mostrava la violenza dell’assassino di Cleveland mentre spara ad un uomo di 74 anni.
A rafforzare questa preoccupazione sembra aver alimentato anche la serie Tredici in onda su Netflix, che contiene scene esplicite di un tentato, e riuscito, suicidio, ma ancor di più il terrificante fenomeno di massa del gioco online “Blue Whale” che ha spinto centinaia di adolescenti a togliersi la vita. Un vero ‘gioco della morte’ che ha portato all’arresto, lo scorso novembre, del suo ideatore Philip Budeikin, uno studente di Psicologia di 22 anni, con l’accusa di istigazione al suicidio.
LEGGI ANCHE: Blue Whale: fra falsi d’autore, pericoli reali e diffusione di contenuti
Sembra che Facebook stia diventando la cassa di risonanza di un malessere mentale che affligge molte persone, a tal punto che il fondatore ha deciso di intervenire assumendo una task force di tremila persone, che faranno parte del Team di Community Operations, destinate a vagliare in modo veloce le segnalazioni di contenuti impropri o pericolosi fatte dagli utenti.
A fare l'annuncio è lo stesso Zuckerberg sulla propria pagina personale dove, in un lungo post, dichiara: “Questi revisori ci aiuteranno a migliorare il processo di rimozione dei contenuti che non consentiamo su Facebook, come i discorsi d’odio e lo sfruttamento di minori. Continueremo a lavorare con le nostre comunità locali e le forze dell’ordine che si trovano nella posizione migliore per garantire aiuto a coloro che ne hanno bisogno, o perché sono in procinto di farsi del male, o perché si trovano in pericolo. Oltre ad investire in ulteriori risorse umane, stiamo anche costruendo strumenti migliori per tenere la nostra comunità al sicuro”.
Facebook, in realtà, sta lavorando da tempo per far sentire più sicuri i suoi utenti. Dallo scorso anno ha iniziato a collaborare con le organizzazioni di salute mentale per lanciare strumenti e risorse volte a sostenere la comunità. Da qui nasce Facebook Safety, grazie alla quale gli utenti possono accedere facilmente ai gruppi di sostegno con la capacità di segnalare post che facciano riferimento all’autolesionismo o al suicidio, direttamente dalla piattaforma di Facebook.
L' ultimo sforzo per migliorare la comunità online nasce però da una collaborazione con la piattaforma di social media Trevor Project, la principale organizzazione nazionale che fornisce servizi di prevenzione al suicidio e intervento in caso di crisi alla comunità di giovani LGBTQ.
Molte ricerche hanno infatti dimostrato che tra le comunità più giovani, specialmente negli Stati Uniti, i tassi di suicidio e tentativi di suicidio sono notevolmente più elevati per coloro che appartengono alla comunità LGBTQ. Dati suggeriscono poi che i casi di depressione e di uso di droga tra le LGBT si verificano dopo il passaggio di leggi fortemente discriminatorie.
Per cercare di dare una risposta a una problematica così diffusa, proprio in occasione della celebrazione del mese dedicato alla sensibilizzazione della salute mentale negli Stati Uniti, Facebook ha annunciato che gli utenti, nei prossimi mesi, potranno mettersi in contatto con le risorse impiegate per il supporto alla salute mentale sulla piattaforma di Trevor Project direttamente da Messenger.
La discussione "uno a uno" è spesso il metodo migliore per ascoltare e aiutare le persone, e questo è esattamente ciò in cui è specializzato il progetto Trevor, che sostiene quanto la possibilità di accedere ad una chat box di supporto possa costituire un elemento molto utile al loro lavoro. Stando infatti ai dati forniti dalla stessa piattaforma, il tasso di tentativi di suicidio è “quattro volte maggiore per i giovani LGB e due volte maggiore per i giovani che si sentono confusi sulla propria sessualità rispetto agli eterosessuali”.
Il rapporto dell’Organizzazione mondiale della sanità da tempo ha denunciato come nel mondo si commetta un suicidio ogni 40 secondi. A uccidersi sono soprattutto i giovani. Nella fascia d'età tra i 15 e i 29 anni il suicidio è, infatti, la seconda causa di morte, come emerge dagli studi del Centro per il Controllo e la Prevenzione delle Malattie.
Dunque gli utenti di Facebook, appartenenti a tutte le fasce di età, potrebbero sicuramente trarre beneficio da questa risorsa. Inoltre, il supporto di crisi di Messenger potrà espandere la sensibilizzazione ad altre aree della comunità sulla salute mentale anche grazie all’aiuto delle organizzazioni che hanno deciso di aderire, quali Crisis Text Line, la National Eating Disorder Association, Partnership for Drug-Free Kids e la National Suicide Prevention Lifeline.
Ma la vera novità riguarda la possibilità, annunciata di recente da Facebook, di ricorrere all'intelligenza artificiale per testare un sistema di riconoscimento del campione, in grado di identificare i post che contengono pensieri suicidi. Questi post verranno poi riesaminati dal Team di Facebook, che deciderà se sia il caso di estendere le risorse impiegate per la prevenzione del suicidio a quello specifico caso.
Facebook è un centro importante per molti membri della comunità LGBTQ, è qui che spesso discutono delle loro problematiche e delle lotte di cui si fanno sostenitori, come del resto lo sono YouTube, Instagram, Tumblr e altri social media. Che sia un primo passo per convincere anche le altre piattaforme dell’importanza di utilizzare tutti gli strumenti per prevenire casi di suicidio? Noi speriamo di sì.