Che sia un gruppo di dipendenti di Palo Alto o un sofisticato software, il dato certo è che l'attività degli oltre 2 miliardi di utenti di Facebook è costantemente sotto controllo. È per questo che il team di Mark Zuckerberg ha pensato di sfruttare questo monitoraggio per un fine sociale importante. Anzi per due. Grazie all'intelligenza artificiale il social network più famoso del mondo sarà in grado di individuare i post che contengono pensieri suicidi e di inviare supporto e aiuto a questi utenti. E se il fine sociale di questa iniziativa è ben evidente, la piattaforma può svolgere un ruolo importante con lo stesso meccanismo anche per contrastare il terrorismo. O almeno la condivisione di contenuti legati alla propaganda di Isis e al-Qaeda.
Dove gli "amici" possono arrivare troppo tardi
I social network e soprattutto Facebook, che da sempre non mette limiti di spazio all'espressione delle opinioni, diventano spesso un luogo in cui le persone sfogano le loro frustrazioni e i loro problemi. La conseguenza è che chi si trova in difficoltà spesso manifesta pubblicamente ai suoi contatti il suo disagio.
Se, però, nessuno dei cosiddetti "amici" interviene per aiutare, l'intelligenza artificiale è in grado di segnalare a dei moderatori umani la presenza di problemi del genere. La risposta consiste nell'invio di materiale che fornisca informazioni sulla salute umana. Nei casi più estremi si può anche provvedere ad avviare la ricerca dell'utente potenzialmente in pericolo.
Il test di questo strumento di controllo è stato fatto negli Stati Uniti e presto potrebbe allargarsi anche ad altri paesi. Esiste comunque un problema di privacy che ne limiterà l'utilizzo in alcuni stati europei. A parlare del meccanismo è stato lo stesso Zuckerberg che ha scritto un post sull'argomento: «È bene ricordare a noi stessi che l'intelligenza artificiale oggi può aiutare a salvare delle vite», ha scritto sul suo social network.
La guerra al terrorismo e il potere di un post
Con un articolo nella newsroom Facebook si è tornato a parlare anche dell'altra iniziativa del social network che sfrutta l'intelligenza artificiale. Nel tentativo di rispondere alle accuse di non fare abbastanza per fermare gli utenti che usano la piattaforma come strumento di propaganda terroristica, da Menlo Park è arrivato un aggiornamento sull'attività di controllo di questi contenuti pericolosi, parte essenziale della lotta al terrorismo online.
Monika Bickert, della gestione della policy globale e Brian Fishman, della sezione contro il terrorismo di Facebook, dal blog aziendale hanno scelto di fare il punto su quello che è stato fatto finora e su quello che ancora si può fare in questo senso.
Mark Zuckerberg
Come funziona l'AI antiterrorismo di Facebook
I manager di Facebook sono partiti da un dato: il 99% dei contenuti pericolosi che veicolano ideologie estremiste e che vengono poi eliminati dalla piattaforma è individuato dall'intelligenza artificiale prima che gli utenti del social network effettuino una segnalazione. A permettere questo risultato è un sistema automatico di analisi di testi, video e foto.
Una volta decisa la cancellazione, l'83% delle copie di quei contenuti viene eliminata entro un'ora. È una battaglia che Facebook ha iniziato già da diversi mesi, ma che con il tempo riesce ad ottenere maggiori risultati grazie al perfezionamento della tecnologia. Facebook si dice in grado di bloccare anche i profili di chi è in connessione con persone già segnalate per terrorismo o che presenta caratteristiche simili a profili già disabilitati.