Le potenzialità per lo sviluppo dell’Intelligenza Artificiale sono ancora in una fase embrionale e noi (gli umani) ancora nel primo stadio del ciclo di adozione di tecnologie così avanzate.
Esattamente come un bambino, anche nel percorso di crescita delle AI ci sono stati e ci saranno inciampi, cadute e straordinari successi. Ma cosa potrebbe succedere nel futuro?
LEGGI ANCHE: da ELIZA ad Alexa, come si è evoluto il panorama dei Bot
Vecchie paure
Quando una nuova tecnologia si affaccia alla platea del quotidiano c’è chi solleva presunti dubbi sulla sua eticità, su quello che potrebbe succedere se la parte “cattiva” ne prendesse il sopravvento. Ma se siamo, per ora, sopravvissuti ai risultati del Progetto Manhattan e all’inverno atomico di “The Day After”, faremo lo stesso con Skynet, Matrix e Roy Batty?
Lo scenario predetto solo dai più illuminati scrittori e registi di sci-fi e cyberpunk si presenta oggi a noi sotto mentite spoglie? Sarà la servizievole voce di Siri a soggiogare l’umanità e provocarne l’estinzione?
Epic Fail
Un esempio da sacrificare all’altare dei disfattisti è l’epic fail di Tay, il chatbot IA di casa Microsoft, dato alla luce e messo offline in poche ore dopo che su Twitter si era prodigato in commenti razzisti. Ma come avrebbero potuto evitarlo? Esattamente come si dovrebbe fare con i bambini, insegnandogli le buone maniere. Nello stesso modo ingegneri e developer dovranno preoccuparsi di insegnare agli algoritmi di machine learning, valori e norme sociali.
Filosofia: una, nessuna, centomila
Insegnare alle macchine la filosofia quindi. Giusto, ma quale? Dopo migliaia di anni gli esseri umani non hanno ancora imparato a convivere tra loro, a far convergere religioni e filosofia appunto, quale di queste dovremmo insegnare alle IA?
Proviamo a "filosofeggiare" meno e porre un esempio più concreto, come quello di decidere tra la vita e la morte in caso di incidente inevitabile e insegnarlo ad un’automobile self-driving.
Uno scenario, ad esempio, dove questo veicolo abbia solo due scelte, non colpire il pedone scegliendo di far morire il proprio occupante nell’incidente o viceversa, salvare il viaggiatore colpendo il pedone. Quale vita è più importante preservare, quella del passeggero o quella del pedone?
Tu cosa sceglieresti? Nello stesso modo anche le culture mondiali divergono su questo tema.
Ma soprattutto, compreresti e utilizzeresti un auto programmata per sacrificare il suo passeggero e che non puoi controllare direttamente? Diventerebbe una Tesla, ad esempio, supremo giudice etico rivelando quindi anche gli orientamenti di chi l’ha costruita?
Si pone qui il tema della necessità di trasparenza oltre che di un contributo etico.
Come hanno reagito i colossi dell’Hi Tech
Lo scorso settembre Google, IBM, Microsoft, Amazon e Facebook hanno siglato l’accordo “Partnership on Artificial Intelligence to Benefit People and Society” per condividere una lista di Best Practices che coinvolge, l’etica, la trasparenza e soprattutto le policy in merito alla privacy da seguire nello sviluppo dell’Intelligenza Artificiale, un passo proattivo di autoregolamentazione dell’industria Hi-Tech.
La possibile deriva delle IA è un pericolo sul quale si è interrogato anche Stephen Hawking per cui:
lo sviluppo di una piena intelligenza artificiale potrebbe significare la fine della razza umana.
Il Signor Tesla, aka Elon Musk, ha invece finanziato il Future of Life Institute (FLI) che ha l’intento di garantire che l’Intelligenza Artificiale non porti all’estinzione la razza umana. Ma sarà sufficiente un’organizzazione filantropica a difenderci?
I campi in cui l’Intelligenza Artificiale è già applicata sono ormai molteplici: trasporti, telecomunicazioni e media, settore sanitario e finanziario e customer care ma la corsa alle “macchine intelligenti” continua.
L’umanità, o meglio le conoscenze scientifico-tecnologiche acquisite da una parte di essa, si trovano ad una svolta cruciale, un punto così alto di conoscenza da poter scatenare un cambiamento senza precedenti che sarà guidato proprio dalla IA.