“Regolare l’intelligenza artificiale prima che sia troppo tardi”: sono queste le esatte parole pronunciate da Elon Musk, il CEO di SpaceX e Tesla, nonché cofondatore con Peter Thiel della piattaforma di pagamenti Paypal. “E’ il rischio maggiore che corriamo a livello di civiltà”, ha dichiarato Musk intervenendo al meeting estivo della NGA, l’associazione che riunisce i governatori degli stati americani.

“Quando dico che i robot faranno tutto, intendo dire tutto. Io continuo a suonare l’allarme, prima che la gente veda i robot uccidere per strada senza sapere come reagire, perché sembrano così eterei. Penso che dovremmo essere molto preoccupati dell’intelligenza artificiale. Questo è uno dei rari casi in cui è necessario essere proattivi, anziché reattivi, nell’introdurre delle regole”

Per chi segue con una certe regolarità le sue vicende, queste ultime dichiarazioni non costituiscono certo una sorpresa. Non è infatti la prima volta che Musk mette in guardia dai pericoli che potrebbero derivare dallo sviluppo incontrollato dell’intelligenza artificiale. Nel 2014 ha mostrato apprezzamento per le tesi di Nick Bostrom, filosofo che insegna a Oxford e autore di Superintelligence, il bestseller nel quale spiega come le nuove tecnologie potranno prendere il sopravvento sull’umanità. Bostrom è uno dei più accaniti divulgatori della teoria del rischio esistenziale, secondo la quale uno dei problemi da mettere sul tavolo dei governanti e di chi si occupa di etica è quello della sopravvivenza del genere umano nel lungo periodo.

Elon Musk è anche uno dei primi firmatari della lettera aperta inviata dal Future of Life Institute per lo sviluppo di un’intelligenza artificiale “robusta e benefica”. Ha inoltre donato dieci milioni di dollari allo stesso istituto, che li ha utilizzati per finanziare borse di studio. Musk ha quindi fondato OpenAI, un’organizzazione di ricerca no-profit il cui scopo principale è “scoprire e mettere in atto percorsi per un’intelligenza artificiale sicura”. Cofinanziatori del progetto sono Sam Altman (presidente del colosso di venture capital Y Combinator), Greg Brockman (ex CTO per Stripe), Jessica Livingston (partner e cofondatrice di Y Combinator), Reid Hoffman (cofondatore di LinkedIn) e Peter Thiel (oggi consigliere di Trump e guru del venture capital). OpenAI pubblica una rivista periodica e ha strutturato due piattaforme: Gym (un toolkit per lo sviluppo di algoritmi sull’apprendimento) e Universe (una sorta di vetrina di quanto realizzato con Gym).

Come detto, l’ultima dichiarazione di Musk non è un caso isolato. Nell’ottobre del 2014 parlando al MIT Aeronautics and Astronautics aveva tenuto un discorso poi ripreso da moltissimi media:

“Penso che dovremmo essere molto prudenti con l’intelligenza artificiale. Se dovessi dire qual è la principale minaccia alla nostra esistenza come genere umano, sarebbe probabilmente questa. È per questo che dobbiamo stare molto attenti all’intelligenza artificiale. Un numero sempre maggiore di scienziati crede che sia necessario regolare la situazione a livello nazionale o addirittura internazionale, anche per essere sicuri di non fare le cose con i piedi. Con l’intelligenza artificiale stiamo evocando i demoni. È come quelle storie in cui c’è un tipo con la stella a cinque punte e crede di controllare il demone con l’acqua santa. Non funziona così”

Appena qualche mese prima in un’intervista rilasciata alla CNBC aveva detto che lo scenario alla “Terminator” era uno dei rischi dello sviluppo dell’intelligenza artificiale:

“Non penso che nel film “Terminator” volessero creare l’intelligenza artificiale. Non si aspettavano uno sviluppo del genere. […] Si tratta solo di stare molto attenti, bisogna essere sicuri di questo”

Ma perché Musk teme così tanto che l’intelligenza artificiale? Questa paura è singolare per uno che mangia pane e scienza e ha fatto del progresso la sua ragione di vita. Tra l’altro, nella sua storia imprenditoriale ha investito almeno in due importanti aziende del settore: una è Vicarious Artificial Intelligence, finanziata con quaranta milioni di dollari, l’altra è addirittura DeepMind, poi acquisita da Google.

Innanzitutto è bene precisare che Musk non condanna l’AI, piuttosto teme che essa possa sfuggire dal controllo umano. Si potrebbe dire che, diversamente dai razzi e dalle automobili che progetta, essa possiede un carattere di autonomia e imprevedibilità che potrebbero ritorcersi un giorno contro il genere umano. In sostanza, ne teme lo sviluppo morale e decisionale piuttosto che quello meramente operativo.

Secondo. Credendo nella possibilità della singolarità, ovvero un momento preciso nel tempo e nello spazio in cui le macchine sovrasteranno gli uomini in tutte le capacità, è convinto che l’escalation che ne seguirà sarà incontrollabile e irreversibile.

Di Tkgd2007 – Created by Ray Kurzweil, Kurzweil Technologies, Inc.; recreated by en:User:Tkgd2007 in SVG format., CC BY 1.0, 15 differenti liste di cambiamenti paradigmatici per la storia umana, inserite in un grafico in scala logaritmica, mostrano una crescita esponenziale. Le liste sono state preparate, tra gli altri, da Carl Sagan, Paul D. Boyer, Encyclopædia Britannica, American Museum of Natural History e University of Arizona e compilate da Ray Kurzweil

Infine, l’impegno nelle attività del FLI testimonia che la preoccupazione di Musk è rivolta verso quell’aspetto malvagio e riguardante settori eticamente a rischio oppure cruciali per il genere umano, quali le armi (nucleari e non) e l’energia. Da questo punto di vista non è solo nella comunità scientifica: solo qualche settimana fa all’AI Conference 2017 molti scienziati hanno discusso circa la possibilità di introdurre delle vere e proprie backdoor sotto il controllo di operatori umani per impedire che le cose vadano per il verso sbagliato in caso di sviluppi improvvisi.

Perciò classificare le uscite di Musk come semplici boutades non avrebbe senso, prima di tutto per la sua enorme esperienza nel settore delle nuove tecnologie e in secondo luogo perché è già talmente popolare di suo che non ha bisogno di introdurre argomenti apocalittici per attirare su di sé l’attenzione. Anzi, visto il suo ruolo di insider è bene tenere d’occhio le sue prossime dichiarazioni per capire da che parte tira il vento dell’intelligenza artificiale. Prima che si trasformi in un pericolo uragano.