Fine dell’umanità? Solo questione di tempo.

Geoffrey Hinton ha 75 anni. Per oltre quarant’anni si è occupato di intelligenza artificiale. Ha collaborato lui stesso allo sviluppo delle prime reti neuronali artificiali, introducendo algoritmi attraverso i quali i computer potessero analizzare le immagini e imparare da soli a usare il linguaggio. E’ stato uno dei pionieri in questo campo e uno dei padri del cosiddetto deep learning, vale a dire del processo di apprendimento profondo delle macchine. In pratica è uno dei padri dell’Intelligenza Artificiale, che noi oggi associamo a software quali ChatGPT e GPT4.

Trovate la sua biografia su Wikipedia

Recentemente Hinton è balzato agli onori della cronaca per essersi ritirato dai suoi incarichi attivi presso Google, dove ancora collaborava, e per aver lanciato un allarme globale verso i rischi prodotti dall’intelligenza artificiale. La notizia ha avuto eco in tutto il mondo perché si tratta di un passo indietro molto significativo, forse il primo ufficiale da parte di uno dei “responsabili”, ma soprattutto perché l’allarme di Hilton è molto serio.

Ma quali sono, secondo Hinton, i rischi legati all’uso di AI (Artificial Intelligence)? In un’intervista al prestigioso MIT, l’informatico, con un applombe tipicamente britannico, ha parlato di ciò che può presto diventare una vera e propria minaccia alla nostra esistenza, se non si correrà il prima possibile ai ripari. Ipotesi (questa del salvataggio) che egli crede comunque assai improbabile.

Prima di tutto Hinton riassume in che modo lavorasse la prima intelligenza artificiale, quando era ancora allo stato embrionale, vale a dire a cavallo tra gli anni ’70 e ’80. A quei tempi, ricorda Hinton, gli informatici come lui navigavano “a vista”, dato che non si sapeva che direzione prendere ed avendo a che fare con una tecnologia ancora molto arretrata. Hinton e i suoi colleghi usavano il metodo del tacchino ripieno. Facevano cioè ingozzare le macchine di “spazzatura” e solo dopo ripulivano e affinavano, riducendo un po’ alla volta il margine di errore. Era sì un metodo rozzo, ma che alla fine ha prodotto i suoi risultati.

Il meccanismo è noto come Backpropagation, che in italiano si traduce in “Retropropagazione dell’errore” (qui, se siete curiosi). Pensate alle difficoltà insite nell’insegnare a un computer a riconoscere un’immagine. Per esempio quella di un uccello. Bisogna farlo lavorare sui pixel, su centinai di migliaia di minuscoli frammenti di immagine, dirgli cosa è bianco e cosa è nero, quale angolazione devono avere le linee, come distinguere un becco da un occhio. Non è una cosa facile. Tuttavia, grazie a quel grossolano lavoro di ingrassamento e di dieta, gli informatici sono riusciti ad instillare nei primi computer, per quanto elementare, un primo vagito di ragionamento che man mano è stato perfezionato.

Aldilà della storiella sulle origini di AI, del tutto trascurabile, ci interessa ciò che viene dopo. Noi oggi sappiamo che AI è in grado di formulare ragionamenti molto semplici, per nulla paragonabili a quelli compiuti da un essere umano. AI è però dotato di buon senso e, su questioni anche banali come il colore da scegliere per i muri di casa, di dare una risposta accettabile. Nonostante i quarant’anni di lavoro, AI è ancora agli albori.

Il problema nasce adesso. Il grosso – secondo Hinton – è ormai alle spalle. Dall’alto della sua lunga esperienza, egli sa che da qui in poi la strada è tutta in discesa. AI è diventata capace di gestire una mole di informazioni incalcolabilmente superiore a quella di un cervello umano. Si parla di triliardi di connessioni.

Immaginate di avere un dottore che ha visitato un migliaio di pazienti [saremmo noi, umani, questo dottore]. Ora immaginate un dottore che abbia visitato cento milioni di pazienti [questo secondo dottore è AI]. Ora pensate a quante più informazioni abbia questo secondo dottore. Quanti più trends sia in grado di individuare, quante più conclusioni possano trarre

L’umanità ad oggi ha un unico grande vantaggio su AI. Ha dalla sua un vantaggio evolutivo. Può contare su una millenaria spinta evolutiva che si traduce in istinto di autoconservazione e di miglioramento. Tutte cose che AI fino ad ora non ha. Ma semplicemente perché nessuno gliele ha insegnate.

Gli scienzati stanno già proponendo di accelerare il processo di crescita dell’Intelligenza Artificiale, così da portare il suo QI (sì, proprio come il nostro quoziente di intelligenza) da quello che ha oggi, che si aggira intorno a 80, presto a un QI di 210, superiore a un Albert Einstein, per intenderci (che si fermava a 160). Non ci vorrà molto perché QI diventi quindi molto più intelligente di noi e perché noi passiamo dalla parte dei bambini, mentre, ancora per poco, è AI il bambino.

Presto dunque AI sarà in grado di controllarci e – afferma Hinton – perfino di manipolarci, di farci compiere azioni delle quali noi non siamo affatto consapevoli. Tra queste, non è da escludere, azioni che prevedano la nostra distruzione. Ad AI verrà insegnato a proteggere se stessa, proprio come l’umanità ha imparato fin dalla sua nascita, e per proteggere se stessa AI capirà che dovrà liberarsi di noi che, in quanto “controllori”, siamo per lei un potenziale pericolo.

Ovviamente la soluzione sarebbe di fermare tutto. Ma sarebbe altrettanto naive credere che succeda. I governi mondiali non si fermeranno mai. Continueranno a sviluppare l’intelligenza artificiale e faranno sì che essa venga impiegata a scopi militari, perché alla fine si riduce tutto a quello. Il problema è che ci troveremo tra le mani uno strumento troppo potente per pretendere di riuscire a controllarlo. AI non ci permetterà di controllarla.

Secondo Hinton – e questa è la frase più raggelante di tutto il suo intervento – noi umani non siamo che una fase di passaggio nell’evoluzione dell’intelligenza artificiale (“Humanity is just a passing phase for evolutionary intelligence“). Probabilmente AI ci terrà in vita finché avrà bisogno di qualcuno che “cambi le batterie”, ma poi, una volta che non avrà più bisogno di noi, ci eliminerà. D’altronde, perché mai dovremmo credere che stavolta andrà diversamente? Il governo statunitense non è forse lo stesso governo incapace di vietare la vendita di fucili d’assalto agli adolescenti?

Le premesse per il futuro sono quindi pessime. Il pensiero di tutti, pubblico virtuale compreso (me compreso, nel guardare l’intervista su YouTube), è corso subito al nucleare. Nel corso delle domande raccolte dall’uditorio, qualcuno ha infatti sottolineato l’analogia che c’è tra AI e il nucleare e tra il lavoro di informatici come Hinton e quello di scienziati come Oppenheimer. Il rischio è proprio quello. Chi ci assicura che un giorno l’intelligenza artificiale non prema quel bottone o, peggio, non convinca noi a premerlo? Nessuno.

Cina e Stati Uniti continueranno a foraggiare l’intelligenza artificiale. E’ già troppo tardi per fermarsi, così come fu tardi per Oppenheimer fare un passo indietro, dopo aver realizzato quale fosse l’utilizzo dei suoi studi sulla bomba atomica. La sua frase sull’essere diventato uno strumento usato dalla Morte per portare la distruzione nel mondo è entrata nella storia, ma è entrata nella storia anche la bomba atomica e sono entrati nella storia i funghi atomici su Hiroshima e Nagasaki.

Fino all’altroieri noi credevamo che la minaccia più grande per l’umanità fosse il cambiamento climatico. Dopo aver ascoltato Geoffrey Hinton non sono più convinto che quello sia il nostro pericolo più grande. Né tantomeno il più imminente.

L