L’intelligenza artificiale potrebbe portare all’estinzione dell’umanità nel giro di trent’anni.
La previsione non arriva da un catastrofista in vena di analisi apocalittiche, ma da un vero esperto, niente meno che Geoffrey Hinton, considerato uno dei padri dell’intelligenza artificiale (IA).
Il collasso della società potrebbe essere alle porte, dice l’informatico britannico-canadese, perché i cambiamenti stanno avvenendo a un ritmo molto più veloce del previsto.
Hinton, che quest’anno ha ricevuto il premio Nobel per la fisica, non è nuovo ad allarmi del genere. Aveva già detto che l’IA potrebbe innescare un meccanismo catastrofico per l’umanità, e ora, interpellato dalla BBC, l’ha quantificata: la possibilità che questo si verifichi va dal 10 al 20 per cento.
Hinton, londinese di nascita e professore emerito all’Università di Toronto, paragona gli esseri umani a bambini piccoli se confrontati con i sistemi sempre più potenti di intelligenza artificiale: “Immaginate voi stessi in confronto a un bambino di tre anni. Ecco, rispetto all’IA noi siamo bambini di tre anni. E mai prima d’ora abbiamo avuto a che fare con cose più intelligenti di no”.
L’anno scorso Hinton fece notizia dopo essersi dimesso da Google per avere la possibilità di parlare più apertamente dei rischi determinati da uno sviluppo non adeguatamente governato dell’IA. In poche parole, il timore è quello di cui narrano tanti racconti di fantascienza, ovvero che i sistemi di intelligenza artificiale, sempre più potenti e pervasivi, possano sfuggire al controllo umano, fino a diventare una minaccia per la nostra specie.
“Non pensavo – dice Hinton – che saremmo arrivati così presto al punto in cui siamo. Immaginavo che ci sarebbe voluto più tempo. Oggi la maggior parte degli esperti del settore prevede che prima o poi, probabilmente entro i prossimi vent’anni, svilupperemo una IA più intelligente degli umani. E questo è un pensiero che mi spaventa”.
Di qui la richiesta di urgenti misure di governo: “La mia preoccupazione è che la mano invisibile non ci terrà al sicuro. Lasciare che sia solo il profitto delle grandi aziende a guidare lo sviluppo non sarà sufficiente a garantire la sicurezza. L’unica cosa che può costringere queste grandi aziende a fare più ricerca sulla sicurezza è la regolamentazione governativa”.
Non tutti gli esperti la pensano come Hinton. Per esempio, Yann LeCun, capo scienziato per l’IA presso Meta di Mark Zuckerberg, sostiene che l’IA potrebbe salvare l’umanità dall’estinzione. Hinton stesso qualche anno fa aveva meno timori, ma con l’avvento di ChatGpt la sua visione è cambiata.
Hinton, settantasei anni, racconta di aver lasciato Google, nel 2023, proprio per poter parlare dei pericoli dell’IA: “Non voglio dire che a Google me lo impedissero, ma ho voluto poterne parlare senza temere dell’impatto delle mie analisi sull’azienda”.
È il 2013 quando Hinton arriva a Google, dovelavora a una rete neurale in grado di imparare da sola a identificare oggetti comuni. Diventa così uno dei pionieri del deep learning alla base dei Large Language Model, modelli linguistici di grandi dimensioni come ChatGpt e Gemini.
Nel 2018 vince il Premio Turing, una sorta di Nobel dell’informatica, e continua a lavorare nello sviluppo degli algoritmi necessari per l’addestramento delle reti neurali e a tecniche di apprendimento automatico, in cui il contributo umano non sia più necessario.
Nel 2022, con la pubblicazione da parte di OpenAi di ChatGpt, nascono le preoccupazioni. In un’intervista al New York Times Hinton vede profilarsi una possibilità concreta: il mondo attuale, quello che conosciamo, potrà presto essere sostituito da un universo di testi, immagini, audio e video creati dall’AI. Con il passaggio all’AI generativa sarà possibile cancellare ogni distinzione tra realtà e finzione. Già ora l’idea stessa di realtà viene messa in discussione e va ripensata.
Hinton non è l’unico specialista che si sta interrogando. In un’intervista per la presentazione di un suo nuovo libro (Genesis: Artificial Intelligence, Hope and the Human Spirit), anche Eric Schmidt, ex CEO di Google, pochi giorni fa, parlando della stupefacente rapidità nei progressi dell’IA, ha detto all’ABC: “Non sappiamo cosa comporterà dare questo potere a ciascun individuo del pianeta”.
Questo è un nuovo spunto di riflessione. Schmidt, infatti, non chiede soltanto più governo e più regolamentazione, al fine di impedire che l’IA generativa possa un giorno rendersi autonoma dall’uomo fissando i propri obiettivi, ma pone una questione legata all’esplosione dell’utilizzo sempre più diffuso di modelli di IA di potenza crescente: “Il potere di questa intelligenza è che ogni individuo avrà in tasca l’equivalente di un esperto universale. È come se un autore per il suo show, oltre alle sue note e ai suoi collaboratori, avesse a disposizione un Einstein e un Leonardo da Vinci che danno consigli. Questo sarà vero per ogni singola persona del pianeta, ma al momento, semplicemente, non sappiamo cosa significhi dare questo tipo di potere a ogni individuo”.
E qui in ciascuno di noi si accende un ulteriore segnale di allarme: se qualcuno si sta ponendo il problema di cosa significhi dare questo potere a ogni individuo, significa forse che si sta già pensando a una discriminazione? Ci sarà qualcuno che potrà disporre di queste risorse e qualcuno che non potrà? Ma chi deciderà in proposito? E come? Quali persone non saranno ritenute “idonee” a utilizzare le nuove risorse? E per quali motivi?
Domande che non riguardano un futuro remoto, perché l’IA è già qui, è già operativa in molteplici settori di applicazione. Siamo di fronte a qualcosa che forse può essere paragonato solo alla rivoluzione industriale, ma con una differenza sostanziale: l’attuale rivoluzione sta avvenendo a una velocità senza precedenti.