di Lorenzo Ricciardi Celsi*
Papa Francesco, in occasione della Giornata mondiale della pace 2024, ha diffuso un messaggio (qui) dal titolo Intelligenza artificiale e pace.
Il papa esamina il rapporto tra scienza, tecnologia e pace, sottolineando che il progresso scientifico e tecnologico può portare benefici ma presenta anche rischi, e richiamando alla responsabilità nell’uso delle nuove tecnologie. La riflessione si focalizza in particolare sull’intelligenza artificiale (IA) e le sue implicazioni etiche. Si afferma che l’IA è frutto dell’intelligenza umana, ma deve essere gestita con responsabilità per evitare rischi eccessivi. Il papa esprime preoccupazione per l’impatto delle nuove tecnologie digitali, soprattutto nell’era dell’informazione e nella sfera digitale.
Si passano brevemente in rassegna le sfide etiche legate all’IA, inclusi i rischi di manipolazione delle informazioni, discriminazione, e la perdita di posti di lavoro umani. Si sottolinea la necessità di sviluppare un’etica dell’IA che includa valori umani fondamentali come l’inclusione, la trasparenza e l’equità. Il papa evidenzia anche il ruolo cruciale dell’educazione nel promuovere il pensiero critico e nell’affrontare le sfide etiche legate alle nuove tecnologie.
Un capitolo significativo riguarda l’uso dell’IA nell’ambito militare. Il papa solleva preoccupazioni etiche sull’impiego di armi autonome letali e sottolinea l’importanza della supervisione umana in questo contesto.
Infine, si invita alla cooperazione internazionale per regolamentare lo sviluppo e l’uso dell’IA a livello globale, proponendo la creazione di un trattato internazionale vincolante. Si evidenzia la necessità di coinvolgere tutte le parti interessate, compresi i poveri e gli emarginati, nei dibattiti sulla regolamentazione dell’IA.
Il papa conclude con una preghiera affinché lo sviluppo dell’IA possa contribuire alla fraternità umana e alla pace, invitando credenti di diverse religioni e persone di buona volontà a collaborare per affrontare le sfide della rivoluzione digitale e costruire un mondo più giusto e pacifico per le generazioni future.
Proprio in questi ultimi giorni l’Unione europea ha raggiunto un accordo storico per approvare l’AI Act, primo regolamento esteso sull’uso consapevole dell’IA.
L’Unione europea ha avviato il percorso verso la regolamentazione dell’IA, inizialmente attraverso misure di “soft law” come linee guida etiche e raccomandazioni politiche. Nel luglio 2020, il Gruppo esperto di alto livello sull’IA, coordinato dalla Commissione europea, ha proposto uno strumento chiamato Assessment List for Trustworthy Artificial Intelligence (ALTAI) per assistere i progettisti nello sviluppo di prototipi di IA di alto livello.
ALTAI si concentra su sette principi etici, fornendo una lista di controllo dinamica per valutare la compatibilità di progetti di IA con tali principi.
Negli ultimi tre anni, le crescenti preoccupazioni sulle implicazioni etiche e sociali dell’IA hanno spinto l’Ue a proporre l’AI Act, un quadro normativo mirato a bilanciare l’innovazione dell’IA con la governance etica. Questo rappresenta un passaggio significativo da misure di “soft law” come ALTAI a un approccio legislativo completo, riflettendo l’impegno dell’Ue per uno sviluppo etico dell’IA.
L’AI Act si fonda su un “approccio basato sul rischio”, categorizzando i sistemi di IA in base al livello di rischio associato. Ciò consente regolamentazioni personalizzate per affrontare specifici livelli di rischio, riconoscendo che non tutte le applicazioni di IA richiedono la stessa regolamentazione. Il quadro normativo si focalizza su divieti specifici per pratiche ad alto rischio e introduce obblighi di trasparenza.
Un punto chiave dell’AI Act consiste nell’affrontare le tecnologie di riconoscimento facciale, vietando l’uso in tempo reale da parte delle forze dell’ordine in spazi pubblici, tranne in circostanze specifiche. Si applicano requisiti di sicurezza e valutazioni di conformità per altre FRT (Facial Recognition Technlogies, le tecnologie di riconoscimento facciale).
Le principali disposizioni dell’AI Act includono il divieto di pratiche di IA responsabili di rischi inaccettabili e obblighi rigorosi per sistemi ad alto rischio. I sistemi a rischio elevato sono classificati in categorie specifiche, e quelli a rischio limitato sono soggetti a obblighi di trasparenza minimi. I sistemi a basso o minimo rischio non hanno obblighi aggiuntivi, ma si incoraggia l’adesione volontaria.
Il dibattito sull’implementazione rapida dell’IA è evidenziato anche dalla lettera aperta del Future of Life Institute (Pause Giant AI Experiments: An Open Letter – Future of Life Institute), che sottolinea la mancanza di trasparenza nei modelli IA e chiede una pausa nella ricerca. Tuttavia, l’integrazione dell’IA in vari settori continua.
L’IA sta rapidamente influenzando scenari geopolitici ed economici e rischia di generare forti tensioni e squilibri. La garanzia dell’affidabilità dei contenuti generati da IA è cruciale per evitare la manipolazione dell’opinione pubblica e la proliferazione di disinformazione.
La necessità di regolamentazioni etiche e di limiti è chiara. L’Ue si distingue per i suoi sforzi nella regolamentazione dell’IA, collaborando globalmente per stabilire principi di IA responsabile.
La consapevolezza che l’IA è “intelligente” ma non cosciente è importante. Mentre alcuni ritengono che l’IA non potrà mai replicare l’essenza complessa della mente umana, altri si preparano all’era dell’intelligenza artificiale generale (AGI) con intelligenza flessibile di livello umano.
Ci attende un futuro tanto interessante quanto costellato da rischi. È necessario incominciare a prepararsi.
*ingegnere, dopo aver conseguito un master di ricerca e un Master in Business Administration, ha maturato un’esperienza decennale nella gestione di progetti di trasformazione digitale. Si occupa di Intelligenza Artificiale per applicazioni nel settore assicurativo