Si parla spesso di intelligenza artificiale e delle sfide poste a tutti i livelli, anche culturali ed etici, dalle nuove applicazioni tecnico-scientifiche in quella che ormai viene definita una “quarta rivoluzione industriale” sempre più accelerata.
Ma qual è, nei fatti, il panorama? In questo articolo l’ingegner Lorenzo Ricciardi Celsi presenta in modo stimolante gli scenari che abbiamo di fronte e che ci pongono nuove domande. Basti pensare alle biotecnologie, alla giustizia, al controllo sociale.
Lorenzo Ricciardi Celsi è manager presso Consel – Consorzio Elis per la formazione professionale superiore e si occupa di servizi di consulenza e progetti di ricerca sul tema Big Data Analytics & Artificial Intelligence. Project manager certificato secondo lo standard del Project Management Institute, è stato professore a contratto di Ingegneria automatica presso l’Università degli Studi eCampus e ha conseguito il dottorato di ricerca cum laude nel 2018 in Automatica presso l’Università degli Studi di Roma La Sapienza e in Automatique et Traitement du Signal presso l’Université Paris-Saclay.
A.M.V.
***
Con lo sviluppo e la diffusione dell’Intelligenza artificiale (Artificial Intelligence o AI) stiamo maturando una diversa cognizione e percezione del mondo. In questo contesto, gli scienziati esperti di AI ci invitano ad interpretare il mondo attraverso una lente che è possibile puntare su numerosi settori applicativi, come il lavoro, la sanità, le tecnologie riproduttive, la giustizia predittiva, i sistemi di credito sociale, i social network e la sicurezza nazionale.
Il lavoro
Dalle automobili a guida autonoma ai robot che affiancano l’uomo nei processi produttivi in fabbrica, siamo in grado di costruire macchine che possono prendere decisioni autonome e coesistere con l’esperto umano.
Inoltre, sono in fase di sviluppo sistemi di AI, chiamati bot, che saranno disponibili come partner virtuali da interrogare via voce o in chat: essi saranno in grado di fornire servizi e prestazioni che prima erano esclusivamente erogati da professionisti. Avvocati, medici e psicologi saranno quindi, seppure entro certi limiti, sempre più sostituibili in modo efficiente da bot dotati di AI.
Il mondo del lavoro si colloca oggi su una nuovissima, interessante e sfidante frontiera, quella delle interazioni e della coesistenza tra uomini ed AI.
La sanità
Nel campo della sanità, le nuove tecnologie hanno trovato già da tempo terreno fertile in quei contesti dove è richiesta una precisione elevatissima, come quella dimostrata dal cyberknife nella radiochirurgia oppure dal robot da Vinci nella chirurgia mininvasiva.
Più recentemente, l’AI sta favorendo l’organizzazione dei percorsi per i pazienti o dei piani di trattamento: attraverso i cosiddetti decision support systems, essa può fornire ai medici le informazioni necessarie per prendere la decisione migliore sia in situazioni routinarie che in situazioni critiche. In questo modo, l’AI potrebbe alleggerire gli specialisti nelle loro incombenze quotidiane, lasciando più spazio a mansioni specifiche in cui è imprescindibilmente richiesta la competenza umana.
In un futuro non molto lontano, gli algoritmi utilizzati per questi scopi potrebbero trovarsi nella condizione di decidere chi sottoporre all’attenzione del medico e chi no, selezionando così chi avrebbe possibilità di ricevere cure e chi invece ne verrebbe escluso.
Tecnologie riproduttive
Con lo sviluppo delle nuove tecnologie riproduttive, l’Università di Stanford e la Northwestern University in Illinois hanno sviluppato un modello matematico capace di predire che un embrione si sviluppi nello stato di blastocisti, con una precisione del 90% a causa della sua resistenza e flessibilità alla compressione in fase di prelievo in laboratorio.
Pertanto, alla luce di tecnologie basate sull’AI che promettono sviluppi inimmaginabili fino a pochi decenni fa, è opportuno chiedersi se è possibile affidare ad una macchina la selezione di chi è degno di nascere e chi no, in ultima analisi sulla base di calcoli statistici!
Giustizia predittiva
Negli Stati Uniti, ProPublica – un’agenzia di stampa indipendente e no-profit con la mission di portare alla luce episodi di abusi di potere e di tradimento della fiducia pubblica da parte del governo, del mondo degli affari e di altre istituzioni – ha indagato sull’algoritmo di calcolo del rischio di recidiva che negli Stati Uniti sono utilizzati a supporto delle corti nella decisione di chi può rimanere in libertà.
Attraverso l’accesso alle valutazioni di rischio effettuate per oltre settemila persone arrestate in una contea della Florida per un periodo di due anni, ProPublica ha verificato quante di tali persone hanno poi effettivamente commesso ulteriori crimini nei due anni successivi. È risultato, sorprendentemente, che soltanto il 10% di coloro che erano stati etichettati come potenziali recidivi hanno poi realmente commesso ulteriori crimini. Provando poi a validare le prestazioni dell’algoritmo su un numero maggiore di reati (includendo reati minori come la guida con patente scaduta), l’accuratezza della previsione è risultata nell’intorno del 50%, confrontabile quindi con il lancio di una moneta… Rispetto a coloro che erano stati etichettati come possibili recidivi, solamente il 61% è stato arrestato nei due anni seguenti.
Più preoccupanti sono risultate le indagini sui dati scomposti per gruppi etnici: gli accusati neri avrebbero infatti il 77% di probabilità in più di essere indicati come individui soggetti al rischio di commettere in futuro crimini violenti. Inoltre, verificando l’accuratezza della previsione in base ai reati commessi nei due anni seguenti, per i giovani neri precedentemente etichettati come futuri criminali il tasso di errore è risultato doppio rispetto ai coetanei bianchi, arbitrariamente definiti come a basso rischio.
Pertanto, la vicenda ci porta innanzitutto ad interrogarci sul rischio cui saremmo esposti dalla diffusione di questo tipo di sistemi di giustizia predittiva, conducendoci in futuro in situazioni di equivoco simili a quelle raccontate nel celebre film Minority Report.
In secondo luogo, è opportuno mettere a fuoco il fatto che gli algoritmi possono portare con sé dei “pregiudizi” di progetto: tali pregiudizi, se applicati su larga scala, genererebbero ingiustizie sociali o discriminazioni.
Infine, è di fondamentale importanza regolare due esigenze contrapposte che emergerebbero in tale contesto: da un lato, la necessità di tutelare la proprietà intellettuale degli algoritmi utilizzati e, dall’altro, la necessità che tali algoritmi, nell’offrire un supporto chiave all’amministrazione della giustizia, rispettino il principio della trasparenza e siano soggetti al controllo diretto dello Stato.
Sistemi di credito sociale
Se pensassimo a un sistema in cui i nostri comportamenti (su Google, Facebook, Instagram e anche relativamente all’uso di smart watch e dispositivi indossabili) siano registrati in una base dati, soggetti ad analisi di profilazione, successivamente classificati come positivi o negativi e quantificati in un citizen score individuale calcolato secondo regole fissate dal governo, tale citizen score potrebbe essere inserito in una classifica pubblica, consentendoci di confrontarci con l’intera popolazione e fungendo da un biglietto da visita con il quale comunichiamo a chi incontriamo se siamo affidabili o meno.
Questo sistema, che sembra così futuribile, in realtà è già attivo in Cina ed effettivamente valuta e classifica il comportamento di ogni persona giuridica indipendentemente dalla volontà dei singoli soggetti.
L’impiego di sistemi di credito sociale è particolarmente preoccupante a causa del fatto che gli algoritmi utilizzati sono eccessivamente riduttivi, cioè non tengono conto del contesto in cui è inserito l’individuo esaminato. Potrebbe accadere che una persona che non paga una multa perché ricoverata in ospedale sia valutata allo stesso modo di un’altra persona che è deliberatamente morosa.
È ormai prevedibile che l’adozione di algoritmi di profilazione, basati non solo sulle nostre esperienze fisiche ma anche sulle nostre esperienze virtuali, sarà un portato inevitabile della trasformazione digitale in corso. Tuttavia, è importante che tali algoritmi siano regolati in modo tale da non perdere di vista almeno la parte significativa delle complesse sfumature che caratterizzano il mondo reale in cui viviamo.
I social network
Come denunciato dal recente documentario The Social Dilemma, i social network adottano uno storytelling imperniato su una forma radicale di relativismo: non esiste una verità assoluta e l’unico metro di valutazione è individuale e basato sulla propria percezione soggettiva.
Attraverso algoritmi di machine learning, le notizie e le narrazioni vengono selezionate, mostrate e perfino formulate secondo modalità che corrispondono alle preferenze espresse dall’utente o riconducibili alla sua categoria di appartenenza, influenzandone così le relazioni virtuali, i giudizi e perfino le valutazioni etiche.
E’ molto pericolosa in questo senso l’estensione di tale visione relativistica al dominio dell’etica: ciò infatti potrebbe molto facilmente indurre, soprattutto i giovani appartenenti alla Generazione Z e alla Generazione Alfa, a pensare che non esistano azioni buone o cattive in sé, ma che il carattere buono o cattivo dell’azione sia funzione delle caratteristiche della persona che la compie.
Sicurezza nazionale
In ambito militare, si utilizzano correntemente droni, esploratori robotizzati e sistemi di fuoco robotici. La realizzazione di tecnologie militari controllate da sistemi di AI comporta una serie di problemi legati alla gestione dell’autonomia decisionale di cui questi apparati godono. A questo proposito si avverte l’urgenza di definire modalità di progettazione standard che rispondano ad adeguati criteri di sicurezza per quei sistemi che hanno la possibilità di mettere in atto comportamenti potenzialmente letali per gli uomini.
Perciò in questo contesto i sistemi di AI pongono molti interrogativi delicati, come i seguenti. Le conseguenze di ciò che la macchina decide sono moralmente qualificabili? Chi è responsabile per le azioni che autonomamente la macchina compie? Un drone autonomo che in un’operazione militare uccide dei civili innocenti è responsabile di quelle morti?
L’approccio etico del Gruppo di Esperti di Alto Livello sull’AI coordinato dalla Commissione Europea: una checklist operativa
Il 17 luglio 2020 il Gruppo di Esperti di Alto Livello sull’AI coordinato dalla Commissione Europea ha proposto un nuovo strumento volto ad accompagnare i progettisti che si trovano a sviluppare prototipi ad alto contenuto di AI. Il nome di questo strumento, Assessment List for Trustworthy Artificial Intelligence (ALTAI), ne chiarisce l’obiettivo, che è quello di costruire una “intelligenza artificiale affidabile”. ALTAI è molto probabilmente il primo strumento di progettazione che traduce i principi etici relativi alla AI in una checklist da rispettare, cioè una lista di verifiche di controllo, accessibile e dinamica, con la finalità di proteggere da rischi simili a quelli raccontati sopra. Si tratta dunque di una procedura che consente l’assessment della compatibilità del progetto di AI con i principi etici.
La checklist ALTAI permette di verificare in maniera strutturata l’aderenza di una qualsiasi iniziativa di progetto di AI a sette importanti principi etici a valle di una prima verifica di tutela dei diritti fondamentali, secondo lo schema seguente: (0) rispetto dei diritti fondamentali, (1) intervento e supervisione umana, (2) robustezza e sicurezza dei sistemi, (3) tutela della privacy e data governance, (4) trasparenza, (5) diversità e non discriminazione, (6) tutela del benessere sociale e ambientale, (7) responsabilità.
Step 0 – rispetto dei diritti fondamentali
Si procede innanzitutto con il cosiddetto Fundamental Rights Impact Assessment (FRIA): si tratta infatti di porsi quattro domande fondamentali volte ad assicurarsi che non ci siano conflitti con la Carta dei Diritti Fondamentali dell’Unione Europea e con la Carta Sociale Europea. La soluzione di AI che si prevede di sviluppare deve essere:
non potenzialmente discriminatoria
rispettosa dei diritti dei bambini
Rispettosa dei dati personali in linea con il Regolamento Generale sulla Protezione dei Dati n. 2016/679 (General Data Protection Regulation, GDPR);
rispettosa della libertà di espressione e dei diritti di informazione e associazione.
Superato questo primo passo fondamentale, si può procedere a passare in rassegna i sette principi etici precedentemente elencati.
Step 1 – intervento e supervisione umana
Questa verifica riguarda l’effetto che il sistema di AI sviluppato può esercitare sul comportamento umano nei processi decisionali (per esempio, nel caso di sistemi di supporto alle decisioni) oppure nei sistemi di analisi e previsione dei rischi (per esempio, nel caso di recommender systems o sistemi predittivi per attività di polizia o per analisi di rischi finanziari). Le relative domande ruotano tutte intorno al necessario raggiungimento di tre obiettivi principali:
chiarire all’utente finale il confine tra decisione “umana” e decisione algoritmica;
impedire manipolazioni;
evitare la dipendenza umana dall’algoritmo preservando l’autonomia del supervisore umano.
Inoltre, per quanto riguarda il ruolo della supervisione umana, si richiede di identificare il tipo di sistema di AI sviluppato fra le seguenti possibilità:
sistema di apprendimento automatico o sistema autonomo;
sistema di tipo human-in-the-loop, secondo il quale l’intervento umano è possibile in ogni momento del ciclo decisionale;
sistema di tipo human-on-the-loop, secondo il quale l’intervento umano avviene solo nel ciclo di progettazione del sistema e nel monitoraggio dell’operazione;
sistema di tipo human-in-command, secondo il quale l’uomo può decidere se e quando utilizzare il sistema.
Una volta stabilita la tipologia di sistema tra queste quattro, la checklist pone le questioni della formazione necessaria per l’utilizzo del sistema, dell’individuazione di meccanismi di recovery, di misure di arresto e altre misure specifiche di supervisione e controllo per monitorare e regolare l’apprendimento automatico effettuato dal sistema.
Step 2 – robustezza e sicurezza dei sistemi
Due requisiti fondamentali che un sistema di AI deve soddisfare sono l’affidabilità, definita come la capacità di fornire servizi attendibili, e la resilienza, definita come la solidità di fronte ai cambiamenti. La proprietà di robustezza tecnica richiede che i sistemi siano sviluppati con l’obiettivo di ridurre la possibilità di danni, prevenendoli ove possibile. Lo stesso approccio deve applicarsi ai rischi connessi a potenziali cambiamenti nell’ambiente operativo causati dall’eventuale presenza di altri agenti (umani o artificiali) che possono interagire con il sistema di AI. Più nel dettaglio, in questo step si affrontano quattro problemi principali:
non-hackerabilità del sistema;
sicurezza e sistemi di backup;
precisione;
affidabilità, includendo la definizione di un piano di ritirata (fallback) nel caso qualcosa vada storto e garantendo la riproducibilità del funzionamento del sistema.
Step 3 – tutela della privacy e data governance
La tutela della privacy è un diritto fondamentale particolarmente messo a rischio dai sistemi di AI: essa è strettamente connessa alla prevenzione dei danni. Pertanto, è necessaria un’opportuna governance dei dati che assicuri la qualità e l’integrità dei dati utilizzati, la loro rilevanza e pertinenza rispetto all’ambito in cui essi verranno utilizzati, nonché la capacità di elaborarli in modo da proteggere sempre e comunque la privacy.
Più precisamente, le domande della checklist a tal proposito riguardano:
la necessaria osservanza degli obblighi normativi previsti dal GDPR, fin dalle fasi iniziali di progetto del sistema, che prevedono la valutazione dell’impatto dello stesso sulla protezione dei dati (Data Protection Impact Assessment, DPIA) e la designazione di un responsabile della protezione dei dati, cioè il cosiddetto Data Protection Officer (DPO);
la presenza di meccanismi di controllo per l’accesso limitato ai dati da parte di personale qualificato, nonché di registrazione dell’accesso ai dati e delle modifiche applicate agli stessi;
misure di protezione quali la crittografia, pseudo-anonimizzazione, aggregazione e anonimizzazione dei dati;
misure volte a minimizzare l’uso dei dati personali, specialmente quelli sensibili, e a prevedere il diritto di revoca del consenso e/o il diritto all’oblio;
l’allineamento del sistema di AI con standard di eccellenza tecnica di riferimento, come ISO e IEEE.
Step 4 – trasparenza
Tracciabilità, spiegabilità e comunicazione sono gli elementi attraverso i quali si realizza la trasparenza.
Il primo richiede che siano messe in atto misure che garantiscano la tracciabilità del sistema di AI durante il suo intero ciclo di vita (qualità dei dati in input, ripercorribilità a ritroso del processo di istruzione degli algoritmi, registrazione delle raccomandazioni fornite dal sistema di AI).
La spiegabilità riguarda il fatto che non sempre è possibile spiegare un particolare output derivante dall’uso di un sistema di AI e comunque tale spiegazione è molto difficile se non impossibile nei sistemi che si avvalgono degli algoritmi di machine learning (in tal caso, infatti, si parla di black box). Tuttavia, c’è un contenuto minimo di visibilità da rispettare: gli utenti finali devono poter ricevere dei chiarimenti di massima sul funzionamento del sistema.
Il requisito di comunicazione è determinante perché garantisce un rapporto trasparente tra utenti finali e sistema di AI. È necessario: comunicare agli utenti finali che stanno interagendo con sistema di AI e non con un umano; informare gli utenti finali sullo scopo, i criteri e i limiti delle decisioni generate dal sistema di AI; elencare i vantaggi, le limitazioni tecniche e i rischi potenziali del sistema di AI per gli utenti finali (precisione e percentuale di errore); fornire le istruzioni di utilizzo del sistema di AI.
Step 5 – diversità e non discriminazione
L’obiettivo di questo step è quello di limitare il rischio di pregiudizi (bias) attraverso la creazione di set di dati di addestramento del sistema di AI che siano ben bilanciati, cioè che tengano conto delle diversità che caratterizzano la popolazione di riferimento e del grado di rappresentatività di ciascun componente della popolazione attraverso adeguati test statistici (si pensi all’esempio della giustizia predittiva menzionato sopra).
L’accessibilità e il coinvolgimento di tutti gli utenti finali che sono interessati alla fruizione del sistema di AI sono ulteriori proprietà la cui presenza è opportuno garantire.
Step 6 – tutela del benessere sociale e ambientale
La progettazione di sistemi di AI deve sempre essere attenta alla valutazione dell’impatto ambientale, alla prevenzione del rischio, alla valutazione dell’impatto sul lavoro e sul capitale umano delle aziende. La checklist prevede anche il coinvolgimento delle rappresentanze sindacali dei lavoratori nei processi di trasformazione digitale, nonché la definizione di piani di re-skilling che consentano di alleviare l’effetto dirompente sulle organizzazioni conseguente all’introduzione di sistemi di AI.
Anche il potenziale impatto del sistema di AI sul sistema democratico dovrebbe essere valutato nell’ambito di questo step: si pensi, ad esempio, al contesto elettorale che può essere messo a rischio quando i sistemi di AI amplificano notizie false condizionando l’elettorato.
Step 7 – responsabilità
Il principio di responsabilità o accountability richiede che sia sempre possibile identificare le responsabilità correlate al progetto, sviluppo e utilizzo di un sistema di AI, identificando e mitigando i rischi e prevedendo un piano di risposta ai rischi con adeguati interventi di riparazione e verifica da parte di enti terzi indipendenti. A tal proposito, questo step prevede le seguenti iniziative:
prendere provvedimenti volti a facilitare la controllabilità del sistema (tracciabilità del processo di sviluppo e dell’acquisizione del set di dati di addestramento; registrazione dei processi, dei risultati, dell’impatto positivo e negativo del sistema di AI);
garantire una formazione ad hoc del personale
istituire un comitato etico di revisione del sistema di AI
monitorare continuamente la conformità del sistema di AI alla checklist, tracciando e risolvendo eventuali conflitti;
coinvolgere terze parti con l’obiettivo di segnalare potenziali vulnerabilità, rischi o errori non precedentemente identificati nel sistema di AI.
Conclusioni
Lungi dall’essere esaustivo sull’argomento, questo articolo vuole indirizzare l’interesse del lettore in modo particolare verso le implicazioni etiche conseguenti allo sviluppo di sistemi di AI.
L’AI sta guidando la trasformazione in atto, nel corso di una “quarta rivoluzione industriale” accelerata dalle conseguenze dell’emergenza sanitaria dovuta alla pandemia di COVID-19.
Per la prima volta, in aggiunta all’élite umana che produce e controlla questi sistemi, le macchine stesse sono attori principali della trasformazione. Un panorama così articolato va indagato in tutta la sua complessità. E’ quindi necessario ripartire dal fondamento, cioè dal ruolo dell’uomo e dalla specificità della cognizione umana per capire qual è il contributo distintivo e positivo che l’AI, a sua volta, può dare e in che modo quest’ultima deve gestire ciò che è di propria competenza.
La checklist ALTAI proposta dal Gruppo di Esperti di Alto Livello sull’AI coordinato dalla Commissione Europea definisce una serie linee guida utili ad orientarsi in un mare magnum ancora troppo poco regolamentato.
Lorenzo Ricciardi Celsi
__________
Alcuni letture consigliate sul tema
A. De Mauro, Big Data per il Business. Guida strategica per manager alle prese con la trasformazione digitale, Apogeo, 2020
P. Benanti, Le macchine sapienti. Intelligenze artificiali e decisioni umane, Marietti, 2018
P. Daugherty, H.J. Wilson, Human + Machine. Reimagining Work in the Age of AI, Harvard Business School Press, 2018
***