Sulla sfida della corresponsabilità tra uomo e macchina
di Lorenzo Ricciardi Celsi
La tecnologia come nuova religione
Nel suo libro La tecnologia è religione, la scrittrice Chiara Valerio apre con un’affermazione provocatoria: “La religione si interessa della salvezza dell’anima nei cieli e la tecnologia della conservazione dei dati nel cloud“. Questo parallelismo evidenzia come la tecnologia, nella sua pervasività, abbia assunto un ruolo che tradizionalmente era riservato alla religione e ad altre grandi narrazioni ideologiche. Jacques Ellul, sociologo e teologo francese, già nel 1954 sottolineava come la tecnica fosse “la questione cruciale del secolo”. Questa transizione si radica nel vuoto lasciato dalla crisi delle grandi ideologie e dalla secolarizzazione, che ha privato molte società occidentali di una struttura etica condivisa.
In questo contesto, tecnologia e scienza sono divenute i pilastri del pensiero moderno. Tuttavia, sebbene la scienza abbia rivoluzionato il nostro modo di vivere, essa manca di trascendenza, concentrandosi esclusivamente sull’immanenza. Questa “dittatura della tecnica”, come la definiscono studiosi come Jürgen Habermas, è particolarmente evidente nell’intelligenza artificiale (IA) e nella biotecnologia, ambiti in cui i confini etici si fanno sempre più sfumati.
Il progresso e i suoi dilemmi
Sebbene il progresso tecnologico abbia migliorato la qualità della vita, porta con sé rischi significativi. Guido Tonelli, fisico e protagonista della scoperta del bosone di Higgs, avverte che affidare alla scienza il compito di risolvere problemi umani può generare illusioni pericolose. Il desiderio di immortalità, alimentato dai progressi nella medicina e nella biotecnologia, è un esempio emblematico.
L’assenza di riflessione etica rischia quindi di trasformare l’essere umano in un semplice ingranaggio del sistema tecnologico. Come notava Heidegger, la tecnica moderna tende a ridurre l’essere umano a un oggetto, ignorando la sua dimensione spirituale e trascendente.
Il postumano e la sfida della dignità umana
Le tecnologie convergenti — nanotecnologie, biotecnologie, tecnologie dell’informazione e scienze cognitive — stanno ridefinendo i confini dell’umano. L’idea di un essere potenziato attraverso interventi genetici o cibernetici solleva interrogativi profondi sulla nostra identità. Come osserva Jeremy Rifkin, il progresso biotecnologico impone una revisione dei valori fondamentali: non è sufficiente chiedersi cosa possiamo fare grazie alla tecnologia, ma cosa dovremmo fare.
La nostra percezione dell’intelligenza artificiale
In particolare, la nostra percezione del funzionamento dell’IA è spesso lontana dalla realtà. Come esseri umani, tendiamo a basarci su ciò che vediamo e sentiamo, non avendo accesso ai meccanismi profondi che regolano strumenti quotidiani come smartphone o assistenti vocali. Tecnologie come ChatGPT hanno estremizzato questa percezione: sono capaci di sembrare intelligenti e persino umane, accentuando il rischio che si attutisca la distinzione tra macchina ed essere umano.
Responsabilità umana e interazioni complesse
Un ruolo cruciale nel dibattito sull’IA riguarda la nozione morale dell’agire personale. Gli esseri umani, dotati di coscienza e libero arbitrio, sono capaci di decisioni eticamente consapevoli. Le macchine, al contrario, agiscono in base a programmazioni esterne, anche quando i loro risultati appaiono imprevedibili. Questa distinzione è essenziale, poiché attribuire intenzionalità morale alle macchine significherebbe ignorare la loro natura puramente strumentale.
Papa Francesco, nel discorso del 28 febbraio 2020 indirizzato ai partecipanti alla plenaria della Pontificia accademia della vita, ha messo in evidenza questa complessità: “L’atto personale viene a trovarsi al punto di convergenza tra l’apporto propriamente umano e il calcolo automatico”. L’etica, dunque, deve affrontare nuove sfide, integrando i molteplici livelli di responsabilità e interazione richiesti dai sistemi tecnologici avanzati.
Etica e IA: verso un approccio transdisciplinare
È indispensabile quindi sviluppare una riflessione che superi la semplice giustapposizione tra scienza ed etica. Una prospettiva transdisciplinare, che consideri le relazioni tra sistemi e le qualità emergenti da tali interazioni, diventa fondamentale per affrontare la complessità delle tecnologie odierne.
Con il proliferare dei sistemi di IA e delle loro applicazioni, si sviluppano nuove forme di azione, spesso difficili da categorizzare con il linguaggio tradizionale. Espressioni come “forme distribuite dell’agire” o “responsabilità diffusa” cercano di descrivere la complessità di queste interazioni. Ma cosa significa davvero essere responsabili in un contesto tecnologico?
Un esempio emblematico è rappresentato dai sistemi multi-agente, in cui diverse macchine, spesso dotate di IA, collaborano per raggiungere un obiettivo comune. In questi casi, l’esito finale è il frutto dell’interazione tra componenti umane e artificiali, rendendo arduo attribuire la responsabilità a un singolo attore.
Tuttavia, una cosa rimane chiara: l’intenzionalità, elemento cardine dell’agire morale, è una prerogativa esclusiva degli esseri umani. Mentre le macchine possono essere valutate in termini morali per i loro effetti, tali giudizi derivano sempre da scelte umane, sia a livello di progettazione che di utilizzo. Come sottolineato da molti studiosi, parlare di autonomia delle macchine in senso morale può essere fuorviante. Le macchine non sono pensanti, ma calcolanti, e il rischio è confondere la loro efficienza operativa con un’intelligenza paragonabile a quella umana.
La rapida evoluzione tecnologica richiede un’etica che superi le tradizionali divisioni disciplinari. Non basta affiancare risultati scientifici e riflessioni umanistiche: serve un’elaborazione transdisciplinare che integri conoscenze diverse in un quadro sistemico.
Secondo il teologo Carlo Casalone, tale approccio si articola su tre livelli:
- Emergenza di nuove qualità: all’interno di un sistema, le interazioni tra i diversi elementi producono caratteristiche non deducibili dai singoli componenti.
- Connessione tra sistemi: i sistemi tecnologici non possono essere analizzati isolatamente, ma in relazione con i contesti sociali, economici e culturali in cui operano.
- Discernimento morale: l’interazione tra agenti umani e artefatti tecnologici richiede un giudizio critico che consideri le implicazioni etiche delle scelte.
Questo approccio sistemico non implica la rinuncia alla responsabilità individuale, ma evidenzia come ogni decisione tecnologica sia inserita in una rete complessa di relazioni. Ad esempio, non si può limitare la responsabilità al consumatore finale che utilizza un sistema digitale. Allo stesso modo, non basta affidarsi alla sensibilità etica dei ricercatori che progettano gli algoritmi.
Algoretica: verso uno sviluppo etico degli algoritmi
Paolo Benanti, studioso di etica e tecnologia, propone un nuovo paradigma che chiama algoretica: un’etica specifica per lo sviluppo degli algoritmi. Questo approccio mira a integrare i principi morali in tutte le fasi del ciclo di vita dei sistemi tecnologici, dalla progettazione all’implementazione.
L’algoretica pone al centro tre principi fondamentali:
- Dignità della persona: ogni sistema tecnologico deve rispettare i diritti e la dignità degli individui, evitando discriminazioni o esclusioni.
- Giustizia e equità: gli algoritmi devono essere progettati per garantire risultati equi, senza favorire determinati gruppi a scapito di altri.
- Trasparenza e responsabilità: è essenziale che i sistemi di IA siano comprensibili e che i loro creatori possano rendere conto delle loro decisioni.
L’obiettivo è creare una cultura della corresponsabilità che coinvolga non solo i ricercatori e gli sviluppatori, ma anche le aziende, i legislatori e la società civile.
Conclusione: costruire un futuro responsabile
Il filosofo Luciano Floridi, con il concetto di “infosfera”, sottolinea come l’era digitale abbia trasformato il nostro ambiente di vita. La tecnologia non è intrinsecamente buona o cattiva. Il suo valore dipende dall’uso che ne facciamo e dalle intenzioni che guidano il suo sviluppo. Questo cambiamento richiede un nuovo umanesimo, capace di integrare le conquiste tecnologiche con una visione etica.