di Lorenzo Ricciardi Celsi*
Negli anni Cinquanta il filosofo britannico Bertrand Russell si interrogava sulla necessità stessa dell’essere umano in un mondo sempre più tecnologico. Oggi, di fronte agli straordinari progressi dell’intelligenza artificiale (IA), potremmo chiederci: il cervello umano è ormai superato? La risposta, per nostra fortuna, è ancora un chiaro “no”. Tuttavia, il nostro tempo è segnato da una crisi profonda nella percezione della centralità dell’umano nella cultura contemporanea, una crisi acuita dalla crescente influenza della tecnologia digitale.
La crisi dell’umanocentrismo
La visione umanocentrica, che ha dominato il pensiero occidentale per secoli, è stata messa in discussione da prospettive filosofiche e scientifiche. Michel Foucault, nel suo celebre Le parole e le cose (1966), ha proclamato la “morte dell’uomo”, un concetto derivato dalla “morte di Dio” di Nietzsche. Questa prospettiva ha contribuito alla decostruzione dell’umanocentrismo, dando spazio a paradigmi postumani. Studiosi come Donna Haraway, nel suo Manifesto Cyborg, hanno proposto una nuova ontologia basata sull’ibridazione tra umano e tecnologia. Haraway afferma che “noi siamo cyborg”, ponendo le basi per un’identità che integra qualità organiche e inorganiche.
Questo spostamento verso il postumano ha implicazioni profonde: i tradizionali confini tra natura e cultura, maschio e femmina, umano e animale, reale e virtuale, sono sempre più sfumati. Questa nuova visione suggerisce che la nostra identità non può essere ridotta a categorie rigide, ma è piuttosto fluida, ibrida e aperta all’integrazione tecnologica.
I pionieri dell’intelligenza artificiale
L’idea di una macchina pensante ha radici profonde nella storia della scienza. Negli anni Cinquanta, Claude Shannon creò uno dei primi esempi di apprendimento automatico con il suo Theseus, un topo robotico in grado di memorizzare percorsi grazie a un sistema di relè telefonici. Poco prima, Shannon aveva introdotto la teoria dell’informazione, una rivoluzione che ridefinì la comunicazione in termini matematici e digitali.
In parallelo, Alan Turing, padre dell’informatica teorica, ipotizzava che costruire macchine pensanti avrebbe aiutato a comprendere il processo stesso del pensiero umano. John McCarthy, un altro pioniere dell’IA, definì queste macchine come strumenti capaci di comportamenti che sarebbero considerati intelligenti se compiuti da un essere umano.
La cibernetica, sviluppata da Norbert Wiener, emerse come una disciplina interdisciplinare in grado di unificare sistemi biologici, meccanici e sociali. Wiener sosteneva che, sebbene l’universo stia aumentando la sua entropia, i sistemi locali – come gli organismi viventi e le macchine – possono generare informazione e ordine. Questa visione sistemica ha aperto la strada a una comprensione più profonda della relazione tra uomo, macchina e ambiente.
Il progresso tecnologico e i rischi della disumanizzazione
Con il passare dei decenni, l’IA è diventata sempre più sofisticata, alimentata dalla crescente disponibilità di dati e dalla potenza di calcolo. Oggi la quantità di dati prodotti ogni anno è impressionante: secondo il Cisco Annual Report 2022, abbiamo raggiunto i 100 zettabyte, una cifra inimmaginabile fino a pochi decenni fa. Tuttavia, questa crescita esponenziale non si traduce automaticamente in una maggiore conoscenza.
L’IA si è dimostrata uno strumento indispensabile in molti campi, come la medicina, dove ha permesso di analizzare grandi quantità di dati per decodificare il genoma umano o affrontare emergenze come la pandemia di Covid-19. Senza l’IA, sarebbe stato impossibile raccogliere e interpretare le informazioni necessarie per sviluppare vaccini e terapie in tempi record.
Tuttavia, l’enorme potere dell’IA solleva anche interrogativi etici. Shoshana Zuboff, nel suo libro Il capitalismo della sorveglianza, denuncia l’uso dei dati da parte di aziende che mirano a controllare i comportamenti umani per fini commerciali. Questa dinamica rischia di trasformare la tecnologia in uno strumento di dominio, anziché di emancipazione.
L’insostituibilità dell’umano
Nonostante i progressi dell’IA, ci sono ambiti in cui l’intervento umano rimane imprescindibile. Ad esempio, un sistema di intelligenza artificiale può analizzare esami medici con rapidità e precisione, ma l’interpretazione finale deve restare nelle mani di un medico. Allo stesso modo, strumenti come ChatGPT possono assistere nella scrittura di testi, ma non possono sostituire la capacità umana di verificare l’accuratezza delle informazioni e interpretarle in modo critico.
Il rischio di una netta separazione tra processi naturali (autenticamente umani) e processi artificiali (eterogenei all’umano) è reale. È importante evitare una visione regressiva che veda nel progresso tecnologico una minaccia per l’umanesimo. La tecnologia è, in ultima analisi, un prodotto dello spirito umano e deve essere integrata in una visione che valorizzi l’umano anziché ridurlo.
L’antropomorfizzazione della macchina
Uno degli sviluppi più controversi dell’IA è la tendenza verso la robotica antropomorfica, che cerca di replicare caratteristiche umane in macchine. Questa ambizione è stata criticata da filosofi come Eric Sadin, che mettono in guardia contro il rischio di attribuire qualità umane ai processori. Tale prospettiva potrebbe portare a una riduzione dell’umano a un “doppio” artificiale, esonerandoci dalla responsabilità delle relazioni interpersonali.
L’antropomorfizzazione delle macchine solleva interrogativi profondi sulla natura stessa dell’umanità. Le neuroscienze ribadiscono che la coscienza non può essere ridotta a semplici operazioni computazionali. La coscienza è una qualità emergente, irriducibile alla logica combinatoria delle macchine.
La robotica antropomorfica e l’antropomorfismo algoritmico
La robotica antropomorfica, che punta a replicare l’uomo in forma meccanica o virtuale, rappresenta una delle frontiere più avanzate dell’IA. Questo approccio, pur affascinante, solleva domande cruciali: fino a che punto una macchina può realmente “imitare” ciò che è intrinsecamente umano, come emozioni, giudizio morale o consapevolezza?
Il potenziamento umano e le interfacce cervello-computer
Parallelamente, si stanno sviluppando tecnologie che puntano al potenziamento delle capacità umane. Un esempio rilevante sono le interfacce neurali (o Brain-Computer Interface, BCI), che permettono una comunicazione diretta tra il cervello umano e le macchine. Questi sistemi, basati su microchip e algoritmi avanzati, potrebbero un giorno consentire di scaricare pensieri, competenze o emozioni da un cervello all’altro, creando una sorta di “supermente collettiva”.
Sebbene queste tecnologie abbiano applicazioni mediche di grande valore, come restituire mobilità a persone paralizzate, pongono interrogativi etici profondi. Modificare il cervello umano per accelerare l’evoluzione potrebbe minare la nostra stessa natura. È fondamentale riconoscere che i pensieri e le emozioni umane non possono essere ridotti a semplici impulsi elettrici scambiabili tra uomo e macchina.
Il rischio della disumanizzazione
L’integrazione sempre più stretta tra sistemi artificiali e cervello umano porta con sé il rischio di perdere ciò che ci rende unici come esseri umani. La corporeità, ad esempio, non è solo un supporto biologico, ma il fondamento della nostra esperienza emozionale e relazionale. Una macchina, per quanto avanzata, non ha un corpo e non può vivere esperienze umane. Può elaborare dati e simulare comportamenti, ma non è consapevole della nostra esistenza.
Questa distinzione è cruciale anche nell’uso quotidiano delle tecnologie. Quando interagiamo con assistenti virtuali o chatbot, è facile dimenticare che stiamo comunicando con sistemi che si limitano a elaborare dati statistici, senza alcuna comprensione reale. Il linguaggio antropomorfo, spesso usato per descrivere queste tecnologie, amplifica l’illusione che possano “pensare” o “capire”. In realtà, una macchina non sa nulla del mondo o di chi siamo: risponde in base ai dati e agli algoritmi con cui è stata programmata.
Verità e intelligenza artificiale
Un altro aspetto critico riguarda la nostra percezione della verità. Le macchine non mentono né sbagliano, ma solo perché non “sanno” e non “scelgono”. Esse eseguono operazioni basate su istruzioni fornite dai programmatori. Se i dati di partenza sono incompleti o errati, anche i risultati saranno tali. Affidarsi ciecamente alle macchine, senza esercitare un pensiero critico, rischia di delegare la ricerca della verità a un sistema che non è in grado di discernere tra il vero e il falso.
Il sogno di accedere alla verità attraverso processi logico-formali è antico quanto la filosofia stessa. Tuttavia, questo desiderio, se non bilanciato da una riflessione critica, può portarci a una visione distorta della realtà. La verità, come ci insegna la storia, non è mai un output automatico, ma il frutto di un processo complesso che richiede riflessione, confronto e dialogo.
Governare la tecnologia per evitare di esserne governati
L’IA rappresenta una straordinaria opportunità per migliorare la nostra vita, ma richiede anche una riflessione profonda sui suoi limiti e sulle sue implicazioni etiche. La possibilità di potenziare il cervello umano o di creare una “supermente collettiva” solleva interrogativi fondamentali sulla nostra identità e sul nostro futuro. Come possiamo sfruttare queste tecnologie senza perdere ciò che ci rende umani?
La risposta molto probabilmente sta nell’equilibrio. La tecnologia dovrebbe essere un mezzo per migliorare la condizione umana, non un fine in sé. Questo richiede una visione etica e umanistica, capace di guidare lo sviluppo tecnologico verso obiettivi che rispettino la dignità e la complessità della persona umana.
Di fronte a queste sfide, la domanda fondamentale rimane quindi: vogliamo governare la tecnologia o esserne governati? La risposta dipende dalla nostra capacità di integrare l’IA in una visione umanistica che valorizzi la responsabilità, l’etica e il senso critico.
È necessario sviluppare una cultura che riconosca l’importanza dell’umano come elemento insostituibile, anche in un mondo sempre più tecnologico. La tecnologia deve essere vista come un’estensione delle capacità umane, non come un sostituto. In questo senso, il ruolo della filosofia, delle scienze sociali e delle arti è cruciale per bilanciare l’uso della tecnologia con una visione che metta al centro l’uomo.
Il futuro dell’IA non dipende solo da innovazioni tecniche, ma anche dalla nostra capacità di usarla in modo responsabile. Solo così potremo evitare di diventare schiavi della tecnologia, riaffermando il nostro ruolo di creatori consapevoli e responsabili. In definitiva, la sfida è mantenere vivo il dialogo tra umano e macchina, governando il cambiamento senza perdere di vista ciò che ci rende unici: la nostra umanità.
*ingegnere, esperto di intelligenza artificiale