Digital Humanities. Penrose: “diffidate dell’artificiale, non dell’intelligenza”
di Marco Dotti e Fabio Scardigli
Di quale fisica, di quale biologia, di quale etica. Soprattutto: di quale filosofia abbiamo bisogno per capire e salvaguardare l’intelligenza naturale o umana al tempo dell’Artificial Intelligence (AI), del machine learning e dei deep neural networks?
Le domande non sono nuove. Non nuove sono anche le strade per eluderle: abbracciare con entusiasmo autoreferenziale ogni promessa di redenzione tecnologica; oppure alzare mura di difesa fondate sulla paglia di un moralismo incerto e fragile.
Una terza via, ben più solida, è però urgente e necessaria. Questa via si apre a un livello dove i saperi, umanistico e scientifico, convergono verso quel ponte chiamato digital humanities: solo tramite un sapere umanistico di scenario, che abbia chiari i propri fini, possiamo tentare di orientare una transizione che mezzi sempre più dinamici e potenti rendono quanto mai prossima. Il pericolo è che la transizione diventi un esodo potenzialmente infinito da tutto ciò che, fino a oggi, ha definito i contorni dell’esperienza umana.
Vista dal primo livello, ossia schiacciata tra una falsa antinomia (prendere tutto vs. rinunciare a tutto) e un’accelerazione tecnologica sempre più avanzata, la questione dell’AI rischia davvero, come preconizzava Arthur S. Clarke, di essere “indistinguishable from magic”, indistinguibile dalla magia. Vista dal terzo livello, ossia da una nuova sintesi fra saperi, è invece possibile iniziare a discernere tra domande che per definizione chiedono di essere ben poste e risposte che, per l’intima natura dell’incedere scientifico, aprono a esiti incerti. Questi esiti — e qui entrano in gioco i saperi umanistici — chiedono oggi più che mai di essere governati, e dunque pensati, ex ante. Amministrarli ex post sarà infatti impossibile, per l’intima natura del processo tecnologico.
Le circa ottocento persone, in prevalenza giovani venuti da ogni parte d’Italia, che per oltre quattro ore sabato 12 maggio 2018 hanno seguito a Milano il convegno Intelligenza artificiale vs. intelligenza naturale, organizzato da chi scrive e da Marcello Esposito, sono partiti proprio da queste domande. E dai molti dubbi che inevitabilmente ci portiamo dentro: perderemo libertà, autonomia e lavoro? L’umano diverrà subalterno al postumano e alla macchina? Stiamo davvero toccando il punto di singolarità tecnologica, ovvero l’AI si appresta a superare, scalzandola, l’human intelligence?
I due main speaker dell’incontro, il cosmologo, matematico e fisico britannico , già maestro di Stephen Hawking, e il filosofo , ottantasei anni il primo, ottantanove il secondo, come due giovanotti nel pieno delle loro energie non hanno fatto sconti a nessuno. Tanto meno alle asperità e alle insidie concettuali che lo stesso lemma “Intelligenza artificiale” porta con sé. Per lanciare una questione, che durante l’anno verrà ripresa e ridiscussa in workshop territoriali, Penrose e Severino hanno affrontato aspetti generali e particolari delle dinamiche di relazione e contrasto fra AI e human intelligence.
“La complessità delle questioni filosofiche che l’Intelligenza Artificiale solleva è tale”, ha osservato in apertura del convegno Severino, “che questa complessità abbiamo il dovere di pensarla fino in fondo. E fino in fondo significa: fino alle estreme conseguenze possibili”. Per Severino, tra i massimi filosofi teoretici dei nostri anni, le cui opere cominciano a essere conosciute anche fuori dai confini italiani (cfr. The Essence of Nihilism, Versus, 2016), il tema dell’AI è inevitabilmente da leggere all’interno della tendenza fondamentale del nostro tempo, che è una sorta di lunga delega del sapere fondamentale, quindi filosofico, alla tecnica.
Questa delega, ha spiegato Roger Penrose, critico con i progetti di AI fin da quando, sul finire degli anni Ottanta, pubblicò un volume destinato a provocare un impatto durevole sulla questione, La mente nuova dell’imperatore, è in primo luogo concettuale e ci porta dritti dal tema dell’intelligenza a quelli della coscienza e della consapevolezza. Penrose, che in anni recenti si è occupato con il ricercatore americano Stuart Hameroff di indagare i processi di consapevolezza e coscienza attraverso un’ipotesi chiamata Orchestrated objective reduction (Orch-OR), non ha mancato di spiegare la sua posizione relativamente alla questione dei microtuboli e del collasso delle funzioni d’onda, che produrrebbero decisioni non computazionali e, di conseguenza, non riproducibili da terminali e computer.
I limiti di un progetto complessivamente sostitutivo dell’intelligenza naturale o umana con un’intelligenza artificiale emergono non solo dal punto di vista logico.
Penrose ritiene che AI sia un termine improprio poiché «nessuno dei dispositivi di ciò che chiamiamo AI si autocomprende. La comprensione richiede infatti consapevolezza e la consapevolezza, a sua volta, si fonda sulla coscienza: le macchine procedono su base algoritmica, cosa che la coscienza non fa». Come proceda la coscienza e quale fisica ne determina i processi è ancora tutto da capire. Penrose ritiene che anche la meccanica quantistica, per come la comprendiamo oggi, non riesca a darci spiegazioni su quei processi.
Il problema, se vogliamo davvero parlare di AI, spiega Roger Penrose, è la coscienza, ovvero «la comprensione cosciente dei significati. Naturalmente molti, se non la maggior parte, tra coloro che si occupano di AI sono al contrario convinti che qualunque “comprensione” o “significato” possano essere simulati da un sistema computazionale puro». Alla base c’è forse un’errata comprensione di cosa sono la consapevolezza e l’intelligenza naturale o umana che solo se ridotte a una sommatoria di processi computazionali e algoritmi possono essere replicate. In questo senso, notava Emanuele Severino, che ha introdotto nel dibattito il tema cruciale dell’alienazione, «l’intelligenza che si vuole costruire è sempre l’intelligenza altrui, non la nostra».
In questo senso, ha spiegato Severino, la scienza rischia di essere «una fede ancora più potente della religione», plasmando ex nihilo l’umano.
«Ciò di cui dobbiamo preoccuparci non è che dispositivi di AI prendano il sopravvento», ha concluso Penrose, ma che «l’abuso umano della tecnologia informatica porti alla ribalta nuovi pericoli difficili da prevedere e da evitare». Ovvero che l’intelligenza naturale, sedotta come dalla magia di cui parlava Clarke, rinunci ai propri fini e si autoconfiguri in termini di subalternità rispetto ai dispositivi di una tecnoscienza incapace di autocomprendersi, ma capace — questo sì — di autorigenerarsi come sistema di mezzi senza fine.