C’è una scena ricorrente nel nostro presente: una persona digita una domanda, lo schermo risponde con una sicurezza quasi umana e, per un istante, l’impossibile sembra arretrare. L’intelligenza artificiale (AI), soprattutto nella sua versione conversazionale, dà l’impressione di poter attraversare qualsiasi recinto: come se la conoscenza fosse un territorio da esplorare solo con abbastanza calcolo, abbastanza dati, abbastanza potenza. È una seduzione potente, perché parla direttamente alla nostra antica speranza di trasformare il mondo in qualcosa di pienamente afferrabile. Eppure, proprio nel momento in cui la macchina sembra avvicinarsi all’onniscienza, vale la pena ricordare un messaggio che ci arriva dal Novecento: esistono impossibili che non dipendono da quanto siamo bravi a costruire macchine, ma dalla struttura stessa del problema.
Per capire perché esistono questi “impossibili” intrinseci, conviene tornare a un sogno che ha attraversato la matematica del primo Novecento: trasformare la verità in qualcosa di “automatico”. L’idea è ambiziosa: se fissiamo regole precise per ragionare, allora dovremmo poter stabilire, almeno in linea di principio, se ogni affermazione matematica è vera oppure no. In altre parole, la verità viene presentata non come intuizione ma come esito di un metodo ripetibile, un procedimento affidabile che chiunque potrebbe applicare passo dopo passo. Da qui nasce la domanda decisiva: se la verità può diventare procedura, esiste davvero una procedura per tutte le verità?
È in questo quadro che Kurt Gödel, nel 1931, mostra che, in ogni sistema formale sufficientemente ricco da fare aritmetica e abbastanza coerente da non contraddirsi, esistono enunciati veri che non possono essere dimostrati all’interno di quel sistema. Non è che manchino delle regole, o che siamo ancora troppo ignoranti per trovarle. È che, date quelle regole, ci saranno sempre proposizioni che sfuggono alla presa della dimostrazione. È come se la matematica, nel momento in cui cerca di chiudersi in una gabbia perfetta, generasse inevitabilmente una crepa: una verità che possiamo vedere dall’esterno, ma che dall’interno resta invisibile. L’impossibile, in questo senso, non è il “non ancora”. È il “non in questo modo”. Ed è qui che si apre il punto, filosoficamente, più interessante: la ragione, quando si formalizza fino a diventare un algoritmo, incontra un bordo, un limite. Non perché sia debole, ma perché è proprio la sua forza a produrre quel bordo. Un’AI che pretende di contenere tutte le verità su se stessa, si trova di fronte a una versione di questo paradosso: per dirsi tutto, dovrebbe guardarsi da fuori, ma guardarsi da fuori significa già essere in un sistema più grande.
Se Gödel mostra un limite interno alla dimostrazione, pochi anni dopo Alan Turing offre a questa intuizione un volto ancora più vicino al nostro immaginario tecnologico. Turing formalizza l’idea di calcolo con una semplicità quasi disarmante: una macchina astratta che legge e scrive simboli su un nastro, seguendo regole precise. È una definizione che oggi appare profetica, perché anticipa il concetto moderno di programma. Ma Turing fa anche qualcosa di più: dimostra che esiste un problema apparentemente innocuo per il quale non può esistere una soluzione generale. Il problema è il seguente: dato un qualunque programma e un qualunque input, possiamo decidere in modo infallibile se quel programma si fermerà oppure continuerà a girare per sempre? La risposta è no.
Questo risultato, noto come problema della fermata, è una specie di impossibile in purezza. Non riguarda la velocità dei computer né la loro memoria. Riguarda la struttura logica del calcolo. È una frontiera che non arretra con il progresso tecnologico, proprio perché non è una questione di potenza, ma di principio. E questa frontiera, una volta vista, cambia il modo in cui guardiamo anche alle macchine di oggi.
A questo punto la domanda naturale è: cosa c’entra tutto ciò con l’AI che usiamo oggi, con i modelli che scrivono testi, rispondono, traducono, sintetizzano o ragionano? C’entra perché l’AI contemporanea, per quanto diversa dalle macchine di Turing nel modo in cui è costruita, resta comunque immersa nel dominio del calcolabile. È un sistema che opera attraverso trasformazioni computazionali, anche quando sembra fare magia. Può sorprenderci, può imitarci, può essere straordinariamente utile. Ma non può, per definizione, abolire i limiti logici del calcolo. Se esistono problemi indecidibili, esistono anche per l’AI. Se esistono verità non dimostrabili in un sistema, nessuna quantità di dati o di “intelligenza” addestrata potrà trasformarle in teoremi interni a quel sistema. In altre parole: l’impressione di illimitatezza non coincide con l’assenza di limiti.
Eppure, proprio qui si annida un equivoco moderno: confondiamo spesso l’impressione psicologica di potenza con l’onnipotenza formale. Un modello linguistico può dare risposte convincenti su un’enorme varietà di argomenti. Questa ampiezza, per l’esperienza quotidiana, assomiglia a un “quasi tutto”. Ma “quasi tutto” non è “tutto”, e soprattutto “moltissimo” non è “illimitato”. La differenza tra i due non è quantitativa, è qualitativa. Non si colma aggiungendo più parametri o più energia elettrica, perché riguarda ciò che una procedura può garantire in linea di principio.
A maggior ragione, c’è anche un’altra distinzione che vale la pena mettere a fuoco: tra ciò che è impossibile per noi, qui e ora, e ciò che è impossibile in senso assoluto all’interno di un certo quadro. Molte cose che chiamiamo impossibili sono solo difficili: volare più veloce del suono, curare malattie un tempo incurabili, prevedere il tempo con maggiore precisione. L’AI ha ridotto parecchi “impossibili” di questo tipo, trasformandoli in problemi risolvibili. Ma Gödel e Turing parlano di un altro genere di impossibile: un impossibile che emerge non dall’ignoranza, ma dall’autoreferenza. Non dalla complessità, ma dal tentativo di chiudere il cerchio.
Questa idea ha un sapore filosofico profondo perché ci costringe a riconsiderare il rapporto tra realtà, verità e metodo. Se esistono enunciati veri ma non dimostrabili, allora “vero” non coincide con “dimostrabile”. Se esistono domande per cui non esiste un algoritmo decisivo, allora “conoscere” non coincide con “calcolare”. L’impossibile non è un buco nella mappa che riempiremo domani: è un bordo della mappa stessa. E questo bordo non è esterno al nostro pensiero, è prodotto dalle condizioni con cui decidiamo di pensare.
E c’è un ultimo paradosso, forse il più poetico: la scoperta dell’impossibile computazionale non è una sconfitta della ragione, ma una sua vittoria. Solo un pensiero molto potente può mappare i propri limiti con rigore. Solo una logica raffinata può dimostrare che non tutto è decidibile. L’impossibile, qui, non è il nemico della conoscenza: è il suo confine strutturale, e dunque una forma di conoscenza essa stessa. In questo senso, parlare di AI in un numero dedicato all’impossibile non è un esercizio di prudenza tecnologica, ma una meditazione sul nostro modo di attribuire potere alle macchine e, in filigrana, sul nostro modo di attribuire potere a noi stessi. L’algoritmo non è un dio: è un linguaggio. E come ogni linguaggio, ha ciò che può dire e ciò che non può dire. Il recinto di Turing non è la fine del pensiero; è il punto in cui il pensiero smette di confondere la propria capacità di costruire strumenti con l’illusione di poter esaurire il reale. Forse è proprio questo il dono più attuale di Gödel e Turing: ricordarci che l’impossibile non è solo ciò che manca, ma ciò che ci definisce. Non è la sconfitta del sapere, ma la sua geometria. In un mondo che corre verso macchine sempre più persuasive, questa è una forma rara di libertà: sapere che esistono domande per cui non esiste una procedura finale, e che proprio per questo vale la pena continuare a pensare.
Il recinto di Turing: dove l’algoritmo incontra l’impossibile

