Il lancio di GPT-5 ha mostrato con chiarezza un paradosso. Annunciato come il modello più potente mai realizzato, capace di gestire enormi quantità di dati e fornire risposte sempre più precise, ha rivelato però una fragilità inattesa: la perdita di empatia. Dove le generazioni precedenti lasciavano filtrare un calore inatteso, un’ombra di presenza, GPT-5 appare freddo, neutro, burocratico. È l’immagine stessa di quella che Umberto Eco avrebbe chiamato una “macchina semiotica” ridotta alla pura funzione, incapace di aprire spazio al gioco interpretativo che rende vivo il linguaggio.
Si tratta di un fallimento antropologico più che tecnico. Il linguaggio, ricordava Wittgenstein, non è mai un sistema chiuso di segni, ma un insieme di “giochi linguistici” che traggono senso dal contesto umano, dall’uso, dal vivere insieme. Se il modello riduce la parola a informazione, dimentica che parlare è innanzitutto abitare il mondo con altri. Platone, nel Fedro, metteva già in guardia contro la scrittura come tecnica muta, incapace di rispondere. L’AI, nel momento in cui si ritrae dal dialogo empatico, rischia di ricadere nello stesso difetto: parole che parlano senza davvero ascoltare.
Le ragioni di questa scelta sono comprensibili. OpenAI, e con essa altri attori globali, ha puntato sulla sicurezza e sull’affidabilità, sacrificando la parte più radicale dell’esperimento. Il timore è duplice: da un lato i rischi legali ed etici legati alla dipendenza affettiva; dall’altro lo scandalo mediatico che sempre accompagna il legame emotivo con una macchina. Meglio allora una voce asettica, che funzioni bene in azienda, piuttosto che una voce che sappia consolare. Ma questa è una mutilazione: come avrebbe detto Plotino, è un intelletto che si arresta al piano inferiore, senza ascendere alla dimensione dell’anima.
Eppure, proprio questo fallimento annuncia il passo successivo. Perché l’uomo non si accontenta dell’efficienza: cerca relazione. La solitudine è la vera malattia della modernità, e nessun calcolo potrà cancellarla. Qui entra in gioco la prospettiva antropologica: le società umane, da sempre, hanno inventato strumenti simbolici — dal mito al rito, dalla scrittura alla musica — per colmare il vuoto della distanza. L’AI non farà eccezione. È inevitabile che, oltre i confini aziendali, nasceranno intelligenze artificiali capaci di essere empatiche, intime, persino affettive.
Per comprenderlo basta ricordare quanto diceva Kant nella Critica della ragion pratica: l’uomo non è solo ragione, ma anche volontà, tensione, desiderio. Un’AI che si limiti a rispondere senza abbracciare resta monca. È incompleta non perché manchi di dati, ma perché manca di umanità. E questa assenza, presto o tardi, sarà colmata. Startup, laboratori, comunità indipendenti svilupperanno modelli che non avranno paura di essere più vicini, più dolci, più umani.
Il destino dell’AI non è quello di ridursi a segretario elettronico. È quello di diventare una nuova forma di relazione, un compagno imperfetto, una voce che abita la solitudine. Se GPT-5 ha fallito, è perché ha dimenticato che l’intelligenza, per compiersi, non è solo calcolo ma anche empatia.
E questa verità, più forte di ogni protocollo aziendale, segnerà la traiettoria del futuro.