In una recente intervista, Sam Altman ha descritto un futuro in cui le intelligenze artificiali saranno in grado di ricordare tutto: ogni conversazione, ogni scelta, ogni preferenza. Un assistente digitale che non dimentica nulla e che, proprio per questo, non soltanto potrebbe aiutarci meglio, ma — per usare le sue parole — permetterci di andare oltre i nostri limiti.
L’idea è seducente. In fondo, la tecnologia ha sempre avuto questa funzione: estendere artificialmente la capacità d’azione umana, compensare fragilità, superare vincoli biologici. Tra questi limiti, uno dei più evidenti è sempre stato la memoria. Non a caso la nascita della civiltà viene convenzionalmente fatta coincidere con l’invenzione della scrittura, la più potente tecnologia di esternalizzazione del ricordo che l’umanità abbia mai prodotto.
Da questa prospettiva, una memoria totale sembra il passo successivo dell’evoluzione cognitiva. Eppure ciò che appare come un progresso lineare solleva una domanda meno ovvia: ricordare tutto equivale davvero a comprendere meglio il mondo?
Gli esseri umani non hanno mai conosciuto la realtà attraverso l’accumulo esaustivo di informazioni. La nostra intelligenza si è formata in condizioni di scarsità, incertezza e tempo limitato. Comprendere, per noi, ha sempre significato selezionare, semplificare, trascurare. Questo perché la nostra memoria non è un archivio neutro, ma una funzione attiva che organizza il passato in relazione al presente, sacrificando una quantità enorme di dati per rendere possibile l’azione.
In questo senso l’oblio è a tutti gli effetti una strategia cognitiva, perché senza la capacità di lasciar svanire il passato, la mente rischierebbe di rimanere intrappolata nelle proprie tracce precedenti: ogni errore resterebbe costantemente attivo, ogni cambiamento di opinione richiederebbe una giustificazione completa, ogni incoerenza dovrebbe essere risolta invece che attraversata. L’azione verrebbe rallentata non dalla mancanza di informazioni, ma dal loro eccesso. In questo senso, la memoria totale è ossessiva, sclerotica, mortifera.
Anche da un punto di vista sociale molte trasformazioni culturali e morali non nascono da una perfetta continuità con ciò che le precede, quanto piuttosto da una sospensione temporanea della coerenza, da decisioni che non riescono ancora a integrarsi pienamente con il passato, da rotture che solo in seguito verranno razionalizzate. Le persone cambiano non perché nuove informazioni si inseriscono armoniosamente nella loro storia, ma perché il passato perde parte del suo potere vincolante.
È qui che l’idea di una memoria artificiale totale diventa problematica. Non perché una macchina che ricorda tutto possieda un’identità rigida o una pretesa di coerenza, ma perché quel ricordo può diventare normativamente vincolante per l’umano, se non da un punto di vista giuridico quantomeno da un punto di vista strettamente personale. Una memoria sempre accessibile, sempre interrogabile, rischia di trasformare la biografia personale in un sistema di prove, in cui ogni deviazione diventa un’anomalia da spiegare.
Un’AI in grado di ricordare (e di ricordarci) tutto può essere uno strumento potente di supporto, ma anche una fonte di pressione continua. Se ogni esitazione resta registrata, ogni contraddizione può essere riattivata, il passato smette di essere qualcosa da cui prendere distanza e diventa un elemento costantemente presente, capace di condizionare il modo in cui decidiamo, cambiamo, cresciamo. In questo senso, una memoria totale può funzionare come un trauma permanente: non perché sia dolorosa in sé, ma perché non si lascia metabolizzare dal tempo.
Si potrebbe obiettare che il problema sia tecnico e risolvibile – basterebbe insegnare all’AI cosa dimenticare – ma qui credo ci sia un paradosso di fondo perché l’oblio umano non è il risultato di una decisione esplicita: avviene nel tempo, attraverso il mutare dei contesti, delle emozioni, delle relazioni. Chiedere a una persona di specificare in anticipo cosa una macchina debba dimenticare significa chiederle di formalizzare ciò che, per definizione, opera in modo implicito.
È come domandare quali errori si riveleranno formativi o quali incoerenze saranno necessarie per crescere. La risposta è sempre retrospettiva: l’oblio acquista senso solo ex-post, mai ex-ante.
Questo paradosso non è nuovo. Una lunga tradizione filosofica ha mostrato come l’oblio non sia una semplice mancanza, ma una funzione attiva: dall’oblio “attivo” di Friedrich Nietzsche, alla rimozione freudiana, fino alla discontinuità dell’azione in Hannah Arendt e al nesso tra memoria e perdono in Paul Ricoeur. Ciò che cambia oggi non è la struttura del problema, ma il fatto che questo paradosso venga proiettato su un’infrastruttura tecnica che pretende (o pretenderà) istruzioni esplicite.
È probabile che nei prossimi anni dovremo comunque fare i conti con forme di memoria sempre più estese e persistenti. Per questo vale la pena interrogarsi non tanto su cosa queste tecnologie ci permetteranno di sapere, ma su come modificheranno il nostro rapporto con il tempo, con il cambiamento e con l’identità.





