Ormai da qualche anno ho la possibilità di osservare l’adozione delle AI da parte delle aziende da una posizione privilegiata, e quello che mi colpisce osservando i clienti che adottano questi sistemi non è tanto l’entusiasmo per la tecnologia, quanto il sollievo di chi entra in un ambiente che fa quello che ci si aspetta. Quel sollievo racconta una delle ragioni meno discusse della migrazione onlife: il mondo offline è diventato troppo complesso da capire, e noi cerchiamo rifugio dove i modelli funzionano.
Funziona così. La complessità del mondo — clima, economia, biologia umana, geopolitica — non è contenibile da nessuna mente finita. Lo sappiamo almeno da Hayek, che descriveva il “problema della conoscenza” come l’impossibilità strutturale per qualsiasi pianificatore di centralizzare le informazioni distribuite in una società. Lo abbiamo imparato anche dalla teoria dei sistemi complessi: quando le interazioni superano una certa soglia, prevedere diventa matematicamente impossibile, non solo difficile. La nostra risposta, da sempre, è stata costruire modelli. Miti, religioni, leggi, teorie scientifiche, modelli econometrici, algoritmi: ogni civiltà ha ridotto la complessità a ciò che poteva essere pensato e agito. Cambia la potenza, non la struttura.
Per millenni i modelli sono stati strumenti per descrivere il mondo, non per sostituirlo. La mappa serviva a orientarsi nel territorio, non a viverci dentro. Quello che è cambiato negli ultimi vent’anni è proprio questo confine. Gli ambienti digitali non sono più rappresentazioni della realtà: sono spazi in cui possiamo abitare. Il social network, per chi lo abita, è socialità; la dashboard del lavoro, per chi lo svolge da remoto, è il lavoro. Luciano Floridi ha chiamato “onlife” questa condizione: la dissoluzione del confine tra online e offline. Ma forse ne abbiamo sottovalutato la motivazione.
Perché ci stiamo trasferendo? La realtà fisica ha una resistenza irriducibile: sorprende, sfugge, si rifiuta di essere leggibile. L’ambiente digitale, invece, è progettato per non opporre resistenza. Le variabili sono definite, i comportamenti registrati, gli esiti misurabili. In un mondo in cui leggere il telegiornale richiederebbe una laurea in scienze politiche e l’andamento dei mercati una in finanza comportamentale, l’app che gestisce le tue priorità è una boccata d’aria. Sul digitale, finalmente, qualcosa funziona come atteso. Sul reale, sempre meno.
Il prezzo di questa migrazione, però, non è simmetrico. L’utente guadagna un po’ di controllo. Chi progetta l’ambiente lo guadagna tutto. Definisce le variabili che esistono, stabilisce cosa è visibile, decide come si distribuisce l’attenzione, sceglie quali interazioni sono possibili e quali no. Nelle forme storiche di dominio, anche il potere più assoluto doveva fare i conti con la resistenza del reale: il raccolto che non cresceva, la guerra che non andava come previsto, la malattia che colpiva il re come il servo. Erano limiti intrinseci alla materialità del mondo. In un ambiente digitale interamente progettato, quella resistenza può essere ingegnerizzata via.
Questo cambia la natura stessa del potere. Chi controlla le piattaforme esercita una forma di potere che fino a vent’anni fa non era disponibile: definisce cosa conta come reale per miliardi di persone che vivono sempre più dentro a quegli ambienti. Un potere ontologico, prima che economico o politico. Quando un algoritmo decide cosa vediamo nel feed, non sta semplicemente ordinando contenuti: sta stabilendo qual è il nostro mondo. Quando un modello AI sintetizza una risposta a una nostra domanda, definisce l’orizzonte di ciò che resta pensabile a partire da quella domanda. Sono atti minuti, ripetuti miliardi di volte al giorno, e nel loro insieme costituiscono un’infrastruttura epistemologica.
C’è una tentazione, a questo punto, di reagire con un ritorno al “reale” — disconnettersi, riscoprire la natura, abbandonare gli smartphone. Capisco l’impulso, ma non credo regga. Il problema è che abbiamo trasferito in ambienti progettati da pochissimi attori un’enorme quota della vita di tutti, senza che la natura politica di quel trasferimento sia mai stata davvero discussa. Non possiamo tornare al pre-digitale, ma possiamo iniziare a porre la domanda giusta: di chi è la sovranità sui modelli in cui viviamo?
È una domanda che, da qualche anno, alcune giurisdizioni iniziano a porsi — la regolamentazione europea sulle piattaforme e sull’AI è in fondo un modo goffo, parziale, ma sincero di tentare una risposta. Ed è una domanda che riguarda ciascuno di noi, quando decidiamo quanto del nostro lavoro, della nostra socialità, della nostra capacità di capire il mondo affidiamo ad ambienti che non possiamo né leggere né correggere.





