Complice il ban (poi superato) a ChatGPT da parte del Garante italiano e l’approvazione del nuovo regolamento europeo sull’AI, ultimamente in Italia siamo tornati a parlare moltissimo del macrotema della regolamentazione della tecnologia. È un tema molto attuale perché viviamo in un momento in cui assistiamo alla nascita e al progressivo sviluppo dell’intelligenza artificiale, che con estrema probabilità determinerà le nostre vite nel futuro. Eppure – nonostante la potenza ormai innegabile degli algoritmi – spesso sentiamo sollevarsi l’argomentazione per cui non sarebbe possibile fermare il progresso, come se il progresso fosse qualcosa di scevro dalle volontà e dalle azioni dell’essere umano. Ma non è così, e in Italia e in Europa ne abbiamo più di una dimostrazione.
Per capire bene la questione partiamo dal principio di precauzione, citato nell’articolo 191 del trattato sul funzionamento dell’UE e il cui scopo è quello di garantire un alto livello di protezione dell’ambiente grazie a delle prese di posizione preventive in caso di rischio. Lo stesso principio viene utilizzato anche alla politica dei consumatori, alla legislazione europea sugli alimenti, alla salute umana, animale e vegetale e a molti altri ambiti considerati vitali per la democrazia europea. Uno dei contesti in cui più è applicato è quello del nucleare, dove per esempio in caso di collaborazioni internazionali si applicano le norme del paese con la regolamentazione più stringente e in cui la soglia massima delle radiazioni consentite è fissata ben al di sotto della quantità ritenuta sicura per gli esseri umani.
Si tratta di un principio che ha l’evidente vantaggio di garantire livelli di sicurezza sempre molto alti. Ovviamente di contro contribuisce a una diminuzione dell’efficienza e a costi di gestione molto alti per chi decide di occuparsi di questioni cruciali ma anche delicate come quelle energetiche o ambientali. Ma ad ogni modo il principio di precauzione è proprio l’essenza della filosofia con cui l’UE ha deciso di regolamentare il progresso, cosa dunque assolutamente possibile e già esistente. L’obiettivo a ogni modo rimane quello di trovare un buon compromesso tra l’interesse pubblico legato a determinate tecnologie e all’innovazione trainata dal privato. Un buon compromesso potrebbero essere ad esempio le collaborazioni tra la Nasa e le società di Elon Musk, grazie alla quale è stato possibile rendere concreta l’innovazione di un privato e assicurare al contempo la sicurezza necessaria grazie all’intervento della più importante agenzia spaziale al mondo.
Si tratta di modelli assolutamente replicabili anche nel contesto dell’Intelligenza Artificiale. Potremmo immaginare per esempio delle collaborazioni tra le big tech come Google o Microsoft e realtà come l’agenzia nazionale per la sicurezza informatica creata dall’Italia, o anche singoli ministeri o enti governativi o – ancora – agenzie specifiche delle Nazioni Unite per applicare l’AI in ambiti come quello dell’agricoltura, della medicina o dei diritti umani. Del resto, un grande regolamento europeo su un tema cruciale esiste già, ed è il GDPR europeo, in conseguenza del quale ogni azienda si è dovuta dotare di figure specifiche preposte alla tutela dei dati dei propri utenti e dei propri clienti. A ben pensarci è un po’ come la patente di guida: non fermiamo certo lo sviluppo dell’automobile, ma poniamo un limite – per esempio anagrafico e di salute – nel suo utilizzo.
Il nuovo regolamento approvato dall’UE per la regolamentazione dell’AI sembra andare proprio in questa direzione. Il principio di base è porsi come ente regolatore e far sì che la tecnologia possa svilupparsi ma solo all’interno di un alveo molto ben definito e considerato accettabile da un punto di vista politico ed etico. Una soluzione, ad esempio, potrebbe essere la creazione di un ente certificatore che consenta di lavorare in Europa solo a chi tratta l’AI in determinati modi.
Va detto però, in conclusione, che parliamo di considerazioni fatte da un uomo bianco con una posizione lavorativa abbastanza affermata e quindi frutto di un privilegio che potrebbe portarmi a sovrastimare gli effetti positivi della regolamentazione e sottostimare quelli di un mercato totalmente libero. È un po’ come avviene nella discussione sull’opportunità etica della manipolazione genetica sulle zanzare: per un europeo potrebbe sembrare un’apertura a scenari inquietanti, per un africano potrebbe significare la salvezza dalla malaria. Per questo motivo sono assolutamente certo che una regolamentazione sana possa essere pensata solo all’interno di un contesto quanto più diversificato in termini di paese, cultura, etnia, genere, titolo di studio, classe sociale di chi prenderà decisioni per il futuro della collettività.