Sacrificare la regina. La nostra nuova vita con l’Intelligenza Artificiale

Negli ultimi anni l’Intelligenza Artificiale è sempre più al centro del dibattito economico, politico, scientifico ed etico. I possibili benefici di tale tecnologia sono incalcolabili, ma il rischio che questa possa andare contro l’interesse della società umana non è irrealistico. L’IA potrebbe mettere in pericolo la fragile tutela del nostro libero arbitrio, e potrebbe modificare drasticamente l’attività militare e dunque gli equilibri geopolitici.

Carlo Scognamiglio

Sebbene gli studi dedicati all’Intelligenza Artificiale abbiano conosciuto un’importante ripresa nell’ultimo quarto di secolo, dopo il lungo inverno iniziato intorno alla metà degli anni Settanta, l’opinione pubblica e le leadership politiche pare abbiano visto arrivare soltanto nell’ultimo anno l’accelerazione tecnologica basata su sistemi algoritmici capaci di apprendere. Questo è testimoniato dalla proliferazione di pubblicazioni specialistiche e divulgative sui temi connessi all’Intelligenza Artificiale, dalla ricca offerta di percorsi di formazione e aggiornamento, dai forum internazionali, con relative ricadute normative.
Qual è la sostanza del problema? Proviamo ad andare al nocciolo della questione.
Leggendo il fortunato libro firmato dal recentemente scomparso Henry A. Kissinger, insieme a Eric Schmidt e Daniel Huttenlocher (L’era dell’Intelligenza Artificiale. Il futuro dell’identità umana, Mondadori 2023), emerge chiaramente il punto nodale della questione.
Un sistema programmato per il gioco degli scacchi (AlphaZero) è in grado di sconfiggere qualunque avversario umano, in virtù di un’eccezionale creatività (cioè, sarebbe meglio dire: una tendenza a trovare soluzioni poco intuitive per un giocatore umano, e tuttavia vincenti), e i sistemi algoritmici basati sul deep learning, controllando dati in misura molto maggiore di quanto siano in grado di fare i ricercatori umani, scoprono che una data molecola (denominata poi, con riferimento al computer di 2001. Odissea nello spazio, “halicina”) può essere efficace come antibiotico. Possiamo dunque dire di essere arrivati al punto pronosticato dai profeti della fantascienza del secolo scorso? Alcune macchine sono davvero in grado di agire indipendentemente dall’intervento umano, ed eventualmente contro gli stessi interessi delle società umane?
I sistemi ad apprendimento profondo sono strutturati secondo diversi modelli. Non sono perfetti, ma migliorano rapidamente. Si tratta di algoritmi che applicano le proprie procedure di elaborazione e risposta su più livelli, di cui alcuni “nascosti” – perché intermedi – e che, dopo essere stati addestrati da operatori umani, si perfezionano grazie a un algoritmo “avversario”, programmato per raffinarne la precisione. Oppure possiamo trovarci di fronte a dispositivi progettati su un modello comportamentale di condizionamento operante, per guidarne l’apprendimento attraverso processi di erogazione di rinforzo automatico. Senza entrare nei dettagli tecnici, può essere sufficiente comprendere che i sistemi basati sugli studi di intelligenza artificiale, cioè capaci di apprendere, sanno fare prevalentemente due operazioni: analizzare dati e elaborare pronostici sulla base di tali dati. Agiscono dunque con una logica apparentemente semplice: rintracciano delle regolarità nei dati e nelle loro connessioni, e sulla base di queste formulano delle previsioni più o meno precise, che gli consentono di rispondere all’operatore umano in modo più o meno coerente con le sue aspettative.
Dov’è, dunque, il problema? Lo sviluppo esponenziale delle capacità di questi algoritmi permette  di leggere e decifrare in pochi secondi una mole di dati che un operatore umano non sarebbe in grado di visionare nell’arco di tutta la sua vita. Ciò consentirebbe al sistema di vedere dei nessi e delle correlazioni per noi invisibili, e fare dunque inferenze delle quali non siamo neanche in grado di ricostruire le ragioni. Per i più arditi, si può arrivare a sostenere che le macchine stiano scoprendo strutture logiche (o meglio, processi inferenziali) sconosciuti all’intelletto umano, e dunque non più controllabili. Pertanto, se è vero che alcuni programmi in ambito sanitario sanno diagnosticare un tumore al seno con maggiore anticipo rispetto a ricercatori umani, è altresì ragionevole che il motivo per cui AlphaZero potrebbe decidere di sacrificare una regina a inizio partita, vincendo secondo una strategia rigorosa, può risultare indecifrabile anche per uno scacchista raffinato ed esperto. Se trasliamo questa capacità di individuare tendenze dal gioco degli scacchi all’ambito bellico, dunque, chi possedesse i sistemi più intelligenti e meglio addestrati, potrebbe garantirsi un dominio incontrastato, ma al tempo stesso rischierebbe di dover consegnare le decisioni sul proprio piano strategico a una macchina, che “ragiona” indipendentemente dal suo committente, e potrebbe anche decidere di sacrificare un alleato o una parte del proprio Paese per raggiungere uno scopo predefinito.
Il nostro progressivo affidamento di processi decisionali a sistemi algoritmici (dalle indagini diagnostiche in ambito sanitario ai meccanismi di guida autonoma, fino alle certificazioni scolastiche), non è solo una minaccia per un imperscrutabile scenario geopolitico, ma potrebbe metter a rischio la fragile tutela del nostro libero arbitrio.
D’altro canto, se il rendimento dell’I.A. dovesse riuscire a superare quello umano in ogni campo, come sarà possibile – in futuro – rinunciare a cedere il potere decisionale? Se il sistema sarà in grado di salvare vite, anche al di là della nostra capacità di seguirne le logiche, chi si assumerà la responsabilità di non ricorrervi?
Il livello di riflessione sale dunque su un piano mai toccato con le precedenti innovazioni tecnologiche, giacché – affermano gli autori de L’era dell’intelligenza artificiale – per la prima volta ci troviamo di fronte a un dispositivo che presenta: a) facile diffusione; b) duplice utilizzo (civile e militare); c) enorme potenziale distruttivo. Fino a ieri tutte le innovazioni presentavano congiuntamente le caratteristiche a e b (ad esempio, la radio), oppure b e c (su tutte, l’energia nucleare). Per la prima volta queste tre caratteristiche sono tutte contemporaneamente attive. Abbiamo dunque bisogno di una riflessione supplementare.
CREDITI FOTO: ANSA / JESSICA PASQUALON



Ti è piaciuto questo articolo?

Per continuare a offrirti contenuti di qualità MicroMega ha bisogno del tuo sostegno: DONA ORA.

Altri articoli di Carlo Scognamiglio

Per i docenti formarsi è un lavoro, non un passatempo da confinare nel periodo di ferie.

“Storia della scuola italiana” mostra come l'esito degli sviluppi del nostro sistema formativo sia stato l’emancipazione sociale.

Il concetto di miglioramento legato alle prove standardizzate è declinato in forma competitiva. Favorisce demotivazione e impoverimento culturale.

Altri articoli di Scienza

A 70 anni dalla morte di Alan Turing lo ricordiamo ricostruendo il dibattito sul test da lui inventato per determinare l’intelligenza delle macchine.

A pochi giorni dalla scomparsa di Peter Higgs, ripercorriamo il processo che ha condotto alla scoperta della cosiddetta “particella di Dio”.

L’impatto sociale dell’Intelligenza artificiale non è paragonabile a quello avuto da altre grandi innovazioni tecnologiche.