Intelligenza Artificiale, cosa ci dice la dichiarazione di Bletchley

A inizio novembre i rappresentanti di 28 Paesi e della Commissione Europea si sono riuniti a Bletchley, a nord-ovest di Londra, per discutere dei rischi dell’Intelligenza Artificiale insieme a esponenti del suo sviluppo in ambito scientifico e industriale. Ne è scaturita una dichiarazione di intenti che esorta alla cooperazione tra i vari soggetti coinvolti allo scopo di subordinare lo sviluppo dell’AI agli scopi dell’essere umano e non viceversa. Al di là degli entusiasmi del promotore del summit, il premier britannico Rishi Sunak, il documento che ne è scaturito è piuttosto vago, tanto che il valore del meeting non risiede tanto nella sua carta programmatica quanto nell’aver riunito per la prima volta intorno a un tavolo per parlare di questo tema cruciale tecnici e rappresentati di Paesi di tutti i continenti.

Fabio Bartoli

Ogni grande mutamento tecnologico porta con sé speranze e timori. Questo vale a maggior ragione per l’avvento dell’Intelligenza Artificiale, presentato come un vero e proprio cambio di paradigma. Per usare categorie cartesiane, va bene se le macchine si sostituiscono alla nostra res extensa, sollevandoci dal peso della fatica fisica che serve a svolgere lavori pesanti e spesso abbrutenti; ma come rapportarci alla possibilità di essere rimpiazzati nell’ambito della nostra res cogitans?
Timori che sono a maggior ragione incrementati quando a esprimerli non sono filosofi idealisti ma alcuni esponenti dell’attuale sviluppo dell’Intelligenza Artificiale, come Sam Altman, il co-fondatore di OpenAI, l’azienda che ha ideato ChatGPT, ed Elon Musk, un personaggio che non è certo imputabile di chiusure preventive nei confronti di scenari futuribili.
Proprio per questo, principalmente su impulso del premier britannico Rishi Sunak, i rappresentati di 28 Paesi e della Commissione europea hanno dato vita il 1° e il 2 novembre all’AI Safety Summit, svoltosi a Bletchley Park, paese a nord-ovest di Londra dove durante la Seconda guerra mondiale Alan Turing e altri crittoanalisti decifrarono Enigma, il codice segreto di comunicazione nazista. La scelta della location, oltre a omaggiare uno dei precursori dell’IA come Turing, è stata dettata dalla volontà di lanciare un messaggio volto a proporre un uso pacifico delle tecnologie e non distruttivo come quello fattone dal regime nazista. Oltre ai delegati e premier di vari Paesi (per l’Italia ha partecipato Giorgia Meloni), era seduta al tavolo una rappresentanza di “tecnici”, come lo stesso Altman, Mustafa Suleyman, co-fondatore di DeepMind, ed Elon Musk, che comunque in questo ambito riveste un ruolo più rappresentativo che pratico, almeno per ora.
Il risultato del summit è stata la dichiarazione di Bletchley, un documento che indica ai governi – e non solo – alcune linee guida su come rapportarsi all’IA. Un documento che, come di norma succede in questi casi, propone delle indicazioni generali e non dà direttive precise né impone vincoli di alcun tipo ai singoli Stati, che singolarmente saranno chiamati o meno ad applicare in maniera concreta e contestualizzata i principi espressi dalla carta; un documento che parla un linguaggio molto più politico che tecnico, riflettendo anche la disparità numerica tra i presenti al summit, sbilanciata a favore degli esponenti della politica rispetto a quelli della scienza e dell’industria.
Ma, in sostanza, quali sono appunto le linee guida della dichiarazione di Bletchley? Innanzitutto va sottolineato come le opportunità per lo sviluppo dell’IA sono oggetto dei primi due paragrafi, che poi lasciano il posto alle inquietudini per tutti quelli successivi. A dominare è il tema della sicurezza, d’altronde già scelto per la denominazione del meeting. Le prime indicazioni sostengono che, “per il bene di tutti, l’intelligenza artificiale dovrebbe essere progettata, sviluppata, implementata e utilizzata in modo sicuro, in modo tale da essere incentrata sull’uomo, affidabile e responsabile”. Per far questo è necessario concentrarsi sulla “tutela dei diritti umani, la trasparenza e l’usabilità, l’equità, la responsabilità, la regolamentazione, la sicurezza, un adeguato controllo umano, l’etica, la mitigazione dei pregiudizi, la tutela della privacy e la protezione dei dati”.
Timori sono stati espressi sia nei confronti delle IA che possono svolgere compiti disparati e quelle invece più specifiche qualora il loro utilizzo non si allineasse a scopi che vedono kantianamente l’uomo come fine e non come mezzo, con possibili “problemi […] in parte dovuti al fatto che tali capacità non sono completamente comprese e sono quindi difficili da prevedere”. I potenziali, maggiori rischi sono rilevati nell’ambito della sicurezza informatica, delle biotecnologie e della disinformazione.
Nella parte finale del documento, quella volta a delineare le linee programmatiche, si rimarca più volte la necessità della cooperazione “multilaterale, plurilaterale e bilaterale” tra i diversi soggetti coinvolti: “le nazioni, i forum internazionali e altre iniziative, le aziende, la società civile e il mondo accademico dovranno lavorare insieme”. Un passo particolare è rivolto agli sviluppatori dell’IA: “Affermiamo che, sebbene la sicurezza debba essere considerata in tutto il ciclo di vita dell’IA, gli attori che sviluppano capacità di IA di frontiera, in particolare quei sistemi di IA insolitamente potenti e potenzialmente dannosi, hanno una responsabilità particolarmente forte nel garantire la sicurezza di questi sistemi di IA, anche attraverso sistemi per i test di sicurezza, valutazioni adeguate e altre misure appropriate. Incoraggiamo tutti gli attori rilevanti a fornire trasparenza e responsabilità consone al contesto dei loro piani per misurare, monitorare e mitigare le capacità potenzialmente dannose e gli effetti derivati che potrebbero emergere, in particolare per prevenire abusi e problemi di controllo e l’amplificazione di altri rischi”.
Queste le due tematiche principali su cui concentrarsi nel prossimo futuro:

  • “identificare rischi di interesse condiviso in merito alla sicurezza dell’IA, costruire una comprensione scientifica condivisa e basata sull’evidenza di questi rischi e sostenere tale comprensione mentre le capacità (dell’IA) continuano ad aumentare, nel contesto di un approccio globale più ampio riguardo la comprensione dell’impatto dell’IA sulle nostre società.
  • Dare forma in tutti i nostri Paesi a politiche consapevoli dei possibili rischi (dell’IA) per garantire la sicurezza, collaborando in modo appropriato e riconoscendo che i nostri approcci possono differire in base alle circostanze nazionali e ai quadri giuridici applicabili. Ciò include, oltre a una maggiore trasparenza da parte degli attori privati che sviluppano capacità di Intelligenza Artificiale di frontiera, parametri di valutazione adeguati, strumenti per test di sicurezza e lo sviluppo di capacità pertinenti del settore pubblico e della ricerca scientifica”.

Il prossimo appuntamento è stato fissato per il 2024. Considerando la rapidità con cui si sviluppa l’Intelligenza Artificiale, magari per il prossimo anno alcune caratteristiche riguardo il suo impiego e gli effetti che ne derivano saranno maggiormente messi a fuoco e quindi si potrà entrare più nello specifico a livello teorico, normativo e operativo.

CREDITI FOTO: Number 10|Flickr



Ti è piaciuto questo articolo?

Per continuare a offrirti contenuti di qualità MicroMega ha bisogno del tuo sostegno: DONA ORA.

Altri articoli di Fabio Bartoli

Le lotte operaie e la necessità di ripensarci come "noi" in un fumetto edito da Tunué.

La cantante è davvero così influente da poter condizionare (anche) le elezioni americane?

Il ricordo di una leggenda dello sport che se n'è andata troppo presto

Altri articoli di Scienza

A pochi giorni dalla scomparsa di Peter Higgs, ripercorriamo il processo che ha condotto alla scoperta della cosiddetta “particella di Dio”.

L’impatto sociale dell’Intelligenza artificiale non è paragonabile a quello avuto da altre grandi innovazioni tecnologiche.

L'intelligenza artificiale ci pone dinanzi a potenziali benefici e eventuali rischi ugualmente difficili da prevedere.