Intelligenza Artificiale, cosa ci dice la dichiarazione di Bletchley

Categorie: Mondo, Rubriche, Scienza

A inizio novembre si è tenuto il primo summit mondiale per parlare dei rischi dell'IA

Ogni grande mutamento tecnologico porta con sé speranze e timori. Questo vale a maggior ragione per l’avvento dell’Intelligenza Artificiale, presentato come un vero e proprio cambio di paradigma. Per usare categorie cartesiane, va bene se le macchine si sostituiscono alla nostra res extensa, sollevandoci dal peso della fatica fisica che serve a svolgere lavori pesanti e spesso abbrutenti; ma come rapportarci alla possibilità di essere rimpiazzati nell’ambito della nostra res cogitans?
Timori che sono a maggior ragione incrementati quando a esprimerli non sono filosofi idealisti ma alcuni esponenti dell’attuale sviluppo dell’Intelligenza Artificiale, come Sam Altman, il co-fondatore di OpenAI, l’azienda che ha ideato ChatGPT, ed Elon Musk, un personaggio che non è certo imputabile di chiusure preventive nei confronti di scenari futuribili.
Proprio per questo, principalmente su impulso del premier britannico Rishi Sunak, i rappresentati di 28 Paesi e della Commissione europea hanno dato vita il 1° e il 2 novembre all’AI Safety Summit, svoltosi a Bletchley Park, paese a nord-ovest di Londra dove durante la Seconda guerra mondiale Alan Turing e altri crittoanalisti decifrarono Enigma, il codice segreto di comunicazione nazista. La scelta della location, oltre a omaggiare uno dei precursori dell’IA come Turing, è stata dettata dalla volontà di lanciare un messaggio volto a proporre un uso pacifico delle tecnologie e non distruttivo come quello fattone dal regime nazista. Oltre ai delegati e premier di vari Paesi (per l’Italia ha partecipato Giorgia Meloni), era seduta al tavolo una rappresentanza di “tecnici”, come lo stesso Altman, Mustafa Suleyman, co-fondatore di DeepMind, ed Elon Musk, che comunque in questo ambito riveste un ruolo più rappresentativo che pratico, almeno per ora.
Il risultato del summit è stata la dichiarazione di Bletchley, un documento che indica ai governi – e non solo – alcune linee guida su come rapportarsi all’IA. Un documento che, come di norma succede in questi casi, propone delle indicazioni generali e non dà direttive precise né impone vincoli di alcun tipo ai singoli Stati, che singolarmente saranno chiamati o meno ad applicare in maniera concreta e contestualizzata i principi espressi dalla carta; un documento che parla un linguaggio molto più politico che tecnico, riflettendo anche la disparità numerica tra i presenti al summit, sbilanciata a favore degli esponenti della politica rispetto a quelli della scienza e dell’industria.
Ma, in sostanza, quali sono appunto le linee guida della dichiarazione di Bletchley? Innanzitutto va sottolineato come le opportunità per lo sviluppo dell’IA sono oggetto dei primi due paragrafi, che poi lasciano il posto alle inquietudini per tutti quelli successivi. A dominare è il tema della sicurezza, d’altronde già scelto per la denominazione del meeting. Le prime indicazioni sostengono che, “per il bene di tutti, l’intelligenza artificiale dovrebbe essere progettata, sviluppata, implementata e utilizzata in modo sicuro, in modo tale da essere incentrata sull’uomo, affidabile e responsabile”. Per far questo è necessario concentrarsi sulla “tutela dei diritti umani, la trasparenza e l’usabilità, l’equità, la responsabilità, la regolamentazione, la sicurezza, un adeguato controllo umano, l’etica, la mitigazione dei pregiudizi, la tutela della privacy e la protezione dei dati”.
Timori sono stati espressi sia nei confronti delle IA che possono svolgere compiti disparati e quelle invece più specifiche qualora il loro utilizzo non si allineasse a scopi che vedono kantianamente l’uomo come fine e non come mezzo, con possibili “problemi […] in parte dovuti al fatto che tali capacità non sono completamente comprese e sono quindi difficili da prevedere”. I potenziali, maggiori rischi sono rilevati nell’ambito della sicurezza informatica, delle biotecnologie e della disinformazione.
Nella parte finale del documento, quella volta a delineare le linee programmatiche, si rimarca più volte la necessità della cooperazione “multilaterale, plurilaterale e bilaterale” tra i diversi soggetti coinvolti: “le nazioni, i forum internazionali e altre iniziative, le aziende, la società civile e il mondo accademico dovranno lavorare insieme”. Un passo particolare è rivolto agli sviluppatori dell’IA: “Affermiamo che, sebbene la sicurezza debba essere considerata in tutto il ciclo di vita dell’IA, gli attori che sviluppano capacità di IA di frontiera, in particolare quei sistemi di IA insolitamente potenti e potenzialmente dannosi, hanno una responsabilità particolarmente forte nel garantire la sicurezza di questi sistemi di IA, anche attraverso sistemi per i test di sicurezza, valutazioni adeguate e altre misure appropriate. Incoraggiamo tutti gli attori rilevanti a fornire trasparenza e responsabilità consone al contesto dei loro piani per misurare, monitorare e mitigare le capacità potenzialmente dannose e gli effetti derivati che potrebbero emergere, in particolare per prevenire abusi e problemi di controllo e l’amplificazione di altri rischi”.
Queste le due tematiche principali su cui concentrarsi nel prossimo futuro:



Il prossimo appuntamento è stato fissato per il 2024. Considerando la rapidità con cui si sviluppa l’Intelligenza Artificiale, magari per il prossimo anno alcune caratteristiche riguardo il suo impiego e gli effetti che ne derivano saranno maggiormente messi a fuoco e quindi si potrà entrare più nello specifico a livello teorico, normativo e operativo.

CREDITI FOTO: Number 10|Flickr