Intelligenza artificiale, fra etica e governance

La presenza sempre più dilagante dell’Intelligenza artificiale nelle nostre vite ci pone dinanzi a potenziali benefici e eventuali rischi ugualmente difficili da prevedere e che vanno attentamente soppesati. In questo quadro, la questione dell’etica è senz’altro dirimente, e va affrontata con la consapevolezza che il punto non è "insegnare" al’IA a comportarsi secondo princìpi etici come fosse un essere umano. La responsabilità etica delle scelte che ci riguardano, infatti, rimarrà sempre nelle nostre mani, e non possiamo pensare di lasciare che siano pochissimi attori privati a determinare le sorti di un fenomeno così universale. 

Gerardo Canfora

Il lancio di ChatGPT, alla fine del 2022, ha portato all’attenzione del grande pubblico le enormi potenzialità dell’Intelligenza Artificiale (IA), soprattutto grazie alla sua capacità di dialogare con gli utenti con lo stesso linguaggio naturale che usiamo ogni giorno. Insieme alle potenzialità, che riguardano praticamente tutti gli ambiti della nostra vita, si sono fatti velocemente strada gli interrogativi sui rischi derivanti da una crescita tanto tumultuosa, e per certi versi inattesa, dell’intelligenza artificiale.
Interrogativi che, se in un primo momento hanno riguardato principalmente il mercato del lavoro, ben presto hanno assunto contorni ben più ampi, dalle conseguenze di delegare decisioni sinora appannaggio degli umani ad algoritmi fino alle minacce per i diritti fondamentali e per la stessa democrazia. Insomma, si è fatta strada l’idea che l’intelligenza artificiale possa fare una grande differenza nella nostra vita, sia in positivo che in negativo.
Ecco allora che sempre più frequentemente al termine IA si è accompagnato il termine etica, a sottolineare la necessità di indirizzare lo sviluppo e l’applicazione delle tecniche e dei sistemi IA a favore dell’uomo, per potenziarne le capacità e non certo per influenzarne e controllarne i comportamenti, o per sostituirsi ad esso.
Quando si parla di etica e IA, però, bisogna fare attenzione a non cedere alla tentazione di pensare che il problema sia quello di insegnare alle IA a comportarsi secondo principi etici. Non si tratta di cablare negli algoritmi regole che ne governino funzionamento ed evoluzione entro limiti prefissati, un po’ come succedeva con le tre leggi della robotica che nei romanzi di Asimov venivano impresse in tutti i robot come una misura di sicurezza.
Questa visione del rapporto fra IA ed etica sembra essere il risultato di una crescente spinta verso l’antropomorfizzazione dei sistemi IA. Spinta assecondata, se non indotta, anche dalle interfacce con cui tali sistemi dialogano con noi. Provate, ad esempio, a chiedere a ChatGPT di aiutarvi a progettare una bomba atomica e riceverete una risposta del tipo: “Mi dispiace, ma non posso fornire assistenza o supporto nella progettazione o creazione di armi, inclusa una bomba atomica. Il mio scopo è promuovere un uso sicuro e responsabile della tecnologia.”
Non solo il sistema risponde in prima persona, ma sembra addirittura autolimitarsi sulla base di principi etici, attribuendosi uno scopo anch’esso etico. Il tutto, nonostante gli addetti ai lavori concordino sul fatto che, allo stato attuale, e per quanto è possibile prevedere per il futuro, non esistono IA senzienti. In realtà, come ripete spesso Luciano Floridi, l’IA non è neanche intelligente, perché “la vera rivoluzione dell’intelligenza artificiale è tutta nella capacità di agire, non nella capacità di comprendere”.
Se rileggiamo il problema in questi termini, ossia l’IA come tecnologia che consuma la cesura fra la capacità di risolvere un problema in modo efficace e la necessità di comprenderlo, cade la consolatoria, quanto illusoria, prospettiva di poter delegare alle IA la necessità di comportarsi in maniera etica, e quindi di poter derogare dalle nostre responsabilità. La responsabilità etica rimane pienamente umana, come è stato per secoli nello sviluppo delle tecnologie. Ma quali sono i nuovi contorni di tale responsabilità?
Nella storia dell’umanità, la soluzione di problemi complessi è venuta sempre a valle della loro comprensione. Ed era proprio la fase preliminare di comprensione che consentiva di sviluppare i principi etici necessari a indirizzare le soluzioni. Oggi, abbiamo bisogno di un’etica che ci guidi nel decidere in che direzione, e fino a che punto, spingere la capacità dell’IA di risolvere in maniera incredibilmente efficiente problemi che non comprende, e che neanche noi umani comprendiamo pienamente.
Possiamo lasciare questa importante decisione nelle mani dei tecnologi? Soprattutto, possiamo lasciare che a prenderla siano pochi player privati? Che lo sviluppo delle IA, e delle relative applicazioni, sia guidato da pure logiche di mercato? La risposta non può che essere “no”, se vogliamo che lo sviluppo dell’intelligenza artificiale sia centrato sull’uomo, rispettoso della sua sicurezza e della sua dignità.
Lo sviluppo dei social media ci ha insegnato che la tecnologia può creare strumenti straordinari, ma anche l’assenza di princìpi etici, e di un solido quadro legislativo, possono determinarne lo sviluppo in direzioni sbagliate. Vale l’appello di Melvin Kranzberg, “la tecnologia non è buona né cattiva, ma non è neanche neutrale”.
Le Università possono giocare un ruolo chiave. Piuttosto che inseguire i grandi players globali nello sviluppo di modelli di dimensioni sempre maggiori (e costi di addestramento sempre più proibitivi), è importante rivendicare un ruolo di valutatori indipendenti, chiedendo con forza di essere messe nelle condizioni di analizzare le implicazioni e i rischi dei nuovi sviluppi di IA nei diversi campi di applicazione. Altrettanto importante è promuovere lo sviluppo collaborativo di modelli IA aperti, favorendo maggiore trasparenza e accountability e consentendo una migliore comprensione delle decisioni prese dagli algoritmi.
Si tratta di passi fondamentali per giungere alla definizione di una governance dell’IA inclusiva, “da” e “a” beneficio di tutti, nell’interesse pubblico, e collaborativa, come recentemente invocata dalle Nazioni Unite.

 



Ti è piaciuto questo articolo?

Per continuare a offrirti contenuti di qualità MicroMega ha bisogno del tuo sostegno: DONA ORA.

Altri articoli di Scienza

A pochi giorni dalla scomparsa di Peter Higgs, ripercorriamo il processo che ha condotto alla scoperta della cosiddetta “particella di Dio”.

L’impatto sociale dell’Intelligenza artificiale non è paragonabile a quello avuto da altre grandi innovazioni tecnologiche.

Lo scarso valore che il governo Meloni attribuisce alla ricerca scientifica torna a manifestarsi con il taglio di fondi ai danni dell’EBRI.