Da quando l’intelligenza artificiale (IA) è passata dalla teoria alla realtà, i centri di ricerca e sviluppo di tutto il mondo si sono affrettati a proporre il prossimo grande passo avanti nell’IA.
Questa competizione è talvolta chiamata la “gara AI“. In pratica, però, ci sono centinaia di “gare IA” che si dirigono verso obiettivi diversi. Alcuni centri di ricerca stanno gareggiando per produrre IA per il marketing digitale, ad esempio, mentre altri stanno gareggiando per accoppiare l’IA con hardware militare. Alcune gare sono tra società private e altre tra paesi.
Poiché i ricercatori di intelligenza artificiale competono per vincere la gara prescelta, potrebbero trascurare i problemi di sicurezza per superare i loro rivali. Ma l’applicazione della sicurezza tramite regolamenti non è sviluppata e la riluttanza a regolamentare l’IA potrebbe effettivamente essere giustificata: potrebbe soffocare l’innovazione, riducendo i benefici che l’IA potrebbe offrire all’umanità.
La nostra recente ricerca, condotta insieme al nostro collega Francisco C. Santos, ha cercato di determinare quali gare di IA dovrebbero essere regolamentate per motivi di sicurezza e quali dovrebbero essere lasciate non regolamentate per evitare di soffocare l’innovazione. Lo abbiamo fatto utilizzando una simulazione della teoria dei giochi.
Supremazia dell’Intelligenza artificiale
La regolamentazione dell’IA deve considerare i danni ei vantaggi della tecnologia. I danni che il regolamento potrebbe tentare di legiferare includono il potenziale per l’IA di discriminare le comunità svantaggiate e lo sviluppo di armi autonome. Ma i vantaggi dell’IA, come una migliore diagnosi del cancro e modelli climatici intelligenti, potrebbero non esistere se la regolamentazione dell’IA fosse troppo pesante. Una regolamentazione ragionevole dell‘IA massimizzerebbe i suoi benefici e ne mitigherebbe i danni.
Ma con gli Stati Uniti che competono con Cina e Russia per raggiungere la “supremazia dell’IA” – un chiaro vantaggio tecnologico sui rivali – le normative sono finora passate in secondo piano. Questo, secondo l’Onu, ci ha spinto in un “ territorio morale inaccettabile ”.
I ricercatori e gli organi di governance dell’IA, come l’UE, hanno chiesto norme urgenti per prevenire lo sviluppo di un’IA non etica. Eppure il libro bianco dell’UE sulla questione ha riconosciuto che è difficile per gli organi di governo sapere quale razza di intelligenza artificiale finirà con un‘IA non etica e quale finirà con un’intelligenza artificiale benefica.
Guardando avanti
Volevamo sapere a quali gare di IA dare la priorità per la regolamentazione, quindi il nostro team ha creato un modello teorico per simulare ipotetiche gare di IA. Abbiamo quindi eseguito questa simulazione in centinaia di iterazioni, modificando le variabili per prevedere come potrebbero svolgersi le gare di IA nel mondo reale.
Il nostro modello include una serie di agenti virtuali, che rappresentano i concorrenti in una corsa all’IA, come ad esempio diverse società tecnologiche. A ogni agente è stato assegnato in modo casuale un comportamento, imitando il modo in cui questi concorrenti si sarebbero comportati in una vera gara di intelligenza artificiale. Ad esempio, alcuni agenti considerano attentamente tutti i dati e le insidie dell’IA, ma altri si assumono rischi indebiti saltando questi test.
Il modello stesso era basato sulla teoria dei giochi evolutiva, che è stata utilizzata in passato per capire come si evolvono i comportamenti sulla scala delle società, delle persone o persino dei nostri geni. Il modello presume che i vincitori di un particolare gioco, nel nostro caso una gara di intelligenza artificiale, ne traggano tutti i benefici, come sostengono i biologi, accade nell’evoluzione.
Introducendo regolamenti nella nostra simulazione – che sanzionano comportamenti non sicuri e premiano comportamenti sicuri – abbiamo potuto quindi osservare quali regolamenti hanno avuto successo nel massimizzare i benefici e quali hanno finito per soffocare l’innovazione.
Lezioni di governance
La variabile che abbiamo trovato particolarmente importante è stata la ” lunghezza ” della gara – il tempo impiegato dalle nostre gare simulate per raggiungere il loro obiettivo (un prodotto AI funzionale). Quando le gare di intelligenza artificiale hanno raggiunto rapidamente il loro obiettivo, abbiamo scoperto che i concorrenti che avevamo programmato per ignorare sempre le precauzioni di sicurezza hanno sempre vinto.
In queste veloci gare di intelligenza artificiale, o “sprint di intelligenza artificiale“, il vantaggio competitivo si ottiene essendo veloci e coloro che si soffermano a considerare la sicurezza e l’etica ci perdono sempre. Avrebbe senso regolamentare questi sprint di intelligenza artificiale, in modo che i prodotti di intelligenza artificiale con cui concludono siano sicuri ed etici.
D’altra parte, la nostra simulazione ha rilevato che i progetti di intelligenza artificiale a lungo termine, o “maratone di intelligenza artificiale“, richiedono regolamenti meno urgenti. Questo perché i vincitori delle maratone AI non sono stati sempre quelli che hanno trascurato la sicurezza. Inoltre, abbiamo scoperto che la regolamentazione delle maratone AI ha impedito loro di raggiungere il loro potenziale. Questo sembrava un eccesso di regolamentazione soffocante, il tipo che potrebbe effettivamente funzionare contro gli interessi della società.
Alla luce di questi risultati, sarà importante che i regolatori stabiliscano per quanto tempo dureranno le diverse gare di IA, applicando regolamenti diversi in base ai tempi previsti. I nostri risultati suggeriscono che una regola per tutte le gare di intelligenza artificiale, dagli sprint alle maratone, porterà ad alcuni risultati tutt’altro che ideali.
Non è troppo tardi per mettere insieme regolamenti intelligenti e flessibili per evitare un’IA non etica e pericolosa mentre si supporta l’IA che potrebbe avvantaggiare l’umanità. Ma tali regolamenti potrebbero essere urgenti: la nostra simulazione suggerisce che quelle gare AI che dovrebbero terminare il prima possibile saranno le più importanti da regolamentare.
Autore
The Anh Han, Associate Professor, Computer Science, Teesside University; Luís Moniz Pereira, Emeritus Professor, Computer Science, Universidade Nova de Lisboa, and Tom Lenaerts, Professor, Faculty of Sciences, Université Libre de Bruxelles (ULB)