intelligenza artificiale (AI)

Deepfake, razzismo, armi autonome: come dare etica all’IA

  • Pubblicato
  • Aggiornato
  • 8 minuti di lettura

Il 24 novembre 2021, l’UNESCO ha adottato una bozza di raccomandazione sull’etica dell’intelligenza artificiale (IA) con l’obiettivo di fornire basi etiche universali ai suoi Stati membri. Questo annuncio, importante come vedremo, può a prima vista sollevare interrogativi. In effetti, come può l’etica relazionarsi con l’IA? Questo concetto non è riservato agli individui? Per rispondere a questa domanda, iniziamo prima di tutto tornando alle basi di cos’è l’etica, oltre a capire cos’è l’IA.

Etica, prescrittore di valori e leggi

Ricorda che etica è sinonimo di moralità, oltre alla corrente, entrambi significano “mores”. Ci sono principalmente tre dottrine filosofiche che ci permettono di definire e pensare all’etica. Riassumendo, possiamo dire che l’etica dell’antico filosofo greco Aristotele consiste nel perfezionare le virtù, unite ad un modo di essere prudenti, avendo la preoccupazione di rispettare i costumi della città. Per il filosofo prussiano Immanuel Kant, invece, l’etica è un dovere, quello dell’imperativo categorico, che consiste nell’agire solo se l’azione in gioco è universalizzabile, cioè può servire da modello per altri uomini. Infine, nel pensiero utilitaristico, i cui precursori sono i pensatori britannici Jeremy Bentham e John Stuart Mill, l’etica consiste nello scegliere le azioni in base alle loro conseguenze, buone o cattive, mirando alla felicità del maggior numero di persone.

Queste tre dottrine storiche, arricchite da un certo numero di filosofi più attuali (J. Habermas, H. Jonas, J. Derrida, P. Ricœur, ecc.) hanno plasmato il significato contemporaneo del concetto di etica come viene utilizzato nel dibattito pubblico. Oggi il concetto di etica è generalmente associato ai pareri espressi dai comitati etici consultivi sui dilemmi morali, al termine di processi deliberativi, più o meno inclusivi e democratici.

Queste opinioni possono definire valori, principi o anche standard di comportamento, evitando danni agli altri e mirando alla felicità umana in una società giusta. Le norme, in particolare, hanno una finalità pratica attraverso la loro naturale trasposizione in leggi, regolamenti o codici deontologici, definendo i diritti e doveri dei cittadini, cioè ponendo limiti al loro comportamento.

IA, scienza senza autocoscienza

L’intelligenza artificiale, invece, è una tecnologia proteiforme volta a riprodurre o simulare l’intelligenza umana. Al crocevia tra matematica e informatica, questa disciplina sta vivendo una crescita fenomenale grazie all’avvento dei big data e alle vertiginose capacità di calcolo dei microprocessori. In particolare, l’IA consente di realizzare raggruppamenti omogenei di insiemi di oggetti astratti sulla base dei dati di addestramento. Questa funzionalità, a priori semplice, trova paradossalmente applicazioni sorprendenti per le quali si potrebbero immaginare meccanismi più complessi.

Pertanto, il raggruppamento di immagini omogenee, ad esempio foto di gatti, consente il riconoscimento delle immagini. Allo stesso modo, il raggruppamento dei suoni (fonemi) che compongono le parole permette il riconoscimento vocale. Infine, associare gli oggetti sulla base di un determinato criterio consente alle macchine di ragionare e prendere decisioni, ad esempio raggruppando i candidati idonei all’assunzione, ovvero distinguendoli da quelli la cui domanda è stata respinta.

Tuttavia, indipendentemente dalla sofisticatezza dell’intelligenza artificiale (IA)dall’imponenza delle sue prestazioni, si dice che l’IA attuale sia “debole”, perché “solo” consente l’esecuzione di un unico compito specifico: giocare al gioco di Go, identificare un tumore su una radiografia, rilevare transazioni bancarie fraudolente, notare il rischio di insolvenza del mutuatario, ecc. Non è all’ordine del giorno un’intelligenza artificiale generale, in grado di svolgere tutti i compiti cognitivi propri dell’uomo, anche limitati alle capacità di un bambino di due anni, mentre la creazione di un’IA dotata di una forma di auto- la consapevolezza e il pensiero rimangono ancora un dolce sogno per quanto riguarda le attuali conoscenze nelle neuroscienze.

Un’intelligenza artificiale in definitiva non è altro che un programma per computer adattivo (che si adatta ai suoi dati di allenamento in Machine Learning o al suo contesto nell’apprendimento per rinforzo), senza coscienza, senza valori, senza pensieri, senza libero arbitrio, incapace di discernere il bene dal male e quindi agire volontariamente e consapevolmente secondo la morale o la legge. Inoltre, se un’IA può produrre meccanicamente risultati legali, cioè a norma di legge, parlare di comportamento etico per un’IA non ha senso, poiché agire in modo etico richiede la possibilità di una scelta di coscienza, resa possibile dal libero arbitrio.

L’IA è quindi amorale, allo stesso modo di tutte le tecnologie. Ma allo stesso modo in cui la padronanza dell’elettricità ha portato ad applicazioni che sono diventate essenziali per l’umanità (riscaldamento, illuminazione, ecc.) in quanto dannose (Gégène è stato utilizzato anche a scopo di tortura), l’IA offre benefici ma anche potenzialmente dannosi usi per l’umanità.

Infatti, mentre le applicazioni benefiche dell’IA sono indiscutibili (miglioramento delle diagnosi mediche, frenata automatica di emergenza dei veicoli, manutenzione predittiva, traslazione automatica, ecc.), i rischi ad essa associati esistono effettivamente. Pensiamo innanzitutto al rischio democratico, con le bolle informative dei social network che polarizzano il dibattito, o con i deepfake, questi video contraffatti che permettono a chiunque di dire qualsiasi cosa a chiunque in modo molto realistico. Quindi, l’IA consente l’emergere di una sorveglianza diffusa, con il riconoscimento facciale, persino l’analisi delle nostre discussioni private. Possiamo anche pensare a tutte le decisioni prese in automatico dalle IA senza che sia possibile spiegarne le ragioni. Quest’ultimo può anche essere condizionato, in particolare, un comprovato rischio di discriminazione. Gli studi condotti negli Stati Uniti illustrano quest’ultimo punto e lo dimostrano. Le popolazioni afroamericane nello studio sono state più penalizzate dalle giurisdizioni che utilizzano IA della giustizia predittiva. Possiamo aggiungere la questione delle armi autonome letali, quella delle esternalità dell’IA in termini di impronta di carbonio o anche del suo impatto sull’occupazione e sulle disuguaglianze…

Supervisionare l’uso dell’intelligenza artificiale

Come possiamo vedere, i rischi associati alle applicazioni IA sono numerosi, evidenti e seri. Ma a pensarci bene, non è tanto l’IA, quanto una tecnologia, che è o non è etica, ma molto più i suoi usi, immaginati e sviluppati dall’uomo, perché solo questi ultimi hanno libertà di scelta in coscienza.

Allertati da questi problemi, i produttori e la comunità scientifica hanno intrapreso abbastanza di recente progetti di ricerca sull’IA etica (Fair Machine Learning), volti in particolare a correggere i pregiudizi discriminatori dei modelli ma anche a realizzare i risultati degli algoritmi. La spiegazione mira a rendere i risultati del modello intelligibili agli utenti. Tuttavia, sebbene qualsiasi algoritmo sia compreso dal suo sviluppatore, i risultati di alcune IA non possono essere spiegati e giustificati in modo ragionato rispetto alla complessità del modello addestrato. Si può quindi parlare di scatola nera, inaccettabile per le decisioni che incidono sulla vita dei singoli (reclutamento, credito, ecc.). Questa domanda riguarda in particolare le reti neurali, modelli ispirati ai neuroni biologici, reti convoluzionali per le quali il numero di parametri può essere contato in miliardi. L’esplicabilità è quindi una condizione necessaria per l’accettazione sociale di decisioni basate su modelli di IA. Inoltre, il suo avvento rafforzerebbe la fiducia dei cittadini in questa tecnologia.

Ma se questi progetti vanno nella direzione di una maggiore giustizia e fiducia, questo non basta a coprire l’entità dei rischi legati all’IA ma solo quelli relativi alla legalità dei modelli. Quindi, le questioni, già citate, relative al rischio democratico, alla sorveglianza generalizzata o anche alle armi autonome letali sfuggono a queste soluzioni tecniche perché di altra natura, etiche (è morale autorizzare l’applicazione in questione?), legali (cosa sono i diritti e i doveri connessi alla domanda, una volta che è stata autorizzata), o anche politici (come gestire le conseguenze economiche, sociali e ambientali delle domande in questione?).

In particolare, la bozza di raccomandazione per un’etica dell’IA, adottata dai 193 membri dell’UNESCO il 24 novembre, stabilisce un quadro normativo di valori e principi che costituisce una base comune, prima della formulazione di leggi e regolamenti da parte degli Stati membri . Ad esempio, una raccomandazione specifica riguarda la questione della discriminazione:

“Gli Stati membri devono garantire che gli stereotipi di genere e i pregiudizi discriminatori non siano trasposti nei sistemi di intelligenza artificiale, ma piuttosto identificati e corretti in modo proattivo. »

Inoltre, questo testo sostiene le salvaguardie in tutte le fasi del ciclo di vita dell’IA, responsabilizzando le parti interessate, sia individui che organizzazioni (e non IA come abbiamo visto), interessate dalla legalità, dalla progettazione, dallo sviluppo e dal funzionamento di applicazioni basate su questo tecnologia.

Questo evento rappresenta quindi un utile e importante passo avanti, ma vanno citate due avvertenze:

  • In primo luogo, queste raccomandazioni non sono giuridicamente vincolanti nella misura in cui gli Stati membri si impegnano, ai sensi della costituzione dell’Unesco (art. IV, B, §4 e §6), solo a sottoporre le raccomandazioni alle autorità nazionali competenti e quindi a riferire sul seguito dato loro trasmettendo una relazione successiva.
  • Quindi, l’IA è considerata lo strumento della prossima rivoluzione economica, è quindi una grande questione geostrategica, economicamente ma anche militarmente.

Tuttavia, in un contesto internazionale di esacerbata competizione economica e di tensioni tra grandi potenze (si pensi anzitutto alle relazioni sino-americane), ci si può interrogare sul peso di queste raccomandazioni…

Autore

Christian GoglinICD Business School