intelligenza artificiale può mentire

L’intelligenza artificiale può mentire?

  • Pubblicato
  • Aggiornato
  • 5 minuti di lettura

L’intelligenza artificiale è, senza dubbio, una delle rivoluzioni del 21° secolo. È l’attore chiave della cosiddetta quarta rivoluzione industriale ed è stata applicata con successo a campi disparati come la medicina, l’istruzione e le scienze sociali.

Questa disciplina è nata a metà del secolo scorso, anche se solo pochi anni fa ha raggiunto i suoi risultati più preziosi e impressionanti. Il successo è stato possibile grazie alla combinazione del fenomeno dei big data e dell’aumento della potenza di calcolo dei computer.

Possiamo fidarci di un sistema intelligente?

L’uso dell’intelligenza artificiale è sempre più diffuso nella nostra vita quotidiana. A causa della comparsa di casi in cui questo tipo di sistemi si è comportato in modo razzista o sessista, sorge la necessità che l’intelligenza artificiale sia etica e affidabile. Ciò è dimostrato dalle Linee guida etiche per un’intelligenza artificiale affidabile dell’Unione Europea.

I sistemi di intelligenza artificiale di maggior successo hanno lo svantaggio di essere, in molti casi, impossibili da interpretare. In un contesto in cui siamo spinti a fidarci di loro, questo ci fa dubitare che questi tipi di sistemi possano essere facilmente ingannati. O peggio ancora: chiedersi se hanno il potere di ingannarci.

Possiamo ingannare un sistema intelligente?

Negli ultimi anni, un nuovo ramo all’interno dell’intelligenza artificiale ha guadagnato importanza: l’apprendimento contraddittorio. I sistemi intelligenti vengono spesso utilizzati per prendere decisioni importanti che riguardano le persone, quindi è necessario assicurarsi che non possano essere facilmente ingannati.

L’apprendimento contraddittorio cerca di prevenire possibili attacchi o l’introduzione di dati falsi che possono ingannare una macchina, ma non una persona. Sono famosi i casi in cui un rumore minimo viene aggiunto a un’immagine, che è impercettibile all’occhio umano. Questo rumore è sufficiente perché l’algoritmo di intelligenza artificiale creda che si tratti di un’immagine diversa.

In alcune occasioni, la bufala è difficile da credere come nel caso di una stampa 3D di una tartaruga che l’intelligenza artificiale di Google ha classificato come un fucile.

La ricerca su questo tipo di immagini avversarie, che possono ingannare un sistema intelligente, è di vitale importanza. Immagina le terribili conseguenze di un veicolo autonomo che legge erroneamente i segnali stradali.

Sappiamo, quindi, che l’intelligenza artificiale può essere ingannata in modo relativamente semplice. Ma un sistema intelligente può ingannare le persone?

Impara a mentire per vincere

Cercano di educare noi umani all’onestà, ma l’inganno e le bugie fanno parte di noi, così come alcuni animali. Di solito mentiamo o manipoliamo per ottenere qualche tipo di beneficio. Anche alcune piante come l’orchidea Ophrys apifera hanno fiori che simulano un’ape regina per attirare i maschi di questa specie e aiutare a impollinare i fiori.

Le macchine, dal canto loro, imparano ciò che noi umani insegniamo loro. Un bambino di due anni impara cos’è un cane o un gatto perché glielo insegna un adulto. La maggior parte degli algoritmi di intelligenza artificiale apprende allo stesso modo. Lo sviluppatore fornisce migliaia o milioni di esempi in cui viene detto, ad esempio, quali immagini corrispondono ai cani e quali ai gatti.

Recentemente è apparsa una nuova tecnica di intelligenza artificiale, l’apprendimento per rinforzo, che costruisce un sistema di ricompensa per l’algoritmo. Quando si ottiene un risultato soddisfacente, quel comportamento viene rafforzato. Al contrario, quando il risultato è lontano dal suo obiettivo, quel comportamento viene scartato.

I sistemi basati sull’apprendimento per rinforzo hanno molto successo, come il sistema AlphaZero della società DeepMind. Questo programma di intelligenza artificiale ha raggiunto un livello sovrumano in diversi giochi da tavolo in sole 24 ore, sconfiggendo altri programmi precedenti che avevano vinto campioni umani.

La particolarità di questo programma era che non si allenava imparando dai giochi umani, ma piuttosto gareggiando contro se stesso più e più volte. Ha iniziato a giocare in modo completamente casuale fino a quando non è riuscito a sviluppare abilità mai viste prima in questi giochi.

Un sistema intelligente può ingannarci?

Se utilizziamo l’apprendimento per rinforzo e l’inganno porta un sistema intelligente a raggiungere l’obiettivo desiderato, sembra fattibile che l’intelligenza artificiale possa imparare a mentire. E così è successo nel 2017, quando due ricercatori della Carnegie Mellon University sono riusciti a far battere al loro sistema di intelligenza artificiale i migliori giocatori nel Texas Hold ‘Em no-limit, una delle varianti più complesse del poker. Per realizzare un’impresa del genere, Libratus – come veniva chiamato – doveva imparare a bluffare.

Nel gioco del poker, l’abilità di mentire è fondamentale. Il giocatore ha bisogno che i suoi avversari credano di avere carte migliori di lui, o il contrario. Libratus riuscì a perfezionare l’arte dell’inganno al punto che uno dei migliori giocatori del mondo, Dong Kim, pensò che la macchina potesse vedere le sue carte.

E ha raggiunto questo traguardo tecnologico senza che nessuno gli dicesse di mentire. I suoi creatori gli hanno fornito la descrizione del gioco, ma non gli hanno detto come giocarci. Per mesi, Libratus ha giocato milioni di partite fino a raggiungere un livello di gioco che ha sfidato i migliori giocatori umani.

Ora che sappiamo che l’intelligenza artificiale è in grado di mentire, e sicuramente continuerà a farlo, dobbiamo prepararci per il futuro. Le questioni etiche che circondano questo tipo di sistemi intelligenti che, che ci piaccia o no, sono qui per restare, saranno sempre più importanti.

Autore

Verónica Bolón CanedoUniversità di La Coruña