Negli ultimi anni il termine intelligenza artificiale e tutto ciò che ha a che fare con esso sta acquisendo grande risalto e sovradimensionamento. L’espressione intelligenza artificiale viene abusata e utilizzata in modo fondamentalmente scorretto su base quotidiana e in molteplici ambiti quotidiani, dalla politica agli affari.
Esistono macchine davvero intelligenti, simili alle persone? Se rispondiamo a questa domanda con un certo rigore, dai fondamenti delle scienze fondamentali che sostengono i pilastri di quest’area – la matematica e la fisica –, la risposta è no. E molti scienziati congetturano seriamente e sostengono che probabilmente non esisteranno mai.
Indice
Calcolare non è la stessa cosa che pensare
Partiamo dalle aree di conoscenza adiacenti alla matematica e alla fisica che si sono ampliate a partire dagli anni ’30 e ’40 del XX secolo, come l’informatica, l’elettronica, l’automazione o l’area dell’intelligenza artificiale stessa.
Nel 1937 furono pubblicate due pubblicazioni scientifiche di enorme importanza: la prima, On Computable Numbers, con un’applicazione all’Entscheidungsproblem del matematico Alan Turing, e la seconda, Symbolic Analysis of Relays and Switching Circuits, del matematico e ingegnere elettronico Claude Shannon. Questi lavori hanno fondato il modo iniziale di creare macchine elettroniche in grado di calcolare, gestire informazioni e manipolare simboli attraverso la programmazione algoritmica.
Tuttavia, l’intelligenza artificiale, intesa come quella che mira a replicare capacità intellettuali simili agli animali o alle persone (chiamata intelligenza generale o intelligenza forte) non è stata affatto dimostrata. Cioè: non ci sono prove matematiche o fisiche, né si conosce l’esistenza di alcun prototipo equivalente alle capacità di pensiero di un cervello umano.
Decisione vs. scelta
Nel 1966 il matematico e professore di Informatica al Massachusetts Institute of Technology (MIT) Joseph Weizenbaum creò nel suo laboratorio un programma chiamato ELIZA in grado di elaborare il linguaggio naturale.
Questo semplice strumento ha riconosciuto le parole chiave nelle frasi dell’utente per scegliere una frase modello dal suo database con cui rispondere.
ELIZA è stata in grado di avviare una conversazione con gli esseri umani simulando uno psicologo empatico. Weizenbaum ha modellato il suo stile di conversazione su domande aperte per incoraggiare i pazienti a comunicare in modo più efficace con il terapeuta ed è rimasto sorpreso dal fatto che il suo programma sia stato preso sul serio da molti utenti.
In considerazione del fatto che un gran numero di estimatori considerava il programma come il vero precursore delle macchine pensanti, lo stesso autore è stato costretto a chiarire che riteneva questa interpretazione completamente errata e ha cercato con veemenza di correggere queste idee nei suoi successivi interventi.
Tra molti altri scritti, Weizenbaum ha pubblicato nel 1976 il libro Computer Power and Human Reason: From Judgment to Calculation. Con esso ha cercato di spiegare al grande pubblico il suo lavoro e le sue conseguenze dalla filosofia della scienza, senza includere nel testo formule matematiche inquietanti.
Nel libro, l’autore distingue tra le capacità dei computer e il ragionamento umano, e fa una distinzione cruciale tra decidere e scegliere. Proprio come nell’automazione la decisione e il controllo di un processo industriale sono implementati con un circuito o un computer come controllore programmato di detto processo, Weizenbaum spiega che decidere è un’attività computazionale, qualcosa che in definitiva può essere programmato e, tuttavia, la scelta è la prodotto del giudizio, non del calcolo.
Il ruolo della meccanica quantistica
Nel 1989, il fisico, matematico e premio Nobel 2020 Roger Penrose ha pubblicato il suo influente libro The Emperor’s New Mind in cui dimostra che il pensiero umano non è essenzialmente algoritmico.
A cavallo tra matematica, filosofia della scienza e fisica, il testo incorpora sia dimostrazioni matematiche che discussioni illustrate di famosi test di intelligenza (come il test di Turing e l’esperimento della stanza cinese). Inoltre, ipotizza la possibile necessità delle leggi della meccanica quantistica per spiegare correttamente le nostre menti.
Il lavoro è stato devastante per la tradizionale intelligenza artificiale forte. Ha ispirato le risposte di più autori in varie aree della conoscenza, ma le loro tesi non potevano essere confutate in modo convincente.
Penrose avanzò ulteriormente le sue idee con il secondo dei suoi libri sulla coscienza umana, pubblicato nel 1994: Shadows of the Mind. Include una proposta dettagliata su come questi processi quantistici potrebbero essere implementati nel cervello.
Le nuove congetture, in collaborazione con la biologia e le neuroscienze mediche suggerite da Penrose, includono in particolare il citoscheletro dei neuroni. I microtubuli in particolare, componenti importanti del citoscheletro, sono siti plausibili per l’elaborazione quantistica e, in definitiva, per la coscienza.
Queste idee possono benissimo essere sbagliate, come sostiene lo stesso Penrose. Molti ricercatori multidisciplinari in questi campi hanno cercato di confutare parte di queste proposte, ma sono ancora valide oggi.
Cosa significa in realtà “AI”?
Per qualificarsi come AI, un sistema deve mostrare un certo livello di apprendimento e adattamento. Per questo motivo, i sistemi decisionali, l’automazione e le statistiche non sono AI.
L’intelligenza artificiale è ampiamente definita in due categorie: intelligenza artificiale ristretta (ANI) e intelligenza artificiale generale (AGI). Ad oggi l’AGI non esiste.
La sfida chiave per creare un’IA generale è modellare adeguatamente il mondo con tutta la totalità della conoscenza, in modo coerente e utile. È un’impresa enorme, per non dire altro.
La maggior parte di ciò che oggi conosciamo come AI ha un’intelligenza ristretta, in cui un particolare sistema risolve un particolare problema. A differenza dell’intelligenza umana, un’intelligenza artificiale così ristretta è efficace solo nell’area in cui è stata addestrata: rilevamento di frodi, riconoscimento facciale o raccomandazioni sociali, ad esempio.
L’AGI, tuttavia, funzionerebbe come gli umani. Per ora, l’esempio più notevole del tentativo di raggiungere questo obiettivo è l’uso di reti neurali e “deep learning” addestrati su grandi quantità di dati.
Le reti neurali sono ispirate al modo in cui funzionano i cervelli umani. A differenza della maggior parte dei modelli di machine learning che eseguono calcoli sui dati di addestramento, le reti neurali funzionano alimentando ogni punto dati uno per uno attraverso una rete interconnessa, regolando ogni volta i parametri.
Man mano che sempre più dati vengono immessi attraverso la rete, i parametri si stabilizzano; il risultato finale è la rete neurale “addestrata”, che può quindi produrre l’output desiderato su nuovi dati, ad esempio riconoscendo se un’immagine contiene un gatto o un cane.
Il significativo balzo in avanti dell’IA oggi è guidato dai miglioramenti tecnologici nel modo in cui possiamo addestrare grandi reti neurali, riadattando un gran numero di parametri in ogni esecuzione grazie alle capacità delle grandi infrastrutture di cloud computing. Ad esempio, GPT-3 (il sistema AI che alimenta ChatGPT) è una grande rete neurale con 175 miliardi di parametri.
Di cosa ha bisogno l’IA per funzionare?
L’intelligenza artificiale ha bisogno di tre cose per avere successo.
In primo luogo, ha bisogno di dati imparziali di alta qualità e molti. I ricercatori che costruiscono reti neurali utilizzano i grandi set di dati che si sono formati con la digitalizzazione della società.
Co-Pilot, per potenziare i programmatori umani, ricava i suoi dati da miliardi di righe di codice condivise su GitHub. ChatGPT e altri modelli di linguaggio di grandi dimensioni utilizzano i miliardi di siti Web e documenti di testo archiviati online.
Gli strumenti text-to-image, come Stable Diffusion, DALLE-2 e Midjourney, utilizzano coppie immagine-testo da set di dati come LAION-5B. I modelli di intelligenza artificiale continueranno a evolversi in termini di raffinatezza e impatto man mano che digitalizziamo una parte maggiore delle nostre vite e forniamo loro fonti di dati alternative, come dati simulati o dati provenienti da impostazioni di gioco come Minecraft.
L’intelligenza artificiale ha anche bisogno di un’infrastruttura computazionale per una formazione efficace. Man mano che i computer diventano più potenti, i modelli che ora richiedono sforzi intensi e elaborazione su larga scala potrebbero in un prossimo futuro essere gestiti localmente.
La terza esigenza dell’IA è il miglioramento dei modelli e degli algoritmi. I sistemi basati sui dati continuano a fare rapidi progressi in un dominio dopo l’altro, un tempo ritenuto il territorio della cognizione umana.
Tuttavia, poiché il mondo intorno a noi cambia costantemente, i sistemi di intelligenza artificiale devono essere costantemente riqualificati utilizzando nuovi dati. Senza questo passaggio cruciale, i sistemi di intelligenza artificiale produrranno risposte effettivamente errate o non tengono conto delle nuove informazioni emerse da quando sono stati addestrati.
Le reti neurali non sono l’unico approccio all’IA. Un altro campo di spicco nella ricerca sull’intelligenza artificiale è l’IA simbolica: invece di digerire enormi set di dati, si basa su regole e conoscenze simili al processo umano di formazione di rappresentazioni simboliche interne di particolari fenomeni.
Ma l’equilibrio del potere si è pesantemente inclinato verso approcci basati sui dati nell’ultimo decennio, con i “padri fondatori” del moderno deep learning che hanno recentemente ricevuto il Premio Turing, l’equivalente del Premio Nobel per l’informatica.
Dati, calcolo e algoritmi costituiscono le fondamenta del futuro dell’IA. Tutti gli indicatori indicano che nel prossimo futuro saranno compiuti rapidi progressi in tutte e tre le categorie.
Nessuna intelligenza artificiale in vista
Da un punto di vista globale, sappiamo che da decenni si studiano molteplici approcci per cercare di espandere l’intelligenza artificiale. Reti neurali, sistemi esperti, logica fuzzy e, più recentemente, deep learning e big data hanno dato vita a strumenti utili per la risoluzione di problemi per scopi specifici.
Questi strumenti possono essere impressionanti, ma dobbiamo essere molto chiari sul fatto che non ci siamo avvicinati allo sviluppo dell’intelligenza artificiale generale. La cosiddetta intelligenza debole (o intelligenza ristretta) si adatta alle applicazioni che abbiamo oggi, ma affermazioni esagerate sui suoi successi in realtà danneggiano la reputazione dell’IA come scienza.
In oltre ottant’anni di ricerca in questo settore, non è stata prodotta alcuna prova certa dei livelli umani di intelligenza artificiale generale. Sappiamo che i circuiti artificiali non sono in grado di modellare il sistema nervoso anche degli invertebrati più semplici. Anche con computer molto veloci e database enormi, fidarsi che il ragionamento, l’intelligenza e la coscienza sorgeranno in qualche modo semplicemente aumentando sempre più la complessità sembra nient’altro che un vicolo cieco.
Gli strumenti informatici sono molto utili, ma anche se una macchina batte giocatori di scacchi professionisti o è in grado di proporre un rimedio legale ricercando la giurisprudenza nel suo ampio database, non è una macchina pensante. È importante non banalizzare, differenziare tra strumenti tecnologici ed entità intelligenti, nonché consentire alla scienza di continuare a lavorare rigorosamente su questo entusiasmante argomento.