intelligenza artificiale

Termini che devi conoscere per stare al passo con l’era dell’hype AI

  • Pubblicato
  • Aggiornato
  • 8 minuti di lettura

L’intelligenza artificiale (AI) sta diventando sempre più diffusa nelle nostre vite. Non è più limitato a determinate industrie o istituti di ricerca; L’intelligenza artificiale ora è per tutti.

È difficile schivare il diluvio di contenuti AI prodotti e ancora più difficile dare un senso ai molti termini che vengono lanciati. Ma non possiamo avere conversazioni sull’intelligenza artificiale senza comprenderne i concetti alla base.

Abbiamo compilato un glossario di termini che pensiamo tutti dovrebbero conoscere, se vogliono stare al passo.

Algoritmo

Un algoritmo è un insieme di istruzioni date a un computer per risolvere un problema o per eseguire calcoli che trasformano i dati in informazioni utili.

Alignment problem

L’alignment problem si riferisce alla discrepanza tra i nostri obiettivi prefissati per un sistema di intelligenza artificiale e l’output che produce. Un sistema disallineato può essere avanzato nelle prestazioni, ma comportarsi in un modo contrario ai valori umani. Ne abbiamo visto un esempio nel 2015, quando è stato scoperto che un algoritmo di riconoscimento delle immagini utilizzato da Google Foto contrassegnava automaticamente le immagini di persone di colore come “gorilla”.

Intelligenza Artificiale Generale (AGI)

L’intelligenza generale artificiale si riferisce a un ipotetico punto nel futuro in cui si prevede che l’IA eguaglierà (o supererà) le capacità cognitive degli esseri umani. La maggior parte degli esperti di intelligenza artificiale concorda che ciò accadrà, ma non è d’accordo su dettagli specifici come quando accadrà e se si tradurrà o meno in sistemi di intelligenza artificiale completamente autonomi.

Rete Neurale Artificiale (ANN)

Le reti neurali artificiali sono algoritmi informatici utilizzati all’interno di un ramo dell’intelligenza artificiale chiamato deep learning. Sono costituiti da strati di nodi interconnessi in un modo che imita i circuiti neurali del cervello umano.

Big data

I big data si riferiscono a set di dati molto più massicci e complessi dei dati tradizionali. Questi set di dati, che superano di gran lunga la capacità di archiviazione dei computer domestici, hanno aiutato gli attuali modelli di intelligenza artificiale a funzionare con alti livelli di precisione.

I big data possono essere caratterizzati da quattro V: “volume” si riferisce alla quantità complessiva di dati, “velocità” si riferisce alla velocità con cui i dati crescono, “veridicità” si riferisce a quanto sono complessi i dati e “varietà” si riferisce alle diverse formatta i dati in entrata.

Chinese Room

L’esperimento mentale Chinese Room è stato proposto per la prima volta dal filosofo americano John Searle nel 1980. Sostiene che un programma per computer, per quanto apparentemente intelligente nel suo design, non sarà mai cosciente e rimarrà incapace di comprendere veramente il suo comportamento come fa un essere umano.

Questo concetto emerge spesso nelle conversazioni su strumenti di intelligenza artificiale come ChatGPT, che sembrano mostrare i tratti di un’entità autocosciente, ma in realtà presentano solo risultati basati su previsioni fatte dal modello sottostante.

Deep learning

Il deep learning è una categoria all’interno del ramo dell’intelligenza artificiale dell’apprendimento automatico. I sistemi di deep learning utilizzano reti neurali avanzate e possono elaborare grandi quantità di dati complessi per ottenere una maggiore precisione.

Questi sistemi si comportano bene su compiti relativamente complessi e possono persino esibire un comportamento intelligente simile a quello umano.

Diffusion model

Un diffusion model è un modello di intelligenza artificiale che apprende aggiungendo “rumore” casuale a un set di dati di addestramento prima di rimuoverlo e quindi valutando le differenze. L’obiettivo è conoscere i modelli o le relazioni sottostanti nei dati che non sono immediatamente evidenti.

Questi modelli sono progettati per autocorreggersi man mano che incontrano nuovi dati e sono quindi particolarmente utili in situazioni in cui vi è incertezza o se il problema è molto complesso.

Explainable AI

L’explainable AI è un campo interdisciplinare emergente che si occupa della creazione di metodi che aumenteranno la fiducia degli utenti nei processi dei sistemi di intelligenza artificiale.

A causa della complessità intrinseca di alcuni modelli di intelligenza artificiale, i loro meccanismi interni sono spesso opachi e non possiamo dire con certezza perché producano gli output che producono. Explainable AI mira a rendere questi sistemi di “scatola nera” più trasparenti.

Generative AI

Si tratta di sistemi di intelligenza artificiale che generano nuovi contenuti, inclusi testo, immagini, contenuti audio e video, in risposta alle richieste. Esempi popolari includono ChatGPT, DALL-E 2 e Midjourney.

Labelling

Il labbelling dei dati è il processo attraverso il quale i punti dati vengono classificati per aiutare un modello di intelligenza artificiale a dare un senso ai dati. Ciò comporta l’identificazione di strutture di dati (come immagini, testo, audio o video) e l’aggiunta di etichette (come tag e classi) ai dati.

Gli umani eseguono l’etichettatura prima che inizi l’apprendimento automatico. I dati etichettati sono suddivisi in set di dati distinti per l’addestramento, la convalida e il test.

Il training set viene inviato al sistema per l’apprendimento. Il set di convalida viene utilizzato per verificare se il modello funziona come previsto e quando l’ottimizzazione e l’addestramento dei parametri possono essere interrotti. Il set di test viene utilizzato per valutare le prestazioni del modello finito.

Large Language Model (LLM)

I Large Language Model (LLM) vengono addestrati su enormi quantità di testo senza etichetta. Analizzano i dati, apprendono gli schemi tra le parole e possono produrre risposte simili a quelle umane. Alcuni esempi di sistemi di intelligenza artificiale che utilizzano modelli di linguaggio di grandi dimensioni sono la serie GPT di OpenAI e le serie BERT e LaMDA di Google.

Machine learning

Il Machine learning è una branca dell’intelligenza artificiale che prevede l’addestramento di sistemi di intelligenza artificiale per essere in grado di analizzare dati, apprendere modelli e fare previsioni senza specifiche istruzioni umane.

Natural language processing (NLP)

Mentre i grandi modelli linguistici sono un tipo specifico di modello di intelligenza artificiale utilizzato per attività legate al linguaggio, l’elaborazione del linguaggio naturale è il campo più ampio dell’IA che si concentra sulla capacità delle macchine di apprendere, comprendere e produrre il linguaggio umano.

Parametri

I parametri sono le impostazioni utilizzate per ottimizzare i modelli di machine learning. Puoi pensarli come i pesi e i pregiudizi programmati che un modello utilizza quando fa una previsione o esegue un’attività.

Poiché i parametri determinano il modo in cui il modello elaborerà e analizzerà i dati, ne determinano anche le prestazioni. Un esempio di parametro è il numero di neuroni in un dato livello della rete neurale. L’aumento del numero di neuroni consentirà alla rete neurale di affrontare compiti più complessi, ma il compromesso sarà un aumento dei tempi e dei costi di calcolo.

Responsible AI

Il movimento Responsible AI sostiene lo sviluppo e l’implementazione di sistemi di intelligenza artificiale incentrati sull’uomo.

Un aspetto di ciò è integrare i sistemi di intelligenza artificiale con regole che li faranno aderire a principi etici. Ciò (idealmente) impedirebbe loro di produrre risultati distorti, discriminatori o che potrebbero altrimenti portare a risultati dannosi.

Sentiment analysis

Il sentiment analysis è una tecnica nell’elaborazione del linguaggio naturale utilizzata per identificare e interpretare le emozioni dietro un testo. Cattura informazioni implicite come, ad esempio, il tono dell’autore e l’estensione dell’espressione positiva o negativa.

Supervised learning

L’apprendimento supervisionato o Supervised learning è un approccio di apprendimento automatico in cui i dati etichettati vengono utilizzati per addestrare un algoritmo per fare previsioni. L’algoritmo impara ad abbinare i dati di input etichettati all’output corretto. Dopo aver appreso da un gran numero di esempi, può continuare a fare previsioni quando gli vengono presentati nuovi dati.

Training data

I training data sono i dati (solitamente etichettati) utilizzati per insegnare ai sistemi di intelligenza artificiale come fare previsioni. L’accuratezza e la rappresentatività dei dati di addestramento hanno un impatto importante sull’efficacia di un modello.

Transformer

Un Transformer è un tipo di modello di apprendimento profondo utilizzato principalmente nelle attività di elaborazione del linguaggio naturale.

Il trasformatore è progettato per elaborare dati sequenziali, come il testo in linguaggio naturale, e capire come le diverse parti si relazionano tra loro. Questo può essere paragonato al modo in cui una persona che legge una frase presta attenzione all’ordine delle parole per comprendere il significato della frase nel suo insieme.

Un esempio è il trasformatore generativo pre-addestrato (GPT), su cui gira il chatbot ChatGPT. Il modello GPT utilizza un trasformatore per apprendere da un ampio corpus di testo senza etichetta.

Turing Test

Il Turing Test è un concetto di intelligenza artificiale introdotto per la prima volta dallo scienziato informatico Alan Turing nel 1950.

È inquadrato come un modo per determinare se un computer può esibire intelligenza umana. Nel test, i risultati del computer e dell’uomo vengono confrontati da un valutatore umano. Se gli output sono ritenuti indistinguibili, il computer ha superato il test.

È stato riferito che LaMDA di Google e ChatGPT di OpenAI hanno superato il test di Turing, anche se i critici affermano che i risultati rivelano i limiti dell’utilizzo del test per confrontare l’intelligenza del computer e quella umana.

Apprendimento non supervisionato

L’apprendimento non supervisionato è un approccio di apprendimento automatico in cui gli algoritmi vengono addestrati su dati non etichettati. Senza l’intervento umano, il sistema esplora i modelli nei dati, con l’obiettivo di scoprire modelli non identificati che potrebbero essere utilizzati per ulteriori analisi.

Autore

Samar Fatima, Kok-Leong Ong, RMIT University