Dall’energia a vapore e dall’elettricità ai computer e a Internet, i progressi tecnologici hanno sempre sconvolto i mercati del lavoro, eliminando alcuni posti di lavoro e creandone altri. L’intelligenza artificiale rimane un termine improprio – i sistemi informatici più intelligenti ancora non sanno nulla – ma la tecnologia ha raggiunto un punto di svolta in cui è pronta a influenzare nuove classi di lavoro: artisti e lavoratori della conoscenza.
In particolare, l’emergere di grandi modelli linguistici – sistemi di intelligenza artificiale addestrati su grandi quantità di testo – significa che i computer possono ora produrre un linguaggio scritto dal suono umano e convertire frasi descrittive in immagini realistiche. Un gruppo di ricercatori ha chiesto a cinque ricercatori di intelligenza artificiale di discutere in che modo i modelli linguistici di grandi dimensioni potrebbero influenzare artisti e lavoratori della conoscenza. E, come hanno notato i nostri esperti, la tecnologia è tutt’altro che perfetta, il che solleva una serie di problemi, dalla disinformazione al plagio, che interessano i lavoratori umani.
Per passare a ciascuna risposta, ecco un elenco di ciascuna:
Creatività per tutti, ma perdita di competenze?
Potenziali imprecisioni, pregiudizi e plagio
Con il superamento degli esseri umani, i lavori di nicchia e “fatti a mano” rimarranno
I vecchi lavori se ne andranno, ne emergeranno di nuovi I
I progressi tecnologici portano a nuove competenze
Indice
Creatività per tutti, ma perdita di competenze?
Lynne Parker, vicerettore associato, Università del Tennessee
I grandi modelli linguistici stanno rendendo il lavoro della creatività e della conoscenza accessibile a tutti. Chiunque abbia una connessione Internet può ora utilizzare strumenti come ChatGPT o DALL-E 2 per esprimersi e dare un senso a enormi quantità di informazioni, ad esempio producendo riepiloghi di testo.
Particolarmente degna di nota è la profondità dell’esperienza umana mostrata dai modelli di linguaggio di grandi dimensioni. In pochi minuti, i novizi possono creare illustrazioni per le loro presentazioni aziendali, generare presentazioni di marketing, ottenere idee per superare il blocco dello scrittore o generare nuovo codice informatico per eseguire funzioni specifiche, il tutto a un livello di qualità tipicamente attribuito agli esperti umani.
Questi nuovi strumenti di intelligenza artificiale non possono leggere le menti, ovviamente. È necessario un nuovo, ma più semplice, tipo di creatività umana sotto forma di suggerimenti di testo per ottenere i risultati che l’utente umano sta cercando. Attraverso il suggerimento iterativo, un esempio di collaborazione tra uomo e intelligenza artificiale, il sistema di intelligenza artificiale genera cicli successivi di output fino a quando l’essere umano che scrive i suggerimenti non è soddisfatto dei risultati. Ad esempio, il vincitore (umano) del recente concorso Colorado State Fair nella categoria artista digitale, che ha utilizzato uno strumento basato sull’intelligenza artificiale, ha dimostrato creatività, ma non del tipo che richiede pennelli e un occhio per il colore e la consistenza.
Sebbene ci siano vantaggi significativi nell’aprire il mondo della creatività e del lavoro di conoscenza a tutti, questi nuovi strumenti di intelligenza artificiale hanno anche degli svantaggi. In primo luogo, potrebbero accelerare la perdita di importanti capacità umane che rimarranno importanti nei prossimi anni, in particolare le capacità di scrittura. Gli istituti educativi devono elaborare e applicare politiche sugli usi consentiti di modelli linguistici di grandi dimensioni per garantire il fair play e risultati di apprendimento desiderabili.
In secondo luogo, questi strumenti di intelligenza artificiale sollevano interrogativi sulla protezione della proprietà intellettuale. Mentre i creatori umani sono regolarmente ispirati da artefatti esistenti nel mondo, tra cui l’architettura e gli scritti, la musica e i dipinti di altri, ci sono domande senza risposta sull’uso corretto e scorretto da parte di grandi modelli linguistici di esempi di formazione protetti da copyright o open-source. Le cause legali in corso stanno ora discutendo questo problema, che potrebbe avere implicazioni per la futura progettazione e l’uso di modelli di linguaggi di grandi dimensioni.
Mentre la società esplora le implicazioni di questi nuovi strumenti di intelligenza artificiale, il pubblico sembra pronto ad accoglierli. Il chatbot ChatGPT è diventato rapidamente virale, così come il generatore di immagini Dall-E mini e altri. Ciò suggerisce un enorme potenziale inutilizzato per la creatività e l’importanza di rendere il lavoro creativo e basato sulla conoscenza accessibile a tutti.
Potenziali imprecisioni, pregiudizi e plagio
Daniel Acuña, professore associato di informatica, Università del Colorado Boulder
Sono un utente abituale di GitHub Copilot, uno strumento per aiutare le persone a scrivere codice per computer, e ho passato innumerevoli ore a giocare con ChatGPT e strumenti simili per il testo generato dall’intelligenza artificiale. Nella mia esperienza, questi strumenti sono utili per esplorare idee a cui non avevo pensato prima.
Sono rimasto impressionato dalla capacità dei modelli di tradurre le mie istruzioni in testo o codice coerente. Sono utili per scoprire nuovi modi per migliorare il flusso delle mie idee o per creare soluzioni con pacchetti software di cui non conoscevo l’esistenza. Una volta che vedo cosa generano questi strumenti, posso valutare la loro qualità e modificarle pesantemente. Nel complesso, penso che alzino il livello di ciò che è considerato creativo.
Ma ho diverse riserve.
Una serie di problemi sono le loro imprecisioni, piccole e grandi. Con Copilot e ChatGPT, cerco costantemente se le idee sono troppo superficiali, ad esempio testo senza molta sostanza o codice inefficiente o output semplicemente sbagliato, come analogie o conclusioni sbagliate o codice che non funziona. Se gli utenti non criticano ciò che producono questi strumenti, gli strumenti sono potenzialmente dannosi.
Di recente, Meta ha chiuso il suo modello di linguaggio di grandi dimensioni Galactica per il testo scientifico perché inventava “fatti” ma suonava molto fiducioso. La preoccupazione era che potesse inquinare Internet con falsità dal suono sicuro.
Un altro problema sono i pregiudizi. I modelli linguistici possono imparare dai pregiudizi dei dati e replicarli. Questi pregiudizi sono difficili da vedere nella generazione del testo, ma molto chiari nei modelli di generazione delle immagini. I ricercatori di OpenAI, creatori di ChatGPT, sono stati relativamente attenti a ciò a cui il modello risponderà, ma gli utenti trovano abitualmente modi per aggirare questi guardrail.
Un altro problema è il plagio. Ricerche recenti hanno dimostrato che gli strumenti per la generazione di immagini spesso plagiano il lavoro di altri. Succede lo stesso con ChatGPT? Credo che non lo sappiamo. Lo strumento potrebbe parafrasare i suoi dati di addestramento, una forma avanzata di plagio. Il lavoro nel mio laboratorio mostra che gli strumenti di rilevamento del plagio del testo sono molto indietro quando si tratta di rilevare la parafrasi.
Questi strumenti sono agli inizi, dato il loro potenziale. Per ora, credo che ci siano soluzioni ai loro attuali limiti. Ad esempio, gli strumenti potrebbero verificare i fatti del testo generato rispetto alle basi di conoscenza, utilizzare metodi aggiornati per rilevare e rimuovere i pregiudizi dai modelli linguistici di grandi dimensioni ed eseguire i risultati attraverso strumenti di rilevamento del plagio più sofisticati.
Con gli esseri umani superati, i lavori di nicchia e “fatti a mano” rimarranno
Kentaro Toyama, professore di informazioni comunitarie, Università del Michigan
Noi esseri umani amiamo credere nella nostra particolarità, ma la scienza e la tecnologia hanno ripetutamente dimostrato che questa convinzione era sbagliata. Una volta si pensava che gli esseri umani fossero gli unici animali a utilizzare strumenti, a formare squadre o a diffondere la cultura, ma la scienza ha dimostrato che gli altri animali fanno ognuna di queste cose.
Nel frattempo, la tecnologia ha annullato, una per una, le affermazioni secondo cui i compiti cognitivi richiedono un cervello umano. La prima calcolatrice fu inventata nel 1623. Lo scorso anno, un’opera generata al computer ha vinto un concorso artistico. Credo che la singolarità – il momento in cui i computer incontrano e superano l’intelligenza umana – sia all’orizzonte.
Come verranno valutate l’intelligenza e la creatività umane quando le macchine diventeranno più intelligenti e più creative delle persone più brillanti? Probabilmente ci sarà un continuum. In alcuni domini, le persone apprezzano ancora gli esseri umani che fanno le cose, anche se un computer può farlo meglio. È passato un quarto di secolo da quando Deep Blue di IBM ha battuto il campione del mondo Garry Kasparov, ma gli scacchi umani, con tutto il loro dramma, non sono scomparsi.
In altri campi, l’abilità umana sembrerà costosa ed estranea. Prendi l’illustrazione, per esempio. Per la maggior parte, ai lettori non importa se la grafica che accompagna un articolo di rivista è stata disegnata da una persona o da un computer: vogliono solo che sia pertinente, nuova e magari divertente. Se un computer può disegnare bene, ai lettori interessa se la linea di credito dice Mary Chen o System X? Gli illustratori lo farebbero, ma i lettori potrebbero anche non accorgersene.
E, naturalmente, questa domanda non è bianca o nera. Molti campi saranno un ibrido, dove alcuni Homo sapiens troveranno una nicchia fortunata, ma la maggior parte del lavoro viene svolto dai computer. Pensa alla produzione: gran parte di essa oggi è realizzata da robot, ma alcune persone supervisionano le macchine e rimane un mercato per i prodotti fatti a mano.
Se la storia è una guida, è quasi certo che i progressi nell’intelligenza artificiale faranno sparire più posti di lavoro, che le persone di classe creativa con abilità esclusivamente umane diventeranno più ricche ma meno numerose e che coloro che possiedono la tecnologia creativa diventeranno il nuovo mega-ricco. Se c’è un lato positivo, potrebbe essere che quando ancora più persone sono senza mezzi di sussistenza dignitosi, le persone potrebbero raccogliere la volontà politica per contenere la disuguaglianza fuori controllo.
I vecchi lavori se ne andranno, ne emergeranno di nuovi
Mark Finlayson, professore associato di informatica, Florida International University
I modelli di linguaggio di grandi dimensioni sono sofisticate macchine per il completamento di sequenze: dai a uno una sequenza di parole (“Vorrei mangiare un …”) e restituirà probabili completamenti (“… mela”.). Modelli linguistici di grandi dimensioni come ChatGPT che sono stati addestrati su un numero record di parole (trilioni) hanno sorpreso molti, inclusi molti ricercatori di intelligenza artificiale, con quanto siano realistici, estesi, flessibili e sensibili al contesto i loro completamenti.
Come ogni nuova potente tecnologia che automatizza un’abilità – in questo caso, la generazione di un testo coerente, anche se in qualche modo generico – influenzerà coloro che offrono quell’abilità sul mercato. Per immaginare cosa potrebbe accadere, è utile ricordare l’impatto dell’introduzione dei programmi di videoscrittura nei primi anni ’80. Certi lavori come il dattilografo sono quasi del tutto scomparsi. Ma, al rialzo, chiunque avesse un personal computer era in grado di generare facilmente documenti ben impaginati, aumentando ampiamente la produttività.
Inoltre, sono comparsi nuovi lavori e competenze che prima non erano stati immaginati, come MS Office, elemento del curriculum spesso incluso. E il mercato della produzione di documenti di fascia alta è rimasto, diventando molto più capace, sofisticato e specializzato.
Penso che questo stesso modello quasi certamente valga per modelli linguistici di grandi dimensioni: non sarà più necessario che tu chieda ad altre persone di redigere un testo coerente e generico. D’altra parte, i modelli linguistici di grandi dimensioni consentiranno nuovi modi di lavorare e porteranno anche a posti di lavoro nuovi e finora inimmaginabili.
Per vederlo, considera solo tre aspetti in cui i modelli di linguaggi di grandi dimensioni non sono all’altezza. Innanzitutto, può essere necessaria un po’ di intelligenza (umana) per creare un prompt che ottenga l’output desiderato. Modifiche minori nel prompt possono comportare modifiche importanti nell’output.
In secondo luogo, i modelli di linguaggi di grandi dimensioni possono generare output inappropriati o privi di senso senza preavviso.
In terzo luogo, per quanto ne sanno i ricercatori di intelligenza artificiale, i grandi modelli linguistici non hanno una comprensione astratta e generale di ciò che è vero o falso, se qualcosa è giusto o sbagliato e di ciò che è solo buon senso. In particolare, non possono eseguire calcoli relativamente semplici. Ciò significa che il loro output può essere inaspettatamente fuorviante, distorto, logicamente errato o semplicemente falso.
Questi fallimenti sono opportunità per i lavoratori creativi e della conoscenza. Per la creazione di molti contenuti, anche per un pubblico generico, le persone avranno ancora bisogno del giudizio di creativi umani e lavoratori della conoscenza per suggerire, guidare, raccogliere, curare, modificare e soprattutto aumentare l’output delle macchine. Molti tipi di linguaggio specializzato e altamente tecnico rimarranno fuori dalla portata delle macchine per il prossimo futuro. E ci saranno nuovi tipi di lavoro, ad esempio coloro che faranno affari mettendo a punto modelli di linguaggio di grandi dimensioni interni per generare determinati tipi di testo specializzati per servire mercati particolari.
In sintesi, sebbene i modelli linguistici di grandi dimensioni preannunciano certamente interruzioni per i lavoratori creativi e della conoscenza, ci sono ancora molte preziose opportunità in vista per coloro che desiderano adattarsi e integrare questi nuovi potenti strumenti.
I progressi tecnologici portano a nuove competenze
Casey Greene, professore di informatica biomedica, Università del Colorado Anschutz Medical Campus
La tecnologia cambia la natura del lavoro e il lavoro basato sulla conoscenza non è diverso. Gli ultimi due decenni hanno visto la biologia e la medicina in fase di trasformazione grazie al rapido avanzamento della caratterizzazione molecolare, come il sequenziamento del DNA rapido ed economico e la digitalizzazione della medicina sotto forma di app, telemedicina e analisi dei dati.
Alcuni passi nella tecnologia sembrano più grandi di altri. Yahoo ha impiegato curatori umani per indicizzare i contenuti emergenti durante gli albori del World Wide Web. L’avvento di algoritmi che utilizzavano le informazioni incorporate nei modelli di collegamento del Web per dare priorità ai risultati ha modificato radicalmente il panorama della ricerca, trasformando il modo in cui le persone raccolgono le informazioni oggi.
Il rilascio di ChatGPT di OpenAI indica un altro salto. ChatGPT racchiude un modello di linguaggio di grandi dimensioni all’avanguardia ottimizzato per la chat in un’interfaccia altamente utilizzabile. Mette a portata di mano un decennio di rapidi progressi nell’intelligenza artificiale. Questo strumento può scrivere lettere di accompagnamento accettabili e istruire gli utenti su come affrontare problemi comuni negli stili linguistici selezionati dall’utente.
Proprio come le competenze per trovare informazioni su Internet sono cambiate con l’avvento di Google, le competenze necessarie per trarre il miglior risultato dai modelli linguistici si concentreranno sulla creazione di prompt e modelli di prompt che producono i risultati desiderati.
Per l’esempio della lettera di accompagnamento, sono possibili più prompt. “Scrivi una lettera di accompagnamento per un lavoro” produrrebbe un output più generico di “Scrivi una lettera di accompagnamento per una posizione come specialista di inserimento dati”. L’utente può creare suggerimenti ancora più specifici incollando parti della descrizione del lavoro, curriculum e istruzioni specifiche, ad esempio “evidenziare l’attenzione ai dettagli”.
Come per molti progressi tecnologici, il modo in cui le persone interagiscono con il mondo cambierà nell’era dei modelli di intelligenza artificiale ampiamente accessibili. La domanda è se la società utilizzerà questo momento per promuovere l’equità o esacerbare le disparità.
Crediti
Lynne Parker, Università del Tennessee, Casey Greene, Università del Colorado Anschutz Medical Campus, Daniel Acuña, Università del Colorado Boulder, Kentaro Toyama, Università del Michigan, Mark Finlayson, Florida International University