intelligenza artificiale

” Buongiono signore. Per favore siediti. Allora… come sei stato dall’ultima volta? »

E se, tra qualche anno, questa frase innocua non fosse più pronunciata da uno psichiatra in carne e ossa ma da una IA, un’intelligenza artificiale? Con la recente rinascita della psichiatria nel dibattito pubblico, in particolare a causa della crisi sanitaria, è riemersa l’idea di proporre sistemi di monitoraggio della salute mentale che integrino le IA.

È, siamo onesti, tutt’altro che nuovo poiché troviamo la prima traccia di un chatbot (programma di dialogo) dedicato alla psichiatria, chiamato ELIZA, del 1966. Negli ultimi decenni, i progressi dell’Intelligenza Artificiale hanno consentito la nascita di chatbot, “robot terapisti” o altri sistemi per rilevare lo stato di salute attraverso la voce.

Oggi ci sono più di venti robot-terapeuti validati da studi scientifici in psichiatria. Molti di questi lavori suggeriscono che i pazienti potrebbero sviluppare relazioni terapeutiche reali con queste tecnologie, e anche che alcuni di loro si sentirebbero addirittura più a loro agio con un chatbot che con uno psichiatra umano.

Le ambizioni sono quindi alte… Tanto più che, a differenza delle loro controparti umane, questi “professionisti” digitali promettono decisioni obiettive, replicabili e non giudicanti – e di essere sempre disponibili.

Va notato, tuttavia, che mentre il nome “robot terapista” evoca l’immagine di un robot fisico, la maggior parte sono video basati su testo, possibilmente animati. Oltre a questa assenza di presenza fisica, importante per la maggior parte dei pazienti, molti non riescono a riconoscere tutte le difficoltà vissute dalle persone con cui dialogano. Come, allora, fornire risposte adeguate, come ad esempio l’invio ad un help desk dedicato?

Diagnosi e modello interno nello psichiatra

Lo psichiatra, nel suo colloquio con il suo paziente, è in grado di percepire segnali importanti che tradiscono l’esistenza di pensieri suicidi o violenza domestica, che gli attuali chatbot possono perdersi.

Perché lo psichiatra supera ancora la sua versione elettronica? Quando questo specialista annuncia “Hai un disturbo da deficit di attenzione”, oppure “Sua figlia ha l’anoressia nervosa”, il processo che lo ha portato a formulare queste diagnosi dipende dal suo “modello interno”: un insieme di processi mentali, espliciti o impliciti, che consentono lui per fare la sua diagnosi.

Così come l’ingegneria si ispira alla natura per progettare sistemi efficienti, può essere rilevante analizzare cosa sta succedendo nella testa di uno psichiatra (il modo in cui progetta e usa il suo modello interno) quando fa la sua diagnosi per poi allenare meglio l’IA responsabile di imitarlo… Ma fino a che punto un “modello interno” umano e quello di un programma sono simili?

È quanto ci sono chiesti nel recente articolo sulla rivista Frontiers in Psychiatry.

Confronto uomo-macchina

Sulla base di precedenti studi  sul ragionamento diagnostico in psichiatria, hanno stabilito un confronto tra il modello interno dello psichiatra e quello degli infermieri. La formulazione di una diagnosi passa attraverso tre fasi principali:

● Raccogliere informazioni e organizzarle. Durante il suo colloquio con un paziente, lo psichiatra raccoglie molte informazioni (dalla sua cartella clinica, dal suo comportamento, da ciò che viene detto, ecc.), che poi seleziona in base alla loro rilevanza. Queste informazioni possono poi essere associate a profili preesistenti con caratteristiche simili.

I sistemi di IA fanno lo stesso: in base ai dati con cui sono stati formati, estraggono dal loro scambio con il paziente le caratteristiche (in inglese features) che selezionano e organizzano in base alla loro importanza (feature selection). Possono quindi raggrupparli in profili e quindi fare una diagnosi.

● Creazione del modello. Durante i loro studi medici, poi lungo tutta la loro carriera (pratica clinica, lettura di casi clinici, ecc.), gli psichiatri formulano diagnosi di cui conoscono l’esito. Questa formazione continua rafforza, nel loro modello, le associazioni tra le decisioni che prendono e le loro conseguenze.

Anche in questo caso, i modelli di AI vengono addestrati allo stesso modo: sia durante la loro formazione iniziale che durante il loro apprendimento, rafforzano costantemente, nel loro modello interno, le relazioni tra i descrittori estratti dai loro database e l’esito diagnostico. Questi database possono essere molto grandi e contenere anche più casi di quelli che un medico vedrà nella sua carriera.

● Uso del modello. Al termine delle due fasi precedenti, il modello interno dello psichiatra è pronto per essere utilizzato per la presa in carico di nuovi pazienti. Vari fattori esterni possono influenzare il modo in cui lo farà, come il suo stipendio o il suo carico di lavoro, che trovano i loro equivalenti nel costo delle attrezzature e nel tempo necessario per addestrare o utilizzare un’intelligenza artificiale.

Come accennato in precedenza, si è spesso tentati di pensare che lo psichiatra sia influenzato nella sua pratica professionale da tutta una serie di fattori soggettivi, fluttuanti e incerti: la qualità della sua formazione, il suo stato emotivo, il caffè mattutino, ecc. E che un’intelligenza artificiale, essendo una “macchina”, si libererebbe di tutti questi capricci umani… Questo è un errore! Perché l’intelligenza artificiale include anche una parte importante della soggettività; è semplicemente meno immediatamente percepibile.

Intelligenza artificiale, davvero neutrale e obiettiva?

In effetti, tutta l’intelligenza artificiale è stata progettata da un ingegnere umano. Pertanto, se si vogliono confrontare i processi di pensiero dello psichiatra (e quindi la progettazione e l’uso del loro modello interno) e quelli dell’IA, si deve considerare l’influenza del programmatore che lo ha creato. Questo ha un proprio modello interno, in questo caso non per associare dati clinici e diagnosi ma tipo di IA e problema da automatizzare. E anche lì entrano in gioco tante scelte tecniche ma basate sull’umano (quale sistema, quale algoritmo di classificazione, ecc.)

Il modello interno di questo programmatore è necessariamente influenzato dagli stessi fattori di quello dello psichiatra: la sua esperienza, la qualità della sua formazione, il suo stipendio, l’orario di lavoro per scrivere il suo codice, il suo caffè mattutino, ecc. Tutto inciderà sui parametri progettuali dell’IA e quindi, indirettamente, sul processo decisionale dell’IA, vale a dire sulle diagnosi che farà.

L’altra soggettività che influenza il modello interno delle IA è quella legata ai database su cui viene addestrato. Questi database sono infatti progettati, raccolti e annotati da una o più altre persone con le proprie soggettività – soggettività che giocherà nella scelta dei tipi di dati raccolti, del materiale coinvolto, della misura scelta per annotare il database, ecc.

Sebbene le IA siano presentate come oggettive, in realtà riproducono i pregiudizi presenti nei database su cui sono addestrate.

I limiti dell’intelligenza artificiale in psichiatria

Da questi confronti emerge che AI ​​non è esente da fattori soggettivi e, per questo in particolare, non è ancora pronta a sostituire un “vero” psichiatra. Quest’ultimo ha altre qualità relazionali ed empatiche per adattare l’uso del suo modello alla realtà che incontra… cosa che AI ​​sta ancora lottando per fare.

Lo psichiatra è così capace di flessibilità nel raccogliere informazioni durante il suo colloquio clinico, che gli consente di accedere a informazioni temporali molto diverse: può, ad esempio, interrogare il paziente su un sintomo manifestatosi settimane prima o evolvere il suo scambio in tempo reale secondo le risposte ottenute. Le IA sono attualmente limitate a uno schema prestabilito e quindi rigido.

Un altro forte limite degli infermieri è la loro mancanza di corporeità, fattore molto importante in psichiatria. In effetti, qualsiasi situazione clinica si basa su un incontro tra due persone – e questo incontro coinvolge il linguaggio e la comunicazione non verbale: gesti, posizione dei corpi nello spazio, lettura di emozioni sul volto o riconoscimento di segnali sociali non verbali. In altre parole, la presenza fisica di uno psichiatra costituisce una parte importante della relazione paziente-caregiver, che costituisce essa stessa una parte importante della cura.

Qualsiasi progresso delle IA in questo campo dipende dai progressi della robotica, dove il modello interno dello psichiatra è già incarnato in essa.

Questo significa che dovremmo dimenticare l’idea di uno strizzacervelli virtuale? Il confronto tra il ragionamento dello psichiatra e quello dell’AI è comunque interessante in un’ottica di pedagogia trasversale. In effetti, una buona comprensione del modo in cui ragionano gli psichiatri consentirà di tenere meglio conto dei fattori coinvolti nella costruzione e nell’uso delle IA nella pratica clinica. Questo paragone fa anche luce sul fatto che il programmatore apporta la sua parte di soggettività anche agli algoritmi di intelligenza artificiale… che quindi non sono in grado di mantenere le promesse fatte loro.

È solo attraverso questo tipo di analisi che una vera pratica interdisciplinare, che consente di ibridare AI e medicina, potrà svilupparsi in futuro a beneficio del maggior numero di persone.

Autore

Vincent MartinUniversità di BordeauxChristophe GauldUniversità Paris 1 Panthéon-Sorbonne