Vaso di Pandora

Intelligenza artificiale e psichiatria

L’Intelligenza artificiale è un vasto “campo largo”, con collegamenti con la logica, la statistica, la psicologia cognitiva, le neuroscienze, la linguistica, l’informatica. Questa complessità contribuisce a incrinare la classica distinzione fra scienze naturali e scienze umane: distinzione già prima problematica in una medicina che deve occuparsi dell’uomo come di una globalità. Parallelamente, si incrina ulteriormente la altrettanto classica differenziazione fra spirito e materia, poiché l’informazione, elemento costitutivo di questa disciplina, non è propriamente spirito né propriamente materia.  Si costituisce la Data Science: disciplina che combina statistica, informatica, analisi dei dati.   Qualcuno ha sintetizzato nell’acronimo BANG (B come Bits, A come Atoms, N come Neurons, G come Genes) i quattro riferimenti fondamentali. Già gli ultimi due indicano l’importanza dei riferimenti biologici.

L’intelligenza artificiale nella letteratura medica

Abbondano nella letteratura scientifica medica i riferimenti all’Intelligenza artificiale (IA) e al suo possibile contributo nei più svariati campi: la ricerca farmacologica con valutazione dei risultati, la diagnosi, le statistiche mediche, la verifica sui sistemi di cura e assistenza; l’anestesiologia, l’oftalmologia, la cardiologia, la radiologia, la medicina nucleare.  Il tutto materialmente  incorporato in oggetti come robot, sensori e quant’altro.  Al limite con il campo medico e specificamente psichiatrico l’impiego dell’intelligenza artificiale nella formulazione di programmi per bambini con disturbi specifici dell’apprendimento.   L’IA consente pure di perfezionare i dispositivi, già esistenti, che diano l’allarme in caso di emergenze mediche: rilevando e integrando una serie di dati. Si propone un “assistente virtuale”.

Ci sono piattaforme che danno supporto alla diagnosi delle malattie genetiche e rare.  Altre sostengono i ginecologi nella interpretazione delle ecografie di controllo; altre ancora aiutano la gestione dei pazienti in rianimazione.  Una funzione preventiva, non irrilevante quanto alle politiche di Salute Mentale, è propria di una piattaforma che “misura” il benessere – malessere nel posto di lavoro: con una app semplice da usare, l’utente parla della sua giornata lavorativa, indicando le aree positive e no. L’IA integra i dati provenienti dai vari utenti, e dà conseguenti indicazioni.   

L’intelligenza artificiale a sostegno del clinico e del ricercatore

Il computer finirà col sostituire totalmente l’attività del clinico e del ricercatore? Ha sicuramente una superiorità nella capacità di raccogliere ed elaborare quantità di dati di gran lunga maggiori di quelle possibili per qualsiasi ricercatore; esse possono fare la base – in parte inconsapevole – di quella che chiamiamo esperienza clinica. Potrà essere in grado di cogliere anche le sfumature che fanno di ogni caso clinico un caso a sé: monitorando e inserendo nei dati i parametri fisiologici e i dati patologici individuali, si può ottenere un aiuto alla formulazione di un piano terapeutico personalizzato.

Si può additare il rischio di un venir meno dell’incontro umano medico-paziente col suo ruolo a volte decisivo nell’esito di una terapia, ciò soprattutto nelle tante terapie alternative e “naturali” prive di validazione scientifica; ma è anche vero che questo incontro, nella sua accezione classica, è già in larga parte venuto a mancare nei nostri abituali dispositivi terapeutici.

Questi sviluppi ripropongono sul altre basi il rapporto fra la medicina e quella disciplina del tutto particolare che è la psichiatria, con i connessi rischi contrapposti: quello dell’isolamento che potenzi lo stigma, e quello dell’adeguamento a metodiche prevalentemente scientifico – naturali spesso non  adeguate al nostro campo di interesse.

Alcuni aspetti non parrebbero porre problemi particolari di ordine teorico e/o etico: è il caso degli algoritmi per la valutazione di farmaci, dei robot sociali, del monitoraggio dei disturbi del sonno, del Triage digitale per avviare al miglior intervento, di un aiuto nella psicodiagnostica. 

I limiti dell’AI nell’interazione uomo-macchina

Molto più problematiche sono certe esperienze decisamente ambiziose. Un esempio è la conversazione che imita quelle fra umani: viene chiamata Chatbot  o addirittura Chatbot affettivo, capace del c.d. Affective computing: aiuterebbe contro l’ansia, lo stress, la depressione… C’è chi progetta piattaforme che si adattino alle conversazioni uomo – macchina, riconoscendo lo stato emotivo della persona: alcune di esse si basano sull’esame della comunicazione scritta. Si parla di Sentiment analysis: considera le opinioni su vari temi, positive o negative, e ne ricava un quadro. Basandosi anche su questi dati si progettano fra l’altro anche piattaforme di auto – aiuto.

Lo stesso fruitore di questi strumenti può essere oggetto di indagine: nell’interazione uomo-macchina ci si riferisce anche a come egli digita.

È in questa fascia di ambiziosi progetto che si possono rilevare aspetti discutibili: si ridà fiato a un’ottica che considera lo stato emotivo, ancora una volta, come un “oggetto” da rilevare e studiare, lasciando da parte la fondamentale dimensione intersoggettiva. Infatti (mettendo fra parentesi il discorso dei neuroni specchio) certamente è vero che desumiamo lo stato emotivo dell’altro grazie a dati obbiettivi come la sua mimica, le sue reazioni vegetative, le sue verbalizzazioni: ma ne ricaviamo una più compiuta conoscenza solo se raffrontiamo questo dato con la personale esperienza interna, poiché iniziamo a comprendere gioia e dolore dell’altro solo nell’incontro e confronto, consapevole o meno, coi nostri omologhi stati d’animo. E non penso che una macchina ne abbia: la geniale intuizione del Kubrick di “Odissea nello spazio”, che tanti anni fa attribuiva al computer HAL risentimento e voglia di vendetta, è rimasta almeno finora una suggestiva fantasia.  Precisazione che può apparire superflua: ma forse non lo è nei confronti di tecniche certo utilissime ma a rischio di invasività anche per la suggestiva capacità di offrire illusorie semplificazioni di situazioni complesse.

Le sfide etiche dell’AI nella psichiatria

Contro-obbiezione: c’è il rischio che per contro si idealizzi l’incontro inter-umano? Cedendo alla suggestione dell’ineffabile? Non lo penso; ma forse è giusto chiederselo

Questo campo non è esente da sfide etiche: in quello che qualcuno ha chiamato umanesimo digitale si realizza un rapporto o un inganno? Nella Chat GPT, creata da Sam Altman, la macchina davvero conversa con noi, o realizza soltanto una buona imitazione delle nostre conversazioni, in modo più perfezionato e complesso ma fondamentalmente non diverso rispetto a come gli automi del ‘700 imitavano superficialmente le persone? Questa è la posizione della linguista Emily Bender, che la paragona a un pappagallo. E c’è un esempio parallelo: è stato messo a punto un robot che imita perfettamente un bambino, e che sa inter-reagire anche verbalmente e superficialmente adeguato con un bambino in carne e ossa: questi finisce col considerarlo un essere vivente, un amico. C’è da chiedersi: questo bambino viene ingannato? Propendo a pensare di sì.  

Questo ci porta a chiederci se queste macchine potrebbero avere una coscienza. Nel senso più elementare, di auto-consapevolezza riflessa dei nostri vissuti, potrebbe esser ipotizzabile una macchina capace di rivedere e in qualche modo riattualizzare ciò che ha fatto e sperimentato. Diverso il discorso sulla sua reale capacità di elaborarlo e comprenderlo (Verstehen).  E questa, per quanto ci riguarda come operatori psichiatrici, è componente essenziale della nostra capacità professionale. Mi sembra assai lontana la nostra sostituzione con dei robot.

Del resto, anche la ricerca scientifica richiede non soltanto la consequenzialità logica indispensabile nella verifica dei risultati: il lasciare spazio lasciato all’immaginario, nel senso ampiamente sviluppato da Gilbert Durand, è essenziale nell’aprire strade nuove. Aprirsi a nuovi strumenti è un dovere: ma con le debite prudenti riflessioni critiche.

Condividi

Lascia un commento

Leggi anche
22 Novembre 2024

Riflessioni sul femminicidio

In un recente numero de “Il Vaso di Pandora” Andrea Narracci, prendendo spunto da una trasmissione televisiva dedicata al “caso Delfino”, ha esposto alcune condivisibili riflessioni sulla narrazione corrente riguardante i cosiddetti “femminicidi”.

Nasce Mymentis

L’eccellenza del benessere mentale, ovunque tu sia.

Scopri la nostra rivista

 Il Vaso di Pandora, dialoghi in psichiatria e scienze umane è una rivista quadrimestrale di psichiatria, filosofia e cultura, di argomento psichiatrico, nata nel 1993 da un’idea di Giovanni Giusto. E’ iscritta dal 2006 a The American Psychological Association (APA)

Studi e Ricerche
Leggi tutti gli articoli
Abuso di sostanze e socialità
24 Ottobre 2024

Abuso di sostanze e socialità

Trent'anni fa prendevo in cura presso il Sert di Genova Cornigliano, un camionista che abusava fortemente della cocaina mi spiegava che il suo datore di lavoro era molto contento di lui perché, mentre i suoi…

La riabilitazione cognitiva
8 Ottobre 2024

La riabilitazione cognitiva: CAI e CirCuitS

La Riabilitazione Cognitiva è definita come il processo terapeutico che ha lo scopo di migliorare la capacità individuale di processare ed utilizzare le informazioni in entrata e che permette di potenziare il funzionamento dell’individuo nella…

Storie Illustrate
Leggi tutti gli articoli
8 Aprile 2023

Pensiamo per voi - di Niccolò Pizzorno

Leggendo l’articolo del Prof. Peciccia sull’ intelligenza artificiale, ho pesato di realizzare questa storia, di una pagina, basandomi sia sull’articolo che sul racconto “Ricordiamo per voi” di Philip K. Dick.

24 Febbraio 2023

Oltre la tempesta - di Niccolò Pizzorno

L’opera “oltre la tempesta” narra, tramite il medium del fumetto, dell’attività omonima organizzata tra le venticinque strutture dell’ l’intero raggruppamento, durante il periodo del lock down dovuto alla pandemia provocata dal virus Covid 19.

Pizz1 1.png
14 Settembre 2022

Lo dico a modo mio - di Niccolò Pizzorno

Breve storia basata su un paziente inserito presso la struttura "Villa Perla" (Residenza per Disabili, Ge). Vengono prese in analisi le strategie di comunicazione che l'ospite mette in atto nei confronti degli operatori.