L’Intelligenza artificiale è un vasto “campo largo”, con collegamenti con la logica, la statistica, la psicologia cognitiva, le neuroscienze, la linguistica, l’informatica. Questa complessità contribuisce a incrinare la classica distinzione fra scienze naturali e scienze umane: distinzione già prima problematica in una medicina che deve occuparsi dell’uomo come di una globalità. Parallelamente, si incrina ulteriormente la altrettanto classica differenziazione fra spirito e materia, poiché l’informazione, elemento costitutivo di questa disciplina, non è propriamente spirito né propriamente materia. Si costituisce la Data Science: disciplina che combina statistica, informatica, analisi dei dati. Qualcuno ha sintetizzato nell’acronimo BANG (B come Bits, A come Atoms, N come Neurons, G come Genes) i quattro riferimenti fondamentali. Già gli ultimi due indicano l’importanza dei riferimenti biologici.
L’intelligenza artificiale nella letteratura medica
Abbondano nella letteratura scientifica medica i riferimenti all’Intelligenza artificiale (IA) e al suo possibile contributo nei più svariati campi: la ricerca farmacologica con valutazione dei risultati, la diagnosi, le statistiche mediche, la verifica sui sistemi di cura e assistenza; l’anestesiologia, l’oftalmologia, la cardiologia, la radiologia, la medicina nucleare. Il tutto materialmente incorporato in oggetti come robot, sensori e quant’altro. Al limite con il campo medico e specificamente psichiatrico l’impiego dell’intelligenza artificiale nella formulazione di programmi per bambini con disturbi specifici dell’apprendimento. L’IA consente pure di perfezionare i dispositivi, già esistenti, che diano l’allarme in caso di emergenze mediche: rilevando e integrando una serie di dati. Si propone un “assistente virtuale”.
Ci sono piattaforme che danno supporto alla diagnosi delle malattie genetiche e rare. Altre sostengono i ginecologi nella interpretazione delle ecografie di controllo; altre ancora aiutano la gestione dei pazienti in rianimazione. Una funzione preventiva, non irrilevante quanto alle politiche di Salute Mentale, è propria di una piattaforma che “misura” il benessere – malessere nel posto di lavoro: con una app semplice da usare, l’utente parla della sua giornata lavorativa, indicando le aree positive e no. L’IA integra i dati provenienti dai vari utenti, e dà conseguenti indicazioni.
L’intelligenza artificiale a sostegno del clinico e del ricercatore
Il computer finirà col sostituire totalmente l’attività del clinico e del ricercatore? Ha sicuramente una superiorità nella capacità di raccogliere ed elaborare quantità di dati di gran lunga maggiori di quelle possibili per qualsiasi ricercatore; esse possono fare la base – in parte inconsapevole – di quella che chiamiamo esperienza clinica. Potrà essere in grado di cogliere anche le sfumature che fanno di ogni caso clinico un caso a sé: monitorando e inserendo nei dati i parametri fisiologici e i dati patologici individuali, si può ottenere un aiuto alla formulazione di un piano terapeutico personalizzato.
Si può additare il rischio di un venir meno dell’incontro umano medico-paziente col suo ruolo a volte decisivo nell’esito di una terapia, ciò soprattutto nelle tante terapie alternative e “naturali” prive di validazione scientifica; ma è anche vero che questo incontro, nella sua accezione classica, è già in larga parte venuto a mancare nei nostri abituali dispositivi terapeutici.
Questi sviluppi ripropongono sul altre basi il rapporto fra la medicina e quella disciplina del tutto particolare che è la psichiatria, con i connessi rischi contrapposti: quello dell’isolamento che potenzi lo stigma, e quello dell’adeguamento a metodiche prevalentemente scientifico – naturali spesso non adeguate al nostro campo di interesse.
Alcuni aspetti non parrebbero porre problemi particolari di ordine teorico e/o etico: è il caso degli algoritmi per la valutazione di farmaci, dei robot sociali, del monitoraggio dei disturbi del sonno, del Triage digitale per avviare al miglior intervento, di un aiuto nella psicodiagnostica.
I limiti dell’AI nell’interazione uomo-macchina
Molto più problematiche sono certe esperienze decisamente ambiziose. Un esempio è la conversazione che imita quelle fra umani: viene chiamata Chatbot o addirittura Chatbot affettivo, capace del c.d. Affective computing: aiuterebbe contro l’ansia, lo stress, la depressione… C’è chi progetta piattaforme che si adattino alle conversazioni uomo – macchina, riconoscendo lo stato emotivo della persona: alcune di esse si basano sull’esame della comunicazione scritta. Si parla di Sentiment analysis: considera le opinioni su vari temi, positive o negative, e ne ricava un quadro. Basandosi anche su questi dati si progettano fra l’altro anche piattaforme di auto – aiuto.
Lo stesso fruitore di questi strumenti può essere oggetto di indagine: nell’interazione uomo-macchina ci si riferisce anche a come egli digita.
È in questa fascia di ambiziosi progetto che si possono rilevare aspetti discutibili: si ridà fiato a un’ottica che considera lo stato emotivo, ancora una volta, come un “oggetto” da rilevare e studiare, lasciando da parte la fondamentale dimensione intersoggettiva. Infatti (mettendo fra parentesi il discorso dei neuroni specchio) certamente è vero che desumiamo lo stato emotivo dell’altro grazie a dati obbiettivi come la sua mimica, le sue reazioni vegetative, le sue verbalizzazioni: ma ne ricaviamo una più compiuta conoscenza solo se raffrontiamo questo dato con la personale esperienza interna, poiché iniziamo a comprendere gioia e dolore dell’altro solo nell’incontro e confronto, consapevole o meno, coi nostri omologhi stati d’animo. E non penso che una macchina ne abbia: la geniale intuizione del Kubrick di “Odissea nello spazio”, che tanti anni fa attribuiva al computer HAL risentimento e voglia di vendetta, è rimasta almeno finora una suggestiva fantasia. Precisazione che può apparire superflua: ma forse non lo è nei confronti di tecniche certo utilissime ma a rischio di invasività anche per la suggestiva capacità di offrire illusorie semplificazioni di situazioni complesse.
Le sfide etiche dell’AI nella psichiatria
Contro-obbiezione: c’è il rischio che per contro si idealizzi l’incontro inter-umano? Cedendo alla suggestione dell’ineffabile? Non lo penso; ma forse è giusto chiederselo
Questo campo non è esente da sfide etiche: in quello che qualcuno ha chiamato umanesimo digitale si realizza un rapporto o un inganno? Nella Chat GPT, creata da Sam Altman, la macchina davvero conversa con noi, o realizza soltanto una buona imitazione delle nostre conversazioni, in modo più perfezionato e complesso ma fondamentalmente non diverso rispetto a come gli automi del ‘700 imitavano superficialmente le persone? Questa è la posizione della linguista Emily Bender, che la paragona a un pappagallo. E c’è un esempio parallelo: è stato messo a punto un robot che imita perfettamente un bambino, e che sa inter-reagire anche verbalmente e superficialmente adeguato con un bambino in carne e ossa: questi finisce col considerarlo un essere vivente, un amico. C’è da chiedersi: questo bambino viene ingannato? Propendo a pensare di sì.
Questo ci porta a chiederci se queste macchine potrebbero avere una coscienza. Nel senso più elementare, di auto-consapevolezza riflessa dei nostri vissuti, potrebbe esser ipotizzabile una macchina capace di rivedere e in qualche modo riattualizzare ciò che ha fatto e sperimentato. Diverso il discorso sulla sua reale capacità di elaborarlo e comprenderlo (Verstehen). E questa, per quanto ci riguarda come operatori psichiatrici, è componente essenziale della nostra capacità professionale. Mi sembra assai lontana la nostra sostituzione con dei robot.
Del resto, anche la ricerca scientifica richiede non soltanto la consequenzialità logica indispensabile nella verifica dei risultati: il lasciare spazio lasciato all’immaginario, nel senso ampiamente sviluppato da Gilbert Durand, è essenziale nell’aprire strade nuove. Aprirsi a nuovi strumenti è un dovere: ma con le debite prudenti riflessioni critiche.