In alcuni articoli di questo portale abbiamo discusso dell’implementazione dell’intelligenza artificiale nell’ambito sanitario. Si tratta, senza dubbio, di un’integrazione delicata ma anche necessaria se vogliamo sensibilmente aumentare i risultati ottenuti nel campo della ricerca scientifica.
Gli ambiti di applicazione
In ambito sanitario l’intelligenza artificiale può essere utilizzata essenzialmente in due ambiti principali: quello legato all’erogazione delle cure e quello amministrativo necessario alla gestione del paziente. Nel primo caso sappiamo che ci sono ormai numerose applicazioni dell’intelligenza artificiale all’ambito sanitario; ce ne sono alcuni che meritano di essere riportate più di altre.
Watson e la diagnosi del cancro
IBM Watson è una soluzione d’intelligenza artificiale, non si tratta di un singolo prodotto ma di una serie di servizi che cooperano tra loro destinati a compiti differenziati. IBM ha cercato di orientare Watson in modo che supportasse e perfezionasse la diagnosi di alcune tipologie di cancro nei pazienti ma, per poterlo fare, ha richiesto la collaborazione dei pazienti. C’è un articolo pubblicato su Stat dedicato a questa esperienza di Ross C, Swetlitz e si chiama “IBM pitched its Watson supercomputer as a revolution in cancer care. It’s nowhere close“. L’esperienza non andò benissimo nonostante un entusiasmo iniziale da parte dello staff tecnico: quasi subito si manifestarono le difficoltà a “spiegare” tali tipologie a Watson e ciò produsse risultati rilevanti ma non a sufficienza. Il caso divenne presto oggetto di discussione e la conclusione più interessante data dagli osservatori fu che le API di Watson messe a disposizione da IBM erano tecnicamente in grado di gestire l’obiettivo finale ma, al contempo, l’obiettivo era troppo ambizioso.
Jvion e il supporto decisionale al medico
Un’altra applicazione dell’intelligenza artificiale al supporto decisionale del medico fu Jvion che, tutt’ora, viene considerato un caso di successo. Si tratta di un sistema in grado di identificare quali siano i pazienti più a rischio e quelli che hanno una maggiore probabilità di rispondere ai protocolli terapeutici. Si tratta di un obiettivo molto rilevante, che massimizza il successo terapeutico e permette maggiore tempestività nell’erogazione delle terapie.
Keith Loria, nell’articolo “Putting the AI in Radiology”, pubblicato su Radiology Today (Vol. 19 No. 1 P. 10), spiega che l’intelligenza artificiale è ampiamente usata nei contesti radiologici.
AI-lite is already being used in radiology in a number of ways, such as computer-aided detection for cancer, auto-segmentation of organs in 3D postprocessing, natural language processing to facilitate critical results reporting, consultation of best guidelines for recommendations, and quantification and kinetics in postprocessing. However, deep learning algorithms have not made their way into widespread clinical use […] We believe that AI is poised to significantly increase the value radiology professionals are able to provide their patients,
La gestione amministrativa
L’utilizzo dell’intelligenza artificiale può supportare la gestione amministrativa dei pazienti fin dall’uso dello strumento più basico: il chatbot. Il chatbot è in grado di supportare con efficacia e tempestività pazienti di lingua differente, seguendo le metodologie previste dai processi di linguaggio naturale (NLP). Vi è preoccupazione, secondo un quanto riportato nell’articolo “Healthcare chatbot apps are on the rise but the overall customer experience (cx) falls short according to a UserTesting report” di UserTesting (2019), in merito al trattamento delle informazioni “confidate” al chatbot. Si tratta di problemi legati alla trasparenza e all’etica di cui è necessario parlare.
Il supporto psicologico al paziente
Tra tutti gli aspetti di utilizzo dell’intelligenza artificiale in ambito sanitario, ve ne è uno che sta facendo discutere maggiormente: il suo impiego in ambito psicologico. L’intelligenza artificiale può essere impiegata in ambito psicologico principalmente per una finalità: inquadrare lo stato cognitivo del paziente e supportare il medico nel percorso terapeutico. Apparentemente questo supporto potrebbe essere appaiato a quello offerto nella pratica farmacologica, oncologica, ortopedica ma non è chiaramente possibile fare tale accostamento.
La pratica psicologica si basa su una soggettività tale che difficilmente è possibile trovare la certezza offerta, ad esempio, dalla presenza oggettiva di un tumore, di una frattura, di una carenza chimica all’interno del quadro anamnestico. Eppure ci si domanda se tale tecnologia possa entrare nel rapporto “medico/paziente” ed in che modo; è certo che alcune branche della psicologia, ad esempio il cognitivismo, si prestano ad un uso più agevole. Nel 1969 in Italia fu pubblicato un libro molto particolare: “La fisica della mente”, Lashley, Mc Culloch, Sperry, Thorpe, Wiener, edito da Universale Scientifica Boringhieri. A molti non sarà sfuggito l’ultimo autore: Wiener, padre della cibernetica.
Nell’area oscura (n.d.a.: ci si riferisce all’analisi dei processi logici del pensiero) hanno da poco ricominciato ad avventurarsi gli psicologi. Non a caso i pionieri di questa esplorazione, come Piaget e Lorenz, sono ricercatori che hanno riconosciuto come la psicologia abbia bisogno dei contributi della cibernetica.
Tra efficienza, etica, trasparenza e controllo
L’intelligenza artificiale garantisce tempestività e precisione e queste sono due caratteristiche essenziali nel trattamento clinico del paziente. Ad esse si affiancano naturalmente l’etica, la trasparenza nel trattamento dei dati ed il relativo controllo. Non si può prescindere da questi aspetti per poter mantenere efficiente e affidabile un sistema di intelligenza artificiale, anche perchè l’addestramento avviene tramite l’interazione proprio con il paziente. Senza la fiducia di quest’ultimo, il sistema rinuncerebbe ad un importante tassello di addestramento. Nell’articolo “The potential for artificial intelligence in healthcare”, Thomas Davenport and Ravi Kalakota (Future Healthcare Journal 2019 Vol 6, No 2: 94–8) scrivono in proposito:
Finally, there are also a variety of ethical implications around the use of AI in healthcare. Healthcare decisions have been made almost exclusively by humans in the past, and the use of smart machines to make or assist with them raises issues of accountability, transparency, permission and privacy.
Ma non bisogna nemmeno trascurare il fatto che l’intelligenza artificiale può commettere errori e che questi vanno riconosciuti velocemente e gestiti con precisione perchè c’è un rischio sopra tutto e sopra tutti che viene ben riportato dall’autore.
Mistakes will undoubtedly be made by AI systems in patient diagnosis and treatment and it may be difficult to establish accountability for them.
I sistemi di intelligenza artificiale commetteranno senza dubbio degli errori nella diagnosi e nel trattamento dei pazienti e potrebbe essere difficile stabilirne la responsabilità.
L’attribuzione della responsabilità per un errore medico è, ad oggi, uno dei punti più critici e discussi del processo di gestione di un paziente. L’intelligenza artificiale potrà essere implementata con successo solo quando sarà possibile esercitare un controllo sui processi compiuti dal sistema in assoluta trasparenza e precisione.
C’è però un problema di alfabetizzazione di cui si parla troppo poco: Ross Jacobucci (PhD) è assistente alla Facoltà di Psicologia dell’Università di Notre Dame. Durante un’intervista rilasciata alla Dott.ssa Zara Abrams e intitolata “AI is changing every aspect of psychology. Here’s what to watch for“, ha commentato tale aspetto come segue:
People in psychology don’t know the jargon in computer science and vice versa—and there are very few people at the intersection of the two fields.
Gli psicologi non conoscono il gergo informatico e viceversa, e sono pochissime le persone che si trovano all’intersezione tra i due campi.
C’è quindi da risolvere questo problema di conoscenza che non è rivolto solo agli psicologi ma riguarda anche gli utenti finali.