Press enter to see results or esc to cancel.

Per decidere, mi affido o no all’informatica?

“Not ready for the prime time!” Il commento postato su Twitter sembra non dare chance ai sistemi informatizzati a supporto delle decisioni cliniche (machine learning-based decision support system ML-DSS) all’indomani della pubblicazione di una Viewpoint sul JAMA a firma di tre autori italiani: Federico Cabitza (del dipartimento di Informatica dell’università di Milano-Bicocca), Raffaele Rasoini e GianFranco Gensini (Centro studi di medicina avanzata di Firenze). (1) Facciamo un passo indietro.

Machine learning–based decision support systems could create problems in contemporary medicine.

Instagram, Waze o Google maps: d’estate partiamo più leggeri senza macchina fotografica e obiettivi di ricambio, guide turistiche o mappe stradali. Certamente più comodi, ma stiamo perdendo il senso di orientamento, ci dimentichiamo la strada migliore per arrivare a cena dagli amici e non sappiamo più come si fa a scattare finalmente una fotografia come si deve. Qualcosa di simile può accadere anche al medico sul posto di lavoro: quanta più fiducia riponiamo nell’informatica, tanto maggiore è il rischio che si riduca la capacità e la competenza tecnica di svolgere al meglio alcuni compiti. Si rischia il deskilling e il clinico diventa meno abile nell’interpretare una mammografia o nel fare diagnosi a partire da un tracciato elettrocardiografico.

Molti dei problemi che riguardano l’affidabilità dei ML-DSS dipendono dall’impossibilità di informarli con i dati di contesto che fanno capo all’esperienza di vita del paziente o alle sue relazioni con l’ambiente, nonché alla difficoltà di implementare nei ML-DSS gli elementi che riguardano l’organizzazione sanitaria e sociale rilevanti per quella determinata storia di malattia. E’ una nuova, ma non inaspettata, manifestazione della dialettica tra le componenti quantitative e qualitative nella ricerca clinica e nell’assistenza sanitaria.

L’articolo ha suscitato molto interesse ed è stato ripreso centinaia di volte su Twitter. Qualcuno ha commentato in modo sarcastico: “Maybe I’ll live to see a robot write an #ai #MachineLearning journal paper on human wastes and errors in #medicine?” Ma prevalgono i commenti che colgono gli aspetti controversiali sollevati da Cabitza, Rasoini e Gensini: “Excellent piece”; “The machine may not correctly infer outcomes (true of statisticians as well)”; “Machine learning–based decision support systems could create problems in contemporary medicine, lead to misuse.” “Article organizing some of the reasons why decision support can support but must not mandate clinical decisions.”  “ML and AI will be valuable, but should be utilized ‘to augment’ (not ‘in place of’) common sense and clinical knowledge”.

“La qualità di qualsiasi ML-DSS e le conseguenti decisioni regolatorie circa l’adozione [di un determinato strumento informatizzato] non dovrebbero dipendere solo da valutazioni metriche della performance ma – piuttosto – dovrebbero essere sostenute da evidenze di miglioramenti clinicamente importanti su esiti pertinenti rispetto all’assistenza normalmente prestata al paziente nella stessa condizione, unitamente alla soddisfazione del malato e del medico”. Le conclusioni degli autori incoraggiano una ricerca più intensa e migliore sia per la messa a punto dei ML-DSS sia per la valutazione della loro utilità.

Altrimenti, il rischio di incorrere nell’hashtag #aihype [AI = artificial intelligence] continuerà a essere molto alto.

  1. Cabitza F, Rasoini R, Gensini GF. Unintended consequences of machine learning in medicine. JAMA 2017; 318(6):517–8.

 

Nella fotografia in alto: Without benefit of experience. David Gohering. Flickr Creative Commons.

Comments

Leave a Comment

Tweet

Tag Cloud

Luca De Fiore

Comunicare la salute e la medicina:
tutto quello che vorresti chiedere ma hai paura di sapere. E nemmeno sai tanto a chi chiedere…