Press enter to see results or esc to cancel.

Big data e precision medicine: che meraviglia?

Descriveresti una sinfonia di Beethoven come un insieme di variazioni di onde sonore? Si chiude così, con una citazione da Albert Einstein, un ampio saggio di Rodolfo Saracci sullo European Journal of Epidemiology: l’epidemiologia nel paese delle meraviglie, il paese dei big data e della medicina di precisione1. Uno scritto permeato dall’acutezza di sguardo (“a closer scrutiny”) col quale l’autore si è soffermato su alcune delle novità più pubblicizzate della medicina dei nostri anni.

“Il diluvio di dati” non può rendere obsoleto il metodo scientifico. Rodolfo Saracci

Tra gli elementi che connotano i big data, osserva Saracci, manca la validità. Questa la quarta “v” che da sola potrebbe qualificare le tre precedenti: volume, varietà, velocità. Non è una novità, il “primato della validità del dato”, se è vero che già dai primi anni Settanta del secolo scorso era al centro delle riflessioni di Paul Meier e della International Biometric Society, ai cui vertici erano personalità del calibro di Tom Chalmers e Peter Armitage. «Concentriamoci sulle fonti di bias, se esistono, e mettiamo da parte tutto il resto che andremo a considerare successivamente», ammoniva Meier. La prima conclusione di Saracci è dunque che il valore dei dati non è nella loro ampiezza (bigness) ma nella validità del percorso che ha portato alla loro misurazione, base della stima della validità interna ed esterna di qualsiasi ricerca.

Da anni, i “big research data” – quelli esplicitamente raccolti per attività di ricerca – hanno richiesto un impegno particolare per garantire la qualità della loro misurazione, come dimostrato per esempio da molti studi condotti presso la International Agency for Research on Cancer. I “grandi numeri” generati per altri scopi – “big secondary data” – chiedono altrettanta cura nella misurazione e nelle procedure per la valutazione di qualità. Che gli algoritmi possano arrivare a determinare rapporti di causa-effetto e correlazioni spingendosi oltre il limite dell’analisi possibile per la mente umana è una tesi poco sostenibile: anche se giunge da Chris Anderson, personalità chiave dei nuovi scenari della tecnologia dei nostri anni. “Il diluvio di dati” non può rendere obsoleto il metodo scientifico.

L’analisi di Saracci considera diverse applicazioni dei big secondary data: la prima è la real time surveillance, che ha mostrato i propri limiti nella nota vicenda di Google Flu Trends, principalmente da ricondurre proprio alle incertezze sulla validità del dato. Un altro mantra dei nostri anni è la real world evidence (RWE) ed è anche il secondo problema aperto affrontato dall’autore. I registri sono la fonte migliore ma non sempre sono disponibili, non lo sono ovunque e spesso sono privi di quelle informazioni che potrebbero dare le risposte necessarie per rendere i dati raccolti traducibili in decisioni e comportamenti clinici. Inoltre, la RWE si basa spesso sulle cartelle cliniche elettroniche, dimenticando come siano incoerenti nei format e frequentemente compilate in modo disomogeneo. Senza contare che molta “evidenza dal mondo reale” ha un valore limitato ai setting nei quali è stata raccolta. Altro punto considerato riguarda la possibilità di usare la RWE per la stima del rischio, con la prospettiva – addirittura – di poter fare a meno degli studi osservazionali e delle sperimentazioni controllate randomizzate.

Saracci arriva dunque a riflettere sulla medicina di precisione, una sorta di miraggio le cui fondamenta potrebbero essere minate semplicemente ponendosi una domanda: “Potremo mai intervenire sulla salute della popolazione del pianeta ricorrendo a percorsi in ogni occasione individualizzati, per ciascun singolo abitante dei sette miliardi e mezzo che abitano la Terra?”. Una prospettiva irreale, ma sostenuta da importanti interessi economici, se è vero che “tanto più sono individualizzati percorsi e soluzioni cliniche tanto maggiori sono i costi per il sistema sanitario”. La deriva può essere quella di ridurre la persona a un “datoma”, da gestire attraverso algoritmi e intelligenza artificiale in un contesto di assistenza privato da ogni aspetto di cura e presa in carico della persona malata?

Domanda retorica: la risposta è invece nel recupero di un’epidemiologia saggia che si confermi la base di qualsiasi azione di sanità pubblica. Servono nuovi percorsi di formazione dei giovani epidemiologi, il ritorno a una reale centralità del rapporto tra medico e paziente, la riconsiderazione del concetto stesso di salute: così che nessun medico “nuovo” possa avvicinarsi a una persona malata come farebbe chi intendesse godere di una sinfonia di Beethoven vivendola come un insieme di variazioni di onde sonore…

  1. Saracci R. Epidemiology in wonderland: Big data and precision medicine. Eur J Epidemiology 2018; published 5 april 2018

 

La foto in alto è di Alosh Bennett: Mirror of the sky. Flickr Creative Commons.

Comments

1 Comment

Raffaele

GREAT


Leave a Comment

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

Tweet

Wow. Seriously. This letter. 👇 #CochraneCrisis Letter from John Ioannidis to the Danish Minister of Health in defense of Peter Gøtzsche shar.es/aagpyB

Tag Cloud

Luca De Fiore

Comunicare la salute e la medicina:
tutto quello che vorresti chiedere ma hai paura di sapere. E nemmeno sai tanto a chi chiedere…