Press enter to see results or esc to cancel.

Ricerca e letteratura scientifica: che casino

Un vero casino. Questa la definizione con cui – nella sua relazione al congresso della Associazione Alessandro Liberati Network Italiano Cochrane – John Ioannidis ha sintetizzato la situazione attuale dell’attività di ricerca e della produzione di letteratura scientifica. Il direttore del Meta Research Innovation Center dell’università di Stanford ha offerto una panoramica di straordinario interesse che ha riproposto in ordine logico i risultati di alcune delle principali ricerche da lui coordinate o pubblicate negli ultimi anni da altri ricercatori.

[ti interessa conoscere meglio di cosa si occupa il METRICS diretto da Ioannidis? Segui il link e arriva al sito.]

No registration, no replication, no publication. John Ioannidis

La ricerca clinica sembra orientata alla negazione. A farla breve, ecco i problemi principali. In primo luogo, circa la metà degli studi ha dei limiti metodologici importanti: quesiti di ricerca mal concepiti, risultati non generalizzabili, premesse condizionate da punti di vista soggettivi, progetti avviati senza considerare altri eventuali studi sullo stesso argomento che già siano stati condotti. Secondo, in circa un quinto dei casi lo studio tradisce il protocollo: cambiano in corso d’opera i criteri di eleggibilità dei pazienti e il campione viene “contaminato”. Terzo, i finanziamenti influenzano i risultati degli studi e, in circa il 70 per cento dei casi, non sono dichiarati. Quarto, in circa il 20 per cento dei casi la potenza statistica degli studi non è tale da garantire risultati significativi. Quinto, gli studi non sono riproducibili (in uno studio condotto in ambito oncologico lo era quasi il 90% delle ricerche).

C’è poi l’ampiamente noto problema della non pubblicazione dei risultati degli studi. Circa la metà delle ricerche, infatti, non viene pubblicata, per il veto dei finanziatori, o per una sorta di “pudore” dei ricercatori stessi, o anche per il mancato interesse delle riviste, soprattutto nel caso di studi che producono risultati negativi, vale a dire non favorevoli all’intervento sperimentale studiato. E se l’articolo vede la luce? Ebbene, anche in questo caso i risultati sono spesso mal presentati e i metodi descritti in maniera lacunosa o imperfetta. I contenuti sono presentati in maniera da enfatizzare ciò che si ha interesse a sottolineare, l’abstract non sintetizza fedelmente la ricerca o i comunicati stampa inviati ai media sono preparati in modo da sopravvalutare i risultati ottenuti.

Pubblicato e disseminato, l’articolo è pronto per essere … fatto a fette dagli stessi autori che, a partire da uno stesso dataset di risultati, spesso cedono alla tentazione della pubblicazione duplicata su riviste diverse (la cosiddetta salami science). Se non ci pensano gli autori, lo fanno i loro colleghi: non passa giorno non salti fuori un caso di plagio sulla letteratura internazionale anche “autorevole” o comunque indicizzata…

Il risultato è uno spreco intollerabile di risorse economiche e umane (quasi sempre le due cose coincidono). Ioannidis ha riproposto gli studi di Chalmers e Glasziou e il dossier pubblicato sul Lancet nel gennaio 2014, partendo dai risultati del suo studio del 2005 uscito su PLoS Medicine, Why most published research findings are false. Il quadro dipinto a Torino è desolante e molti dei presenti hanno reagito con incredulità e rassegnazione. Eppure, la possibilità di invertire la rotta esiste, anche se i correttivi metterebbero in discussione le fondamenta del sistema di produzione e condivisione delle conoscenze. In estrema sintesi, sarebbe necessario…

  1. privilegiare la ricerca clinica collaborativa e multicentrica
  2. premiare e fare crescere la “cultura delle riproducibilità” degli studi
  3. registrare ogni ricerca disegnata e avviata in database accessibili pubblicamente
  4. adottare dei metodi statistici … decorosi
  5. standardizzare definizioni e strategie di analisi dei dati
  6. utilizzare dei valori di soglia statistica più appropriati e stringenti
  7. migliorare la qualità del disegno degli studi, il processo di peer review, l’attività di reporting dei metodi e dei dati e la formazione del personale coinvolto nella ricerca.

Più facile a dirsi che a farlo. Per disinnescare una situazione esplosiva, bisognerebbe anche ripensare un sistema che premia molto più la quantità della produzione scientifica che la sua qualità.

Altrimenti, il rischio che il casino aumenti è davvero molto elevato.

 

 

Comments

2 Comments

La trave e la pagliuzza | Studio Medico Galeazzi – Tormena

[…] L’intero articolo e i riferimenti bibliografici si trovano a questo link […]

Conservatori e aggrappati all'impact factor | DottProf

[…] I correttivi immaginati dal direttore del Lancet sono gli stessi proposti da John Ioannidis (vedi Ricerca e produzione scientifica: che casino) con una particolare enfasi sulla necessità di replicare i risultati prima della loro […]


Leave a Comment

Tweet

Bishal Gyawali

MITO trials have always been instrumental to guide ovarian ca Rx. Congrats again @fperrone62 and team on this important work. twitter.com/fperrone62/sta…

Tag Cloud

Luca De Fiore

Comunicare la salute e la medicina:
tutto quello che vorresti chiedere ma hai paura di sapere. E nemmeno sai tanto a chi chiedere…