Il grande caos delle riviste scientifiche

E’ una delle spese invisibili del servizio sanitario nazionale: quella per gli abbonamenti alle riviste e alle banche dati. In Italia nessuno ne parla, lasciando i bibliotecari e i responsabili della formazione alla mercè degli editori che con impressionante regolarità aumentano i prezzi dei periodici anno dopo anno e senza alcuna giustificazione. The current system …

Continue reading

Non pubblicare sulle riviste d’assalto

Dai National Institutes of Health (NIH) arriva una raccomandazione: stare alla larga dai cosiddetti predatory publishers, vale a dire quegli editori (e quelle riviste) che continuano a inviare email a clinici e a ricercatori invitandoli a pubblicare su riviste poco conosciute ma (incredibilmente) talvolta già indicizzate (1). A pagamento, s’intende. L’obiettivo dei NIH è tutelare …

Continue reading

La solidarietà concreta della rete

Non ho sentito la scossa, la notte del 24 agosto, e che ci fosse stato un terremoto in alto Lazio mi ha avverto Bishal Gyawali da Kathmandu. Il suo messaggio su Twitter è arrivato pochi minuti dopo le 3 e 36 di notte: come sempre, di prima mattina, era in rete per dialogare con gli amici …

Continue reading

Le riviste scientifiche: vecchie e potenti

Grande entusiasmo a Boston. Meno ottimismo di quanto non abbia manifestato il direttore del New England Journal of Medicine, Jeffrey Drazen, è quello che si respira a 137 miglia di distanza, alla Yale University. Harlan M. Krumholz, direttore di Circulation Cardiovascular Quality and Outcomes, propone una prospettiva radicalmente diversa in un articolo dal titolo emblematico …

Continue reading

Ricerca e letteratura scientifica: che casino

Un vero casino. Questa la definizione con cui – nella sua relazione al congresso della Associazione Alessandro Liberati Network Italiano Cochrane – John Ioannidis ha sintetizzato la situazione attuale dell’attività di ricerca e della produzione di letteratura scientifica. Il direttore del Meta Research Innovation Center dell’università di Stanford ha offerto una panoramica di straordinario interesse che ha riproposto in ordine logico i risultati di alcune delle principali ricerche da lui coordinate o pubblicate negli ultimi anni da altri ricercatori.

[ti interessa conoscere meglio di cosa si occupa il METRICS diretto da Ioannidis? Segui il link e arriva al sito.]

No registration, no replication, no publication. John Ioannidis

La ricerca clinica sembra orientata alla negazione. A farla breve, ecco i problemi principali. In primo luogo, circa la metà degli studi ha dei limiti metodologici importanti: quesiti di ricerca mal concepiti, risultati non generalizzabili, premesse condizionate da punti di vista soggettivi, progetti avviati senza considerare altri eventuali studi sullo stesso argomento che già siano stati condotti. Secondo, in circa un quinto dei casi lo studio tradisce il protocollo: cambiano in corso d’opera i criteri di eleggibilità dei pazienti e il campione viene “contaminato”. Terzo, i finanziamenti influenzano i risultati degli studi e, in circa il 70 per cento dei casi, non sono dichiarati. Quarto, in circa il 20 per cento dei casi la potenza statistica degli studi non è tale da garantire risultati significativi. Quinto, gli studi non sono riproducibili (in uno studio condotto in ambito oncologico lo era quasi il 90% delle ricerche).

C’è poi l’ampiamente noto problema della non pubblicazione dei risultati degli studi. Circa la metà delle ricerche, infatti, non viene pubblicata, per il veto dei finanziatori, o per una sorta di “pudore” dei ricercatori stessi, o anche per il mancato interesse delle riviste, soprattutto nel caso di studi che producono risultati negativi, vale a dire non favorevoli all’intervento sperimentale studiato. E se l’articolo vede la luce? Ebbene, anche in questo caso i risultati sono spesso mal presentati e i metodi descritti in maniera lacunosa o imperfetta. I contenuti sono presentati in maniera da enfatizzare ciò che si ha interesse a sottolineare, l’abstract non sintetizza fedelmente la ricerca o i comunicati stampa inviati ai media sono preparati in modo da sopravvalutare i risultati ottenuti.

Pubblicato e disseminato, l’articolo è pronto per essere … fatto a fette dagli stessi autori che, a partire da uno stesso dataset di risultati, spesso cedono alla tentazione della pubblicazione duplicata su riviste diverse (la cosiddetta salami science). Se non ci pensano gli autori, lo fanno i loro colleghi: non passa giorno non salti fuori un caso di plagio sulla letteratura internazionale anche “autorevole” o comunque indicizzata…

Il risultato è uno spreco intollerabile di risorse economiche e umane (quasi sempre le due cose coincidono). Ioannidis ha riproposto gli studi di Chalmers e Glasziou e il dossier pubblicato sul Lancet nel gennaio 2014, partendo dai risultati del suo studio del 2005 uscito su PLoS Medicine, Why most published research findings are false. Il quadro dipinto a Torino è desolante e molti dei presenti hanno reagito con incredulità e rassegnazione. Eppure, la possibilità di invertire la rotta esiste, anche se i correttivi metterebbero in discussione le fondamenta del sistema di produzione e condivisione delle conoscenze. In estrema sintesi, sarebbe necessario…

  1. privilegiare la ricerca clinica collaborativa e multicentrica
  2. premiare e fare crescere la “cultura delle riproducibilità” degli studi
  3. registrare ogni ricerca disegnata e avviata in database accessibili pubblicamente
  4. adottare dei metodi statistici … decorosi
  5. standardizzare definizioni e strategie di analisi dei dati
  6. utilizzare dei valori di soglia statistica più appropriati e stringenti
  7. migliorare la qualità del disegno degli studi, il processo di peer review, l’attività di reporting dei metodi e dei dati e la formazione del personale coinvolto nella ricerca.

Più facile a dirsi che a farlo. Per disinnescare una situazione esplosiva, bisognerebbe anche ripensare un sistema che premia molto più la quantità della produzione scientifica che la sua qualità.

Altrimenti, il rischio che il casino aumenti è davvero molto elevato.

 

 

La peer review si fa in famiglia?

L’ultimo aggiornamento della lista degli editori-predatori è del gennaio 2014 e, con l’apertura del nuovo anno, si attende la sua revisione da parte del blog Scholarly Open Access. I criteri per la definizione di predatory publisher sono talmente tanti e articolati che non si può che rimandare al post di Jeffrey Beall pubblicato nel dicembre …

Continue reading

Open data: che fare?

Open e Big Data. Se ne parla molto e spesso si ingenerano malintesi, al punto che qualche settimana fa dei ricercatori della Berkeley University hanno chiesto a diverse persone intelligenti cosa intendessero con questi due termini. Ecco tre risposte. Per prima quella di Philip Ashlock, chief architect del sito Data.gov/. E’ il progetto simbolo dell’attrito tra il desiderio di …

Continue reading

Fare ricerca è lasciare tracce

Tutti d’accordo – nonostante le non poche osservazioni critiche anche recenti1 – sul fatto che le sperimentazioni controllate randomizzate siano il gold standard della ricerca clinica. Proprio il loro valore atteso diventa una ragione in più per criticare il fatto che l’accesso ai dati grezzi di queste ricerche sia generalmente consentito solo a poche persone: …

Continue reading