Il buono, il brutto e il cattivo delle pubblicazioni scientifiche
di Vittorio Lingiardi e Marianna Liotti
Con questo articolo, SPR-IAG vuole offrire uno spunto e stimolare il dibattito su un tema che riguarda da vicino tutti noi, sopratutto le ricercatrici e i ricercatori più giovani che devono "costruire" il loro curriculum scientifico. Invitiamo la comunità SPR a inviare a Questo indirizzo email è protetto dagli spambots. È necessario abilitare JavaScript per vederlo. idee e commenti in proposito (massimo 5000 battute). Dopo una valutazione, da parte del Direttivo, sulla pubblicabilità, verranno condivisi sul nostro sito.
Il 20 marzo 2023 John Ioannidis, Angelo Maria Pezzullo e Stefania Boccia hanno pubblicato un editoriale sul Journal of American Medical Association, intitolato “The Rapid Growth of Mega-Journals: Threats and Opportunities”. Sollevano dubbi e critiche rispetto alle cosiddette riviste ad accesso aperto (o Golden Open Access) che, previo pagamento di cospicue tariffe da parte degli autori o, più spesso, delle istituzioni cui essi sono affiliati, pubblicano più migliaia di articoli all’anno. Come riportato dagli autori: «Nel 2022, per esempio, l’International Journal of Environmental Research and Public Health (impact factor = 4.614) ha pubblicato 16.889 articoli (empirici o di rassegna della letteratura), e Frontiers in Public Health (impact factor = 6.461) 5.043; altre riviste come l’American Journal of Public Health, l’European Journal of public Health, l’American Journal of Epidemiology e Epidemiology ne hanno pubblicati soltanto 514, 238, 222 e 101, rispettivamente».
Quella degli autori non è una polemica nuova: nell’ambiente accademico si discute da tempo dei cosiddetti predatory journals, ossia riviste che, in nome di un modello troppo commerciale di editoria accademica, ricorrono a pratiche di sollecitazione aggressive e indiscriminate e, secondo alcuni (per esempio Grudniewicz et al. su Nature nel 2019, con l’articolo “Predatory journals: no definition, no defence”), appaiono caratterizzate da bassa qualità dei contenuti pubblicati e uso discutibile del processo di revisione tra pari. Il loro aumento negli ultimi anni è stato esponenziale, il che comporta che la scala di grigi nell’universo delle “pubblicazioni predatorie” sia diventata pressoché infinita. Per avere un’idea della dimensione del fenomeno, inserendo come parola chiave “predatory journals” sull’e-journals database EBSCO è possibile trovare più di 2.000 articoli che indagano e commentano il fenomeno.
Nelle ultime settimane un altro terremoto ha fatto tremare qualche gigante dell’editoria accademica: Web of ScienceTM(WOS), uno dei servizi più attendibili per conoscere gli indici bibliometrici di pubblicazioni e periodici, ha negato l’indicizzazione e rimosso dalle proprie banche dati l’impact factor di più di cinquanta riviste. L’impact factor misura il numero di citazioni ricevute dagli articoli pubblicati su un dato journal e, ancor oggi, viene considerato un importante indicatore della sua qualità. Nonostante anni fa la Declaration on Research Assessment (DORA) abbia espresso perplessità sulla corsa all’impact factor sostenendo la necessità di promuovere best practices nella valutazione dei prodotti scientifici e di ricerca, esso costituisce a tutt’oggi un parametro rilevante nell’orientare i ricercatori nella scelta della collocazione nazionale e internazionale dei propri lavori: perderlo può avere effetti dannosi per la salute e il prestigio di una rivista scientifica.
Tra gli editori più colpiti da questa recente presa di posizione di WOS ci sono BMJ, MDPI, Springer e Wiley (per la maggior parte società con margini di profitto esorbitanti), che hanno assistito alla perdita dell’impact factor di alcune delle proprie più importanti riviste perché caratterizzate da una crescita sproporzionata delle pubblicazioni, tempi di revisione rapidissimi, bassi tassi di rifiuto degli articoli sottoposti e, allo stesso tempo, un buon indice d’impatto. Tutte caratteristiche particolarmente appetibili, soprattutto per i giovani ricercatori sempre più costretti a cedere alla logica del publish or perish.
La comunità accademica è soggetta a una forte pressione, e pubblicare tanto e ad alto impatto è una componente necessaria per fare carriera e superare i concorsi. Gli indici bibliometrici come il numero di pubblicazioni, l’h-index e l’impact factor rappresentano il parametro principale su cui si viene valutati all’interno delle università (cosiddetta valutazione scholars-to-scholars). Inoltre, le condizioni economiche dei ricercatori, spesso precarie, soprattutto in paesi come l’Italia, li spingono a cercare sovvenzioni e finanziamenti da organizzazioni/istituti esterni, elargiscono fondi in base alla loro prolificità e al prestigio delle riviste in cui hanno pubblicato (cosiddetta valutazione scholars-to-market). A volte, la necessità di veder crescere i propri indici per una progressione di carriera può indebolire la qualità del lavoro dei ricercatori, e, più in generale, allontanare le istituzioni universitarie dal compito di fare scoperte e ricerche utili alla società e diffondere conoscenza e cultura. Questo, a sua volta, può minare la fiducia nella scienza e nell’autorità delle fonti. Allo stesso tempo, tuttavia, la pubblicazione nelle riviste open access (con la loro promessa di pubblicazione più rapida, semplice, sicura) consente di costruire più velocemente il proprio curriculum, condividere in maniera più estesa risultati delle proprie ricerche con i colleghi, sviluppare competenze e creare reti a livello nazionale e internazionale: può cioè rappresentare un ponte levatoio su cui salire per entrare a far parte della comunità accademica o consolidare la propria posizione.
È interessante però nontare che, negli ultimi anni, per valutare la qualità di una pubblicazione scientifica (e delle istituzioni che ospitano e finanziano i ricercatori), è anche cresciuta la richiesta di fare riferimento anche al suo impatto sociale. Nel Regno Unito è stato istituito il Research Excellence Framework (REF, 2019), un comitato di revisione di esperti deputato a stimare quanto il lavoro degli studiosi abbia contribuito a influenzare la cultura, l’economia, le politiche ambientali e pubbliche, la salute, la qualità della vita o le dinamiche sociali. Per stimare l’impatto delle discipline scientifiche più direttamente legate alla salute pubblica, Mary Ari e collaboratori hanno proposto il Science Impact Framework (SIF), che utilizza cinque parametri: grado di disseminazione delle conoscenze scientifiche, creazione di consapevolezza, catalizzazione dell’azione, promozione del cambiamento e capacità di plasmare il futuro (disseminating science, creating awareness, catalyzing action, effecting change and shaping the future). Non abbiamo lo spazio per entrare nel dettaglio di queste proposte, ma vogliamo citarle per sottolineare la possibilità di fare riferimento anche ad altri parametri, magari in grado, se non di far rallentare la corsa alla pubblicazione per la pubblicazione, quantomeno di renderla più virtuosa.
Pubblicare bene è fondamentale, pubblicare tanto non è sempre necessario (soprattutto se si pubblica bene). L’impact factor e in generale gli indici bibliometrici sono molto importanti, ma se la comunità accademica e scientifica non impara a considerarli in modo indipendente dal mercato compulsivo delle pubblicazioni, possono facilmente trasformarsi in un canto delle sirene. Contribuendo peraltro ad accrescere i fattori di stress psicologico che, come anche la cronaca inizia a segnalare, affliggono le nuove generazioni di ricercatrici e ricercatori. Concludiamo dunque con un’esortazione: la ricerca ha senso se è pensata e condotta (e poi pubblicata in open access o meno, purché seguendo il dovuto rigore scientifico) per far sì che, a beneficiarne, siano gli individui: non solo altri ricercatori e finanziatori, ma anche scienziati, clinici, pazienti e la società nel suo insieme.
Pubblicato su La Repubblica-Salute
https://bit.ly/3mztRUs