Il dito e la luna: MDPI, Frontiers e gli altri

By in , ,

Sembra che le riviste open access, o meglio che il modello di gold open access che è quello maggiormente diffuso, non abbiano ottenuto i risultati auspicati.

L’idea iniziale era quella di una conoscenza scientifica accessibile a chiunque, riproducibile, che facilitasse la collaborazione fra scienziati di diverse parti del mondo e che permettesse quindi alla ricerca di avanzare più velocemente proprio perché precocemente e ampiamente condivisa.

Nelle mani dell’editoria commerciale questa idea virtuosa si è trasformata in un business, che molto presto ha separato il mondo in due aree: quella in cui i ricercatori si possono permettere di pagare qualsiasi somma (è noto il costo esorbitante per pubblicare open access nella rivista Nature) e quella in cui a fatica si riesce ad ottenere l’accesso a una manciata di riviste. Ma in entrambe le aree del mondo pubblicare (possibilmente tanto e possibilmente in sedi editoriali “prestigiose”) è una necessità, non tanto a beneficio della ricerca e della società, ma per sopravvivere nel sistema accademico (il cosiddetto publish or perish).

Così, quando ho letto che la Finlandia aveva declassato un cospicuo numero di riviste MDPI e Frontiers mi sono chiesta il perché. Perché la Finlandia manutiene una lista di riviste attribuendo ad una sede editoriale un punteggio da 0 a 3 a seconda dell’aderenza o meno ad una serie di buone pratiche? Effettivamente pubblicare così tanti lavori di ricerca (oltre 13000 mila in un anno per l’International journal of molecular sciences) lascia il dubbio che non tutti i lavori pubblicati siano stati sottoposti ad un processo di peer review accurato (anche se, a dire il vero, molte delle peer review sono liberamente accessibili sul sito e dunque verificabili). Non si vuole qui difendere MDPI né tantomeno Frontiers, e forse condivido anche la scelta di JUFO l’organismo che si occupa di questa classificazione, ma mi chiedo: e Scientific reports che quest’anno ha pubblicato più di 30mila articoli? e Springer i cui autori e le cui riviste sono spessissimo citate nel sito Retraction watch? E Wiley? che ha comprato nel 2021 una casa editrice (Hindawi) le cui riviste sono state tutte chiuse dopo che oltre 11mila articoli erano stati oggetto di retraction? Basta consultare il database di Retraction watch e risulta immediatamente chiaro come il tema della inaccuratezza (chiamiamola così) non stia in questo o quel modello editoriale, aperto, chiuso o ibrido, ma sia ugualmente distribuito fra gli editori (e i modelli di business adottati) e dipenda da una pressione a pubblicare che spinge i ricercatori a comportamenti spesso opportunistici. Nel 2024 (per il 2024) le retraction dell’editore Wiley sono state 28, quelle dell’editore Springer 12 e quelle di Elsevier 46. Sono le riviste di questi editori (non sottoposti a declassamento) che hanno fatto registrare un numero preoccupante di dimissioni di interi editorial board in disaccordo rispetto alla pressione per allargare le maglie e quindi accettare un maggior numero di articoli.

Declassare riviste è un po’ come svuotare la barca che affonda con un cucchiaino da caffé. Le cattive pratiche diffuse nell’editoria scientifica, non sono altro che la risposta delle comunità di ricerca a sistemi di valutazione che premiano la quantità (forse perché più facilmente comprensibile a chi valuta) piuttosto che la qualità. In un contesto di questo tipo per gli editori commerciali è facile inserirsi fissando costi, tempi e modi della ricerca.

I comportamenti opportunistici sono il sintomo di una causa ben nota e per la quale il rimedio non è certo demonizzare questa o quella sede editoriale, ma invece riconoscere che la ricerca richiede tempo, verifiche e una cura che mal si adattano alle richieste numerologiche dei finanziatori della ricerca. Qualcuno sta cominciando a cambiare rotta.