La peer review: quanto è affidabile?

By in , ,

L’editore Wiley è stato spesso citato nel corso degli ultimi anni, in particolare in relazione alla acquisizione dell’editore Hindawi.

I problemi però non sono solo legati a questa acquisizione che ha portato alla perdita di decine di milioni per l’editore e alla chiusura di quasi tutte le riviste acquisite, dopo la retraction di 11.300 lavori. Retraction watch riporta frequentemente notizie legate a retraction da parte di questo editore. L’ultima di qualche giorno fa riguarda l’ International Wound Journal che ha ritirato 27 articoli per “manipulated” or “compromised” peer review

La rivista è passata ad accesso aperto nel 2023, incrementando sensibilmente il numero dei lavori sottomessi. La rivista stessa ha riconosciuto quest’anno che l’incremento considerevole di lavori sottomessi potrebbe essere collegato a papermills:

However, some of the increase is related to “papermill” type activity. 

In un contesto in cui è difficile trovare revisori che abbiano il tempo (o anche le competenze) per condurre una revisione accurata capita che venga chiesto agli autori di indicare 4 o 5 ricercatori che siano in grado di valutare il lavoro sottoposto alla rivista. L’editor ne sceglie un paio che, se accettano, consegneranno il report di revisione.

Nel migliore dei mondi possibili ciò avviene in maniera trasparente, i nomi sono noti, i report sono noti e sono note anche le interazioni fra revisori e autori. Questo è per esempio il modello scelto da Open Research Europe . Nel mondo della editoria tradizionale invece (che a quanto pare è ben lontano dal migliore dei mondi possibili) capita che l’autore nomini fra i revisori… se stesso, indicando come revisori ricercatori esistenti ma con indirizzi email fake che riconducono all’autore stesso. Questo è quanto riporta Andrea Capocci sul Manifesto in un articolo che spiega un altro fenomeno che affligge l’editoria scientifica, che è quello delle fake review. L’esempio riportato è quello di Science of the Total Environment, rivista dell’editore Elsevier, che ha ritirato 22 articoli di uno stesso ricercatore.

C’è una soluzione ai problemi di credibilità della ricerca scientifica di cui gli esempi citati sopra sono solo uno dei sintomi? Quanto di ciò che sta nella scatola nera della peer review e che non è accessibile ai più è veramente affidabile? Quanto costa al sistema a livello globale la pubblicazione di ricerche che non vengono validate, o sono validate da strumenti automatici, o sono validate dagli autori stessi o in maniera acritica o opportunistica? E’ necessario un ripensamento dei modelli di validazione delle ricerche ovviamente non nell’ottica della taglia unica ma in un’ottica disciplinare?

Probabilmente è arrivato il momento.