Oramai tutti gli editori hanno delle regole ben definite rispetto all’uso degli strumenti di intelligenza artificiale generativa.
La maggior parte richiede agli autori di indicare l’uso di questi strumenti nella composizione degli articoli (riformulazione del testo, o magari revisione dell’inglese ecc.) Qui ad esempio la policy di Elsevier
Elsevier’s AI author policy states that authors are allowed to use generative AI and AI-assisted technologies in the writing process before submission, but only to improve the language and readability of their paper and with the appropriate disclosure, as per our instructions in Elsevier’s Guide for Authors(opens in new tab/window). Editors can find such disclosure at the bottom of the paper in a separate section before the list of references. If an editor suspects that an author or a reviewer has violated our AI policies, they should inform the publisher.
mentre spesso l’uso per la peer review è vietato
Peer review is at the heart of the scientific ecosystem and Elsevier abides by the highest standards of integrity in this process. Managing the editorial evaluation of a scientific manuscript implies responsibilities that can only be attributed to humans. Generative AI or AI-assisted technologies should not be used by editors to assist in the evaluation or decision-making process of a manuscript as the critical thinking and original assessment needed for this work is outside of the scope of this technology and there is a risk that the technology will generate incorrect, incomplete or biased conclusions about the manuscript
A questo link https://retractionwatch.com/papers-and-peer-reviews-with-evidence-of-chatgpt-writing/ troviamo una serie di articoli che mostrano l’uso evidente di ChatGPT (frasi tipiche della comunicazione fra la macchina e chi interroga) senza che però sia stato indicato un disclaimer ad hoc.
Si tratta di pubblicazioni con tutti gli editori: da Springer a Elsevier da MDPI a Frontiers ecc. , molti sono proceedings.
Tutti hanno un commento su pubpeer che viene linkato e in cui viene sottolineata la particolare frase dedotta dalle maschere di Chatgpt.
In alcuni casi viene documentato come l’editore abbia semplicemente cancellato la prova dell’uso di chatgpt dal file, senza però inserire alcuna nota (il che è piuttosto inutile oltre che non etico, perché dell’illecito c’è la prova in pubpeer appunto).
Va bene usare chatGPT (o analoghi strumenti) per la stesura di articoli scientifici, ma deve essere dichiarato.
Sull’uso per la peer review è fondamentale rispettare le regole definite dall’editore.