In un articolo dal titolo Open Science at the generative AI turn: An exploratory analysis of challenges and opportunities apparso sulla rivista Quantitative science studies, gli autori (T. Ross-Hellauer et al.), partendo da una indagine pubblicata su Nature, secondo la quale almeno un terzo dei post doc usano abitualmente strumenti di IA generativa, affrontano il tema del suo uso nella ricerca e dei possibili impatti, soprattutto in un contesto di scienza aperta.
Le dimensioni analizzate negli aspetti positivi e negativi sono le pubblicazioni scientifiche (in particolare ad accesso aperto), i dati aperti, l’open peer review, le infrastrutture aperte, le collaborazioni tra scienza e società.
Gli autori si interrogano su come si colleghi la IA con l’open science e le sue aspirazioni di trasparenza e riproducibilità, di giustizia ed equità, quali sono le opportunità e le sfide. La IA generativa viene spesso utilizzata per migliorare la scrittura, l’analisi dei dati e la revisione della letteratura, può promuovere un accesso più equo alla ricerca (soprattutto da parte dei non esperti) e migliorare la collaborazione scientifica. Tuttavia, se utilizzata con scarsa capacità critica e con pochi strumenti per valutarne i risultati, presenta rischi elevati come la trasparenza limitata, la possibilità di riprodurre e amplificare in maniera paradossale errori e bias, la diffusione di disinformazione.
L’articolo non demonizza l’uso della IA generativa nella ricerca, né considera la scienza aperta e quindi la grande disponibilità di dati di training come un elemento negativo per il suo sviluppo, ma ne sottolinea gli elementi di rischio e suggerisce dunque cautela. Prende atto del fatto che si tratta di un uso ormai diffuso soprattutto fra i ricercatori più giovani e si chiude con una serie di raccomandazioni ai ricercatori e ai finanziatori, alle istituzioni e agli editori, e con la affermazione che molti più studi sull’impatto di questi strumenti sono necessari e urgenti.