In un lungo commento pubblicato su Knowledge Creation, Dissemination, and Preservation Studies, Jeff Pooley fa il punto su un fenomeno tanto trascurato dai ricercatori quanto preoccupante. Ne abbiamo sentito un’eco lontana qualche mese fa quando alcuni ricercatori hanno cominciato a stupirsi del fatto che i propri lavori venivano utilizzati per addestrare sistemi di intelligenza artificiale,
I’ve come to terms with the fact, as an author who has published, that at some point my work is going to go into AI, whether that’s through an illegal copy published somewhere on the internet or some other means. I just didn’t expect it to be my publisher. (quoted in Palmer 2024)
per fare predizioni che poi venivano rivendute a caro prezzo alle istituzioni stesse. Cosa che vediamo riassunta in maniera efficace nella frase:
… we are the product and we are paying (a lot) for it
Il tema in discussione è che tutti i grandi editori vendono i dati delle proprie piattaforme editoriali per milioni a imprese che sviluppano sistemi di AI, o li usano per addestrare i propri strumenti di AI che poi rivendono alle istituzioni creandosi così ulteriori occasioni di profitto.
Il commento è ricco di esempi e di riferimenti, con una conclusione in linea con quanto visto spesso nelle segnalazioni di queste pagine:
A coordinated campaign of advocacy and consciousness-raising should be paired with high-quality, in-depth studies of publisher data harvesting […] Any effort like this should be built on the premise that another scholarly-publishing world is possible. Our prevailing joint-custody arrangement—for-profit publishers and non-profit universities—is a recent and reversible development. There are lots of good reasons to restore custody to the academy. The latest is to stop our work from fueling the publishers’ AI profits.