Oggigiorno, l’intelligenza artificiale (Artificial Intelligence, AI) è diventata parte integrante delle nostre vite. Tanto discussa quanto apprezzata, questa nuova tecnologia ci supporta in moltissimi ambiti della nostra quotidianità: dal lavoro agli interessi personali, dai calcoli matematici all’organizzazione di un viaggio. E così, inevitabilmente, l’AI è approdata anche nel mondo delle pubblicazioni scientifiche. Eppure, non tutte le riviste scientifiche sembrerebbero vedere di buon occhio l’utilizzo di tale tecnologia, e hanno così iniziato a dotarsi di software capaci di rilevare l’utilizzo dell’AI nei manoscritti.
Ma allora, fino a che punto possiamo spingerci nel suo utilizzo?
Opportunità e criticità dell’AI nella comunicazione scientifica
L’intelligenza artificiale (AI) è esplosa con la potenza di un Big Bang, diffondendosi ad elevatissima velocità in svariati ambiti della nostra vita, diventando un supporto quasi irrinunciabile.
Un’innovazione di così grande portata non poteva certamente rimanere estranea al mondo della scrittura e dell’editoria scientifica. Eppure, nonostante la sua ormai consolidata utilità, in questo settore questo tema è ancora molto dibattuto, soprattutto a causa di questioni molto complesse e delicate, quali l’attribuzione dell’autorialità, l’originalità dei contenuti e le non trascurabili implicazioni etiche.
E allora, noi, medical writers, al pari di ricercatori, medici, scienziati, come possiamo – e dobbiamo – muoverci in questo nuovo contesto? Non possiamo certamente ignorare l’AI e vivere come pesci fuor d’acqua! Dobbiamo, quindi, imparare a nuotare secondo le nuove regole. Ce lo impone una società che progredisce, un mercato del lavoro competitivo, un mondo in cui non c’è posto per chi non evolve. “L’evoluzione non conosce la retromarcia”, scrive Boris Cyrulnik, noto neuropsichiatra francese. E quindi, è arrivato il momento di metterci al passo e capire come fare un buon uso dell’AI nel processo di scrittura – e pubblicazione – scientifica.
L’AI come strumento di supporto alla produttività
La scrittura scientifica è un processo meticoloso, che richiede chiarezza espositiva, cura dei dettagli e un notevole investimento di tempo. Inevitabilmente, l’AI ha trovato terreno fertile nei centri di ricerca, dove ricercatori, medici e scienziati necessitano quotidianamente di strumenti in grado di velocizzare la stesura dei manoscritti, aumentando l’efficienza produttiva senza che ne vanga sacrificata la qualità.
L’adozione – e soprattutto la crescita vertiginosa – dell’utilizzo di questi strumenti ha portato, immancabilmente, le riviste scientifiche ad interrogarsi sull’impatto dell’AI sulla scienza, trovandosi costrette a sviluppare delle politiche che ne regolassero l’utilizzo. Tali decisioni sono state guidate da ragionevoli preoccupazioni dell’editoria scientifica, quali la facilità di produzione degli articoli, che ne comprometterebbe la qualità, il rischio di violazione della riservatezza e gli aspetti relativi all’originalità e alla paternità del manoscritto.
Le politiche editoriali: tra divieti e integrazione
Sebbene tali questioni interessino globalmente il mondo dell’editoria scientifica, non tutte le riviste hanno la stessa opinione e, pertanto, non esistono ancora delle linee guida universalmente condivise. Alcune riviste, infatti, accolgono favorevolmente l’AI, sostenendo che l’obiettivo degli scienziati non sia scrivere, bensì fare ricerca. Altre, invece, adottano un atteggiamento più difensivo, introducendo misure di controllo come rilevatori di AI, nel tentativo di “scovare” gli autori che ne fanno uso durante la stesura dei manoscritti.
Tuttavia, di fronte a un fenomeno ormai così diffuso, appare poco realistico pensare a strategie di lotta all’utilizzo dell’AI, che difficilmente si evolveranno in un trionfo, anzi; forse, rischierebbero di precludere anche ogni possibilità di integrazione costruttiva. Peraltro, i rilevatori di AI attualmente disponibili sono ancora poco affidabili e incapaci di stabilire con certezza la paternità dei manoscritti, comportando, altresì, il rischio concreto di respingere lavori di buona qualità, potenzialmente rilevanti per la salute pubblica.
Numerose riviste stanno, pertanto, reagendo con politiche di integrazione. Elsevier, ad esempio, consente l’utilizzo dell’AI esclusivamente per migliorare la leggibilità del testo e il linguaggio, a patto che vi sia una supervisione e un controllo umano, che eventuali errori vengano corretti, e che l’AI non venga elencata tra gli autori, ma che ne venga dichiarato l’utilizzo. La rivista Science, che inizialmente si era distinta per le sue politiche di divieto sull’utilizzo dell’AI, oggi condivide politiche simili a quelle di Elsevier, obbligando gli autori a dichiarare l’uso dell’AI in varie parti del manoscritto, incluse la cover letter, la sezione dei ringraziamenti e la sezione dei Methods, nei quali è obbligatorio riportare il prompt utilizzato per generare il contenuto, lo strumento di AI impiegato e la sua versione, riservandosi, tuttavia, il diritto di rifiutare se, in accordo al loro giudizio, l’AI sia stata utilizzata in maniera non consona.
Politiche più stringenti sono state, invece, adottate in ambito peer-review. Diversi editori scientifici, tra cui Elsevier, Taylor & Francis e IOP Publishing, hanno esplicitamente vietato l’inserimento di manoscritti e/o di sezioni di testo nelle piattaforme di AI per produrre reports di peer-review, scongiurando, in tal modo, il rischio di utilizzo dei contenuti per l’addestramento del modello linguistico, circostanza che violerebbe i termini di riservatezza previsti nei contratti editoriali.
Sebbene le principali preoccupazioni degli editori riguardino gli aspetti etici e la possibile diffusione di una ricerca di scarsa qualità, secondo un sondaggio condotto da Nature, il motivo principale per cui gli autori ricorrono a strumenti di AI non è la generazione di interi contenuti, bensì il miglioramento del linguaggio, soprattutto nel caso di ricercatori non madrelingua inglese che, come riportato da un recente articolo pubblicato su PLOS Biology, ricevono un numero di rifiuti editoriali per problemi linguistici pari al doppio rispetto ai colleghi anglofoni.
Nonostante lo scopo dell’utilizzo dell’AI sia prevalentemente linguistico – peraltro largamente accettato da buona parte delle riviste – permane il fenomeno di omissione di tale informazione, verosimilmente per timore del pregiudizio e del rifiuto editoriale. Forse, un atteggiamento meno stigmatizzante da parte dell’editoria scientifica nei confronti dell’AI potrebbe favorire una maggiore trasparenza da parte degli autori, che si sentirebbero così più liberi di dichiararne apertamente l’utilizzo.
Conclusione: verso un’integrazione consapevole e responsabile
In conclusione e alla luce di tutte queste considerazioni, è auspicabile un’integrazione consapevole dell’AI da parte dell’editoria scientifica che, unita al senso di responsabilità degli autori, potrebbe essere la strada per trovare un punto di equilibrio tra il mondo dell’AI e una comunicazione scientifica trasparente, rigorosa ed eticamente corretta.
Fonti:
- Conroy G. How ChatGPT and other AI tools could disrupt scientific publishing. Nature. 2023;622(7982):234-236. doi:10.1038/d41586-023-03144-w
- Cooperman SR, Brandão RA. AI assistance with scientific writing: Possibilities, pitfalls, and ethical considerations. Foot & Ankle Surgery: Techniques, Reports & Cases. 2024;4(1):100350. doi:10.1016/j.fastrc.2023.100350
- Amano T, Ramírez-Castañeda V, Berdejo-Espinola V, et al. The manifold costs of being a non-native English speaker in science. Dirnagl U, ed. PLoS Biol. 2023;21(7):e3002184. doi:10.1371/journal.pbio.3002184