L’uso di strumenti di intelligenza artificiale (AI) come ChatGPT o Large Language Models nelle pubblicazioni di ricerca è in rapida espansione, tanto che da circa due mesi è in corso su importanti riviste scientifiche internazionali un vivace dibattito sul futuro di questi mezzi e sul loro significato. Il COPE, Committee on Publication Ethics, si unisce a organizzazioni come WAME e JAMA Network per affermare che gli strumenti di IA non possono essere indicati come autori di un articolo, e ha pubblicato a questo proposito un position statement.
Il breve documento, che prende le mosse da un articolo pubblicato su Nurse Education in Practice in cui ChatGPT compare come autore a cui sono seguite risposte come quella della rivista Nature, chiarisce che gli strumenti di intelligenza artificiale non possono soddisfare i requisiti di authorship, dal momento che non possono assumersi la responsabilità del lavoro pubblicato. In quanto entità non legali, non possono affermare la presenza o l’assenza di conflitti di interesse né gestire il copyright e gli accordi di licenza.
Gli autori che utilizzano strumenti di AI nella stesura di un manoscritto, nella produzione di immagini o di elementi grafici dell’articolo, o nella raccolta e analisi dei dati, devono essere trasparenti nell’indicare nella sezione dei materiali e metodi dell’articolo come è stato utilizzato lo strumento di AI e quale strumento è stato utilizzato. Gli autori sono pienamente responsabili del contenuto del loro manoscritto, anche delle parti prodotte da uno strumento di AI, e sono quindi responsabili di qualsiasi violazione dell’etica di pubblicazione.
Qui il Position Statement: https://publicationethics.org/cope-position-statements/ai-author
