Science e Springer Nature, due importanti editori di riviste accademiche, hanno introdotto giovedì nuove regole sull’uso di strumenti di intelligenza artificiale generativa per scrivere articoli.

Il modello di linguaggio di grandi dimensioni può essere utilizzato per creare paragrafi di testo e può essere utilizzato per scrivere di scienza.

Gli accademici lo usano per scrivere i propri documenti di ricerca e alcuni arrivano persino a accreditare l’autore.

La rivista Science ha avvertito i ricercatori che se inviano manoscritti che sono stati prodotti utilizzando questi strumenti, stanno commettendo negligenza scientifica.

“Il testo generato dall’intelligenza artificiale, dall’apprendimento automatico o da strumenti algoritmici simili non può essere utilizzato in articoli pubblicati su riviste scientifiche, né le figure, le immagini o la grafica che lo accompagnano possono essere il prodotto di tali strumenti, senza l’esplicito permesso degli editori”, il suo editoriale stato delle politiche.

La rivista Nature ha introdotto regole simili, ma non accetterà alcun documento che elenchi il software come autore, ma non lo ha bandito completamente.

Nature ha affermato che l’introduzione o un’altra sezione appropriata può essere utilizzata per documentare l’uso del LLM se il documento non include queste sezioni.

Secondo il caporedattore di Science, tutti i documenti inviati devono essere il lavoro originale degli autori e quel contenuto prodotto dall’intelligenza artificiale è una forma di plagio.

Gli autori dell’articolo certificano di essere responsabili della ricerca nell’articolo.

Un sacco di testo generato dall’intelligenza artificiale potrebbe presto trovare la sua strada nella letteratura, e gli editori e i revisori dovrebbero essere vigili per individuare i segni che un articolo è stato scritto con l’aiuto dell’intelligenza artificiale.

Gli editori potrebbero avere difficoltà a far sì che i ricercatori si attengano alle loro politiche editoriali poiché non sembrano avere un modo per rilevare l’intelligenza artificiale.

È possibile che gli editori e gli editori rilevino il testo generato dagli LLM? Le riviste della famiglia Science sono aperte alla sperimentazione di strumenti che migliorano la nostra capacità di rilevare le frodi, che valutiamo caso per caso e che completano il lavoro dei nostri redattori per garantire che gli autori comprendano e aderiscano alle nostre linee guida per la pubblicazione e per condurre un rigoroso, multi-step.

You may also like

Leave a reply

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *