« Vous acceptez et convenez que toute utilisation des données de sortie de notre service se fait à vos risques et périls et que vous ne considérerez pas les données de sortie comme une source unique de vérité ou d'informations factuelles, ni comme un substitut à des conseils professionnels. »
Généralement, les éditeurs n'acceptent pas les grands modèles de langage (= large language models, LLM) comme auteurs d'un article de recherche. De plus, ils mentionnent dans leurs politiques les façons acceptées de les utiliser et demandent que l'utilisation des outils d'IA soit divulguée.
*Notez que ces conseils ne s'appliquent pas aux outils de base permettant de vérifier la grammaire, l'orthographe, les références, etc.
« Les grands modèles de langage (LLM), tels que ChatGPT, ne sont pas conformes à nos critères pour les auteurs. Notamment, cela implique la responsabilité du travail, ce qui ne s'applique pas aux LLM. L'utilisation d'un LLM doit être correctement documentée dans la section Méthodes (et si une section Méthodes n'est pas disponible, dans une autre section appropriée) du manuscrit. L'utilisation d'un LLM (ou d'un autre outil d'IA) à des fins de « révision assistée par l'IA » ne doit pas être déclarée [...] Ces améliorations assistées par l'IA peuvent inclure des changements de formulation et de formatage des textes, mais n'incluent pas le travail éditorial génératif et la création autonome de contenu. Dans tous les cas, il doit y avoir une responsabilité humaine pour la version finale du texte et l'accord des auteurs que les modifications reflètent leur travail original. » (Traduit à partir de Source)
● IEEE
« L'utilisation de contenu généré par l'intelligence artificielle (IA) dans un article (y compris, mais sans s'y limiter, le texte, les figures, les images et le code) doit être divulguée dans la section des remerciements de tout article soumis à une publication d'IEEE. L'outil d'IA utilisé doit être identifié, et les sections spécifiques de l'article qui utilisent du contenu généré par l'IA doivent être identifiées et accompagnées d'une brève explication concernant le niveau auquel l'outil d'IA a été utilisé pour générer le contenu. L'utilisation des outils d'IA pour l'édition et l'amélioration de la grammaire est une pratique courante et, en tant que telle, n'entre généralement pas dans le cadre de la politique susmentionnée. Dans ce cas, il est recommandé de divulguer l'information comme indiqué ci-dessus. » (Traduit à partir de Source)
● Elsevier
« Lorsque les auteurs utilisent l'IA générative et les technologies assistées par l'IA dans le processus de rédaction, ces technologies ne doivent être utilisées que pour améliorer la lisibilité et la langue de l'œuvre. [...] Les auteurs sont responsables en dernier ressort du contenu de l'ouvrage. » (Traduit à partir de Source)
● arXiv
« En signant leur nom en tant qu'auteur d'un article, les auteurs assument individuellement l'entière responsabilité de l'ensemble de son contenu, quelle que soit la manière dont celui-ci a été généré. Si des outils d'IA générative génèrent du langage inapproprié, du contenu plagié ou biaisé, des erreurs, des références incorrectes ou du contenu trompeur, et que ce résultat est inclus dans des travaux scientifiques, la responsabilité est assumée par les auteurs. » (Traduit à partir de Source)
● Autres éditeurs : Wiley, PLOS ONE, Taylor & Francis.
Pour les raisons mentionnées ci-contre, même si APA propose une façon de citer les réponses de ChatGPT, nous vous recommandons de ne pas créer de citation et de référence pour les réponses de ChatGPT (ou d'autres outils d'IA) et de mentionner dans votre texte comment vous l'avez utilisé.
Par exemple, un étudiant pourrait écrire :
Ne créez pas de citation OpenAI (2024) (pour APA) et [X] (pour IEEE) dans le texte et de référence dans la liste des références!
Demandez à votre professeur ou professeure s'il est permis d'utiliser un outil d'IA pour vos travaux, projets, rapports, etc. et dans quelles conditions.
« Malgré des progrès rapides, les outils d'IA générative présentent des limites considérables : ils peuvent manquer de connaissances à jour et produire des informations absurdes, biaisées ou fausses. Les manuscrits peuvent également inclure des informations sensibles ou propriétaires qui ne devraient pas être partagées en dehors du processus d'évaluation par les pairs. Pour ces raisons, nous demandons que, tandis que Springer Nature explore la possibilité de fournir à nos pairs évaluateurs un accès à des outils d'IA sûrs, les pairs évaluateurs ne téléchargent pas de manuscrits dans des outils d'IA générative. »
● Elsevier
« Les technologies d'IA générative ou assistée par l'IA ne doivent pas être utilisées par les évaluateurs pour aider à l'évaluation scientifique d'un article, car la pensée critique et l'évaluation originale nécessaires sortent du cadre de cette technologie et il existe un risque que la technologie génère des conclusions incorrectes, incomplètes ou biaisées sur le manuscrit. L'évaluateur est responsable du contenu du rapport d'évaluation. »
● Wiley
« Les éditeurs ou les évaluateurs ne doivent pas télécharger de manuscrits (ou toute partie de manuscrits, y compris les figures et les tableaux) dans les outils ou services GenAI. Les outils GenAI peuvent utiliser les données d'entrée à des fins de training ou autres, ce qui pourrait violer la confidentialité du processus d'évaluation par les pairs, la vie privée des auteurs et des évaluateurs, et le droit d'auteur du manuscrit en cours d'évaluation. »