L'utilisation d'outils d'IA tels que ChatGPT dans les publications scientifiques a suscité des inquiétudes quant aux pratiques frauduleuses, avec des exemples d'illustrations trompeuses et de formulations suspectes. Si ces outils peuvent être utiles pour la création de contenu et la traduction, les récentes rétractations de revues ont mis en évidence des pratiques malhonnêtes. La pression exercée pour produire davantage d'articles a conduit à l'augmentation des publications de mauvaise qualité, plagiées ou falsifiées par des "usines à articles", exacerbées par la technologie de l'IA. Les efforts déployés pour résoudre ce problème comprennent la mise en place de services de détection, mais les cas de plagiat et de republication de travaux plagiés persistent. 60 articles : Andrew Gray, bibliothécaire au sein de l'University College de Londres, a ainsi épluché des millions d'articles scientifiques à la recherche de mots tels que "méticuleux", "complexe", ou "louable", souvent sur-utilisés par l'IA. ==Selon lui, au moins 60.000 articles auraient été produits avec l'IA en 2023, soit 1% de la production annuelle, et l'année 2024 devrait marquer une "augmentation significative" de ces chiffres==. Quant à l'association américaine Retraction Watch, elle a observé un record de 13.000 rétractations d'articles dans le domaine scientifique en 2023, du jamais vu.