Charlesworth 官方博客分享 http://blog.sciencenet.cn/u/Charlesworth

博文

AI写作新规范:学术出版指南 精选

已有 147289 次阅读 2024-3-15 09:41 |个人分类:文章发表|系统分类:科研笔记

随着人工智能(AI)的演进,快节奏的技术世界见证了前所未有的增长。随着OpenAI的ChatGPT的出现,学术出版的格局正在发生深刻的转变。



学术出版中的AI

AI的快速演进促使学术界审查与之相关的伦理威胁,并制定指南以负责任地利用其潜力。AI正在被用于学术出版领域的摘要生成、建议改进、同行评审辅助、剽窃检测等。然而,这引发了与AI算法偏见、伦理考虑以及对同行评审等关键过程的潜在影响相关的担忧和挑战。这些AI技术的演变要求研究人员、出版商和机构适应这些变化。知名出版商和期刊正在制定具体的指南,以在使用AI工具和保持学术工作完整性之间取得平衡。



期刊制定的指南

一些领先的期刊已经建立了特定的指南,以解决与透明度、问责和伦理考虑相关的担忧。出版伦理委员会(COPE)已经宣布,大型语言模型(LLM)和人工智能工具不能被列为论文的作者,因为它们无法满足作者要求或管理版权和许可协议。在手稿写作、图像创建或数据收集和分析中使用人工智能工具的作者需要在论文的材料和方法部分透明地披露其使用情况。此外,作者仍然对他们手稿的内容负有完全的责任,包括由人工智能工具生成的部分,并对任何违反出版伦理的行为负责。


然而,随着人工智能领域的快速发展,这些政策将定期审查和更新,以与最新的发展保持一致。研究人员、作者和同行评审人员应该了解这些指南,并为将人工智能负责任地整合到学术交流中做出贡献。



学术团体和大学指导方针的影响

学术团体和机构是塑造学术出版中围绕人工智能的法规的重要利益相关者。他们参与定义伦理标准和确保负责任的人工智能使用,为社区构建了一个有凝聚力的框架。他们不仅帮助积极制定指导方针,不仅有助于负责任地实施人工智能,而且还为研究人员提供教育工具。学会和学术机构之间的合作努力有助于在出版和伦理考虑之间取得平衡。



人工智能检测工具和风险

人工智能检测工具的出现为学术出版引入了额外的审查层。这些工具在识别潜在的伦理疏漏、剽窃和数据操纵方面发挥着至关重要的作用。然而,这些工具中与假阳性相关的风险和潜在的偏见强调了仔细考虑和不断改进的必要性。



同行评审中的争议

在同行评审中使用ChatGPT等工具引发了学术界相当大的争议。美国国立卫生研究院(NIH)禁止在同行评审过程中使用ChatGPT,强调了细致入微的方法的必要性。同时,同行评审人员被要求不要将手稿上传到生成式人工智能工具中,如果任何人工智能工具支持了评估,则要求同行评审人员在评审报告中透明地声明其使用情况


随着人工智能的不断发展,解决同行评审过程中围绕偏见、透明度和问责制的担忧至关重要。生成式人工智能工具具有局限性,包括潜在的偏见和不准确性。




 随着我们穿越学术出版领域不断变化的人工智能景观,显而易见,一种警惕的方法是至关重要的。学术出版行业必须跟上发展,调整指南和政策,以在创新和伦理考虑之间取得平衡。研究人员、期刊、协会和机构必须合作,确保在学术写作和出版的每个阶段负责任和透明地整合人工智能。让我们保持警惕,在拥抱人工智能带来的机遇的同时,捍卫学术交流的诚信。



acc05969f586edee2ebf6ce9549e6b0.png

论文润色 | 英国编辑团队介绍





https://m.sciencenet.cn/blog-3201402-1425393.html

上一篇:撤稿信怎么写能保障作者的权益?(含模板)
下一篇:如何对抗学术中的Presenteeism?

1 崔锦华

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-4-28 02:52

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部