摘要
人工智能(AI)正日益融入学术出版生态系统,支持文献发现、抄袭检测、诚信检查和编辑工作流程。然而,许多大学、资助机构和期刊现已明确立场:任何AI参与生成、重写、改写或“润色”稿件语言的行为均视为内容创作且不被允许。作者身份必须完全由人类承担,作者对其提交的每一个字负责。
本文解释了研究人员如何在遵守严格禁止基于AI的语言校正或起草的政策的同时,伦理地使用AI工具。“可做”部分侧重于安全应用——如搜索支持、合规和抄袭筛查以及高级期刊发现——始终由人类验证和控制。“不可做”部分强调会损害学术诚信的做法,包括AI撰写的文本、AI润色的文章、伪造参考文献、数据操纵和未披露的AI协助。
通过遵循这些指南,作者可以将AI作为辅助技术工具受益,而不让其影响作品的智力或语言内容。在这种模式下,AI可以帮助研究人员导航信息和检查格式要求,但只有人类学者可以撰写、修改并拥有学术文本本身。
📖 全文文章 (点击收起)
在不允许语言润色的情况下使用AI进行学术出版:注意事项
介绍
人工智能工具已广泛提供给研究人员,能够快速协助从关键词建议到相似性检查的各种任务。与此同时,大学和出版商已通过明确学术工作中允许和不允许的内容作出回应。越来越多的政策将任何AI生成、改写或AI“润色”的文本视为未经授权的内容创作。换句话说,如果AI涉及句子的措辞,该句子可能被视为AI撰写,因此不可接受。
这一严格立场可能会让那些认为仅用 AI 进行“润色”或“修改”无害的研究人员感到惊讶。然而,从学术诚信的角度看,语言是智力成果的一部分:用词、结构和细微差别都贡献于学术文本的原创性。允许 AI 重写或改进句子模糊了人类作者身份与机器生成内容之间的界限。
本文解释了如何安全地应对这一环境。它概述了 不涉及语言创作或修改的 AI 允许用途,如发现支持和合规检查,并详细说明了必须避免的做法,包括 AI 起草、重写和翻译手稿内容。目标是展示 AI 如何保持在出版过程的技术边缘,而作者则完全负责其作品中的语言和思想。
应做事项:不触及文本的伦理 AI 使用
1. 使用 AI 进行搜索和发现,而非写作
AI 可以在信息繁杂的环境中作为有用的导航辅助工具。在严格禁止语言润色的政策范围内,AI 工具仍可用于:
- 建议用于数据库搜索的 关键词和主题词;
- 提出您可以独立探索的 相关主题或概念;
- 生成 潜在搜索查询列表,以供传统学术数据库使用。
然而,一旦您找到了相关来源,阅读、做笔记和总结必须由您完成。AI 不应生成您随后重复使用的书面笔记、释义或文本。最安全的方法是将 AI 视为搜索阶段的 方向指示牌,而非为您的项目生成任何语言内容的工具。
2. 使用 AI 进行抄袭和相似性筛查
抄袭检测和相似性分析是广泛接受且符合政策的 AI 应用。这些系统分析您已写好的手稿并 报告与已发表作品的重叠模式;它们本身不生成或修改语言。
负责任的做法包括:
- 将您完成的草稿通过 iThenticate 或 Turnitin 等工具进行检测(在您的机构允许的情况下);
- 审查被标记的段落并亲自手动重写,以确保真正的释义和正确的引用;
- 检查重复使用的材料(例如,您自己早期的出版物)是否根据期刊和机构政策明确引用和合理说明。
在此工作流程中,AI 纯粹作为一种 诊断工具。只有您,作为作者,才会根据其报告重写和修改文本。
3. 使用AI进行结构和行政检查
一些基于AI的系统可以帮助验证手稿和投稿的非语言方面。只要不重写句子,这些用途即使在严格的“禁止语言更改”政策下也可合规。例如,AI可以协助:
- 检查是否包含所有必需部分(摘要、方法、资金、伦理等);
- 检测缺失元素,如数据可用性声明或利益冲突披露;
- 标记编号不一致(例如,图表引用)或缺失标题;
- 验证手稿文件是否符合基本的技术格式参数(文件类型、字符数、图表数量)。
这些工具报告结构性问题;作者必须使用自己的措辞和格式手动修正手稿。
4. 谨慎使用AI进行期刊发现
AI驱动的期刊推荐工具分析主题、关键词和参考文献,以建议潜在合适的期刊。当禁止语言生成和编辑时,只要您将其视为建议而非权威,这些工具仍然有用。
伦理使用包括:
- 使用AI建议创建候选期刊初步名单以便进一步调查;
- 手动检查每个期刊的宗旨、范围、索引状态和出版商声誉;
- 在决定投稿地点前咨询导师或资深同事。
期刊查找工具绝不应取代人工判断。它们是起点,而非投稿指令。
5. 披露任何非文本的AI辅助
即使您不让AI处理语言,许多出版商现在也鼓励或要求对任何AI参与保持透明。如果您使用了AI工具进行相似性检查、结构合规筛查或高级发现,明确说明这是良好做法。
例如,在致谢或专门的“AI使用”声明中,您可以写:
“作者使用iThenticate进行相似性筛查,并使用自动期刊发现工具初步探索潜在的发表渠道。所有写作、分析和最终期刊选择决策均由作者完成。”
此类声明让编辑和读者放心,AI未对手稿的内容或语言做出贡献。
禁忌:被视为AI内容创作的做法
1. 不要使用 AI 起草、重写或“润色”手稿文本
根据当前政策的严格解读,任何 AI 参与学术文本措辞的形成都被视为内容创作,因此不被允许。这包括:
- 让 AI 撰写段落、章节或整篇手稿;
- 将您的文本粘贴到 AI 工具中以“改进措辞”、“润色语言”或“使其更学术化”,然后使用输出;
- 使用 AI 改写或重述您自己或他人作品中的段落。
即使您只审查并接受部分建议的更改,生成的语言也不再完全属于您自己。从诚信角度看,这破坏了作者对思想和表达均负责任的原则。
2. 不要使用 AI 翻译手稿内容
机器翻译是一种语言生成形式。如果您用一种语言起草手稿并使用 AI 将其翻译成投稿语言,最终文本的很大一部分将是机器生成的。在严格政策下,这被视为 AI 创作的语言,因此不被允许。
如果需要翻译支持,机构越来越推荐:
- 与了解该领域的人类译者合作;
- 使用由主题专家组成的专业语言编辑服务;
- 确保您审查并批准每一处更改,同时保持您的知识意图。
3. 不要依赖 AI 来生成您文本中使用的内容摘要
AI 生成的摘要可能以要点或短段落形式出现。如果您随后将这些 AI 摘要整合到自己的写作中——即使经过轻微编辑——它们也成为手稿内容的一部分。在禁止 AI 创作语言的规则下,这是不可接受的。
相反,您应该:
- 亲自阅读每个来源,并用您自己的话制作笔记;
- 根据您的理解起草摘要,避免复制 AI 输出的措辞;
- 将任何 AI 生成的摘要视为不可用的提示,而非可用于发表的文本。
4. 不允许 AI 生成参考文献、引文或数据
众所周知,AI 会发明听起来合理但实际上错误的参考文献,也可能生成看似真实但没有实际观测依据的合成数据集。在手稿中使用这些输出是明显的学术不端行为。
避免:
- 让 AI “提供 X 的参考文献”,然后将其复制到您的参考书目中;
- 使用 AI 填补不完整参考文献的空白,而不是查阅原始资料;
- 使用 AI 生成来创建或“增强”数据表、图表或统计数据。
所有参考文献应来自经过验证的学术数据库或您已查阅的文献。所有数据应来源于您能够完整记录和辩护的实际研究方法。
5. 不要隐瞒 AI 参与——即使看似微不足道
一些研究人员倾向于悄悄使用 AI 进行“微小调整”,并认为无需披露。然而,在严格政策下,问题不仅在于规模,更在于协助的类型。如果 AI 生成或重写了句子,则视为内容创作,声称未使用 AI 会产生误导。
为保持透明:
- 如果 AI 参与了任何措辞,不要声称手稿完全由人类撰写;
- 不要在重新提交前秘密使用 AI 修改被拒论文;
- 如果您之前以现在被禁止的方式使用过 AI,请在重复使用该文本前寻求机构指导。
在严格政策下工作:实用建议
对于许多研究人员来说,完全禁止 AI 语言润色感觉限制较大,尤其是对非母语者而言。然而,遵守规定至关重要。一些实用策略包括:
- 投资于自身写作技能:参加学术写作课程,学习风格指南,阅读本领域高质量论文。
- 利用人工支持:与写作能力强的合著者合作,或在允许的情况下使用专业人工编辑和校对服务。
- 为修订预留额外时间:没有 AI 重写,起草和润色可能需要更长时间——请将此纳入您的时间安排。
- 明确本地规则:仔细阅读您所在机构和目标期刊的 AI 政策,如有不清楚之处请寻求澄清。
结论
AI 将继续影响学术出版,但严格的政策日益划定了明确界限:AI 可以协助技术检查和发现,但不得影响研究手稿的语言或实质内容。根据这些规则,即使是自动化的“语言润色”也被视为内容创作,因此不被允许。
研究人员最安全的做法是将 AI 视为背景工具——用于相似性筛查、结构检查和探索性期刊发现——同时将所有阅读、思考、写作和重写牢牢掌握在人类手中。明确了解本文所述的注意事项,作者可以在不损害原创性、责任感和定义真正学术工作的诚信的前提下,受益于现代工具。