随着生成式人工智能(GenAI)和大语言模型(LLMs)迅猛发展,如何在科研实践中高效且负责任地运用 AI 工具,成为全球学术界关注的焦点。近期,中国科学技术大学心理学系特任研究员林志成课题组在国际顶尖期刊发表三篇论文,从学术写作、学术出版政策框架以及科研伦理策略等维度,深入探讨 AI 在学术界的应用,为规范与高效应用 AI 提供了有力指导。
2024 年 3 月 18 日,林志成在《自然生物医学工程》(5 年影响因子 29.2,生物医学工程杂志排名第一)发表文章 “Techniques for supercharging academic writing with generative AI” ,提出一套基于大语言模型提升学术写作效率与质量的新策略和框架。该研究构建了与 AI 短期、长期协作的写作框架,阐述利用 “认知卸载”(借助 AI 减轻研究者认知负担)和 “想象力激发” 等策略提升写作效率的方法。文章提出通过创意生成与内容完善两个阶段,利用 AI 优化写作的框架,并提供从基础编辑到原创生成的五个层级提示,助力研究人员高效使用 AI 工具。林志成指出,生成式 AI 不仅可作为写作协作者,还能激发创造力,使写作过程更高效有趣,但研究人员需对 AI 生成内容进行事实核查,遵循学术伦理与披露要求。
2024 年 1 月 8 日,林志成在《Trends in Cognitive Sciences》(5 年影响因子 21.8;行为科学杂志排名第一、神经科学排名第三)发表文章 “Towards an AI policy framework in scholarly publishing” ,深入剖析主要学术出版机构的 AI 使用政策。他发现这些政策差异显著,易使研究人员产生困惑,进而影响科研结果的可重复性。为此,林志成提出规范 AI 使用的政策框架,旨在推动 AI 在学术领域的负责任应用,提升使用透明度。该框架涵盖清晰的披露指南,即作者使用 AI 进行超出常规编辑工作时,需披露所用 AI 工具、版本及用途;统一的报告标准,为作者和审稿人提供详细记录 AI 使用情况的模板;聚焦实际应用,鼓励研究人员在遵守伦理规范的前提下充分利用 AI 工具。林志成认为,过于严格的政策可能使研究人员在披露 AI 使用时有所顾虑,影响研究透明性,而实用指南能确保 AI 成为科研的有益工具。
2024 年 10 月 8 日,林志成在《AI and Ethics》发表文章 “Beyond principlism: practical strategies for ethical AI use in research practices” ,首次提出并剖析科研实践中 AI 应用面临的 “Triple - Too” 困境,即高层次伦理框架过多、伦理原则过于抽象、对 AI 风险关注过度,这些问题导致现有伦理讨论与科研实际应用脱节,给科研人员带来困惑。文章提出五项实践策略,构建更贴合科研需求的伦理框架:一是理解模型训练与输出的不确定性,深入了解 LLMs 训练过程、偏差及输出的不确定性,避免盲目依赖;二是尊重隐私与数据安全,通过数据匿名化和加密措施,确保 AI 使用符合法规;三是防范剽窃与政策违规,透明披露生成式 AI 使用情况,避免不当引用或隐性使用,维护科研诚信;四是结合实际需求进行比较性应用,对比 AI 工具与传统方法,确保其在具体科研场景中的实际效益;五是增强透明度与可重复性,详细记录 AI 工具使用过程,提升研究透明性与可重复性。林志成表示,尽管生成式 AI 潜力巨大,但缺乏实用指导会阻碍其在科研中的应用,希望通过这些策略,在保障伦理的前提下,推动生成式 AI 助力科研发展。
林志成团队的研究从写作实践、政策制定到伦理规范,全方位构建 AI 在学术界的应用框架,推动 AI 在学术研究与出版中的规范化、负责任使用,为研究人员克服语言与技术障碍、提升科研成果传播效率提供帮助,也为学术机构、期刊编辑部和监管部门制定 AI 使用规范提供重要参考 。


