观点

评论 | 第一作者?AI?

作者:郑森

发布时间:2026-02-13 09:23:48

来源:群众新闻

最近,一场“论文第一作者必须是AI”的征文活动,引发学界和社会广泛讨论。支持者认为这是一次直面现实的大胆尝试,反对者则担忧学术伦理被颠覆、人的主体性被削弱。争论背后,折射出的并非“要不要用AI”,而是一个更为根本的问题——我们究竟该如何用好AI。

必须承认,人工智能已深度介入科研与教育实践。从资料检索、文献综述到数据处理、写作辅助,AI正在成为不少研究者和学生的“默认工具”。在这种背景下,回避、禁止、装作看不见,只会让AI在灰色地带被滥用、被误用。正是在这一现实压力下,有高校尝试搭建“可控的实验场”,将AI使用从“地下操作”推到“阳光之下”,通过明确规则、过程记录和责任划分,探索人机协作的新边界。这种探索的价值,并不在于“让AI当第一作者”本身,而在于倒逼我们重新回答三个长期被忽略的问题:谁在思考?谁在判断?谁在负责?

如果把AI简单理解为“代写工具”,那么无论署名规则如何变化,最终都会滑向“偷懒式使用”。但从实践看,真正有价值的研究恰恰相反:AI越深度参与,人反而越不能缺席。研究问题的提出、理论视角的选择、关键材料的取舍、结论的价值判断,这些核心环节,依然高度依赖人的专业积累和判断能力。AI可以快速生成“样稿”,却无法替代对现实的洞察、对因果的追问,更无法承担学术伦理责任。因此,当AI被定位为合作者、助理者、加速器,而不是“替身作者”,人机协作才能真正释放潜力。

传统评价体系往往将“原创性”简单等同于个人投入的时间和精力,而在智能时代,机器可以分担大量重复性劳动,评价重心理应转向更高层次的能力——提出好问题的能力、整合知识的能力、判断价值与风险的能力。这恰恰是未来人才的核心竞争力。因此,与其纠结“AI能不能当第一作者”,不如把注意力放在更重要的方向:建立清晰、可操作的人机协作规范。只有规则透明、过程可追溯、责任可落实,AI才能真正服务学术进步,而非侵蚀其根基。

从更宏观的层面看,这也是一堂关于技术治理的现实课。人工智能的发展速度远快于制度更迭,如果不主动探索规范路径,技术只会以“事实标准”倒逼社会被动适应。通过有限、可控的制度实验,提前暴露问题、校准方向,恰恰是负责任的做法。

归根到底,AI不是来取代人的,而是来重新定义“人该做什么”。在创造性、价值判断和意义建构这些领域,人类依然不可替代。真正需要警惕的,不是AI变得越来越强,而是人在便利中逐渐放弃思考。(郑森)

责任编辑:赵天

更多资讯,下载群众新闻

群众新闻网版权所有 未经书面授权不得复制或建立镜像

Copyright © 2012-2026 by www.sxdaily.com.cn. all rights reserved