在人工智能技术的迅猛发展背景下,国内外各家互联网巨头和独角兽企业争先恐后入场布局,涌现了一大波生成式人工智能大模型平台,并不断迭代更新。这些工具不仅具备基本的交流对话能力,还拓展至科研和学术等复杂任务,其在教育与科研领域展现出了巨大的潜力。然而,如何合理运用生成式人工智能技术,规避其可能引发的负面效应,尤其是学术伦理的失范问题,已成为高等教育领域亟需解决的紧迫议题。基层研究生教育管理者面临着前所未有的挑战与隐忧,必须审慎考虑在充分利用人工智能技术带来的便利的同时,如何在维护学术诚信和伦理规范。
有鉴于此,在研究生院研究生工作秘书沙龙项目的支持下,传播学院研究生工作秘书许超妍组织了“生成式人工智能的合理使用引导与学术规范管理——基于研究生基层管理者视角”的沙龙活动,邀请了美术学院、音乐学院、历史学系、哲学系、政治与国际关系学院、马克思主义学院、地理科学学院、生态与环境科学学院、生命科学学院、药学院、医学与健康研究院等十余家学院的20余位研究生工作秘书参与。
活动伊始,许超妍介绍本次活动主题的确立背景,并用PPT展示了生成式人工智能在高校的应用——这份PPT仅提供了主题,而框架、内容和排版则完全由人工智能独立完成。与会老师们对生成式人工智能技术概况以及在高校的应用情况有了基本了解,更惊叹于AI制作PPT的丰富内容、先进技术和便捷操作。
PPT部分截图
随后,许超妍基于研究生基层管理人员的视角,结合相关工作实践,分享了当前AIGC对学术诚信规范管理的新挑战。首先是原创性以及由此引发的版权问题。生成式人工智能更在学习归纳已有数据后进行演绎创造,生成全新内容,这使得原本我们所依赖的查重工具变得束手无策,而新的检测平台的可靠性和是否能跟上AI技术的迭代仍有待商榷。其次是真实可靠性存疑。当前人工智能技术的数据源未知的合法性和可靠性,引发人们对结论真实性的怀疑,但却不易甄别——AIGC可能会生成看似合理实则虚假的内容,甚至比人类撰写的内容更加细节和有说服力。第三是合理使用的边界尚待明晰。鼓励学生积极拥抱人工智能技术是大势所趋,但无论对教师还是学生而言,“合理使用”的定义和边界尚待明晰。而倘若对此产生过多限制,似乎又与技术发展革新的趋势背道而驰。
在AI技术汹涌漫入高校教育科研领域之际,如何引导教育研究生合理使用生成式人工智能工具,一旦发现疑似使用如何判定处理,是每位基层的研究生培养管理者面临的课题。许超妍展示了当前我国对于AIGC合理使用的部分规定。
2023年12月,科技部发布《负责任研究行为规范指引(2023)》,对如何依规合理使用生成式人工智能(AIGC)作出具体指引。2024年毕业季期间多所高校发文规范学生毕业论文中使用AI,多所学校表示将在本科毕业生毕业论文审核过程中试行加入对文章使用生成式AI风险情况的检测,部分高校约定了使用范围与比例。华东师范大学传播学院与北京师范大学新闻传播学院也联合发布《生成式人工智能学生使用指南》,学生在符合学术诚信的前提下,可根据自身学业需要规范地使用AIGC,但直接生成的内容不能超过全文的20%。而复旦大学在2024年11月发文规范毕业论文AI使用,明确提出“六个禁止”,被称为“最严AI新规”,引发了不少争议。
随后,在场的研究生秘书们纷纷分享了自己工作中所遇到的学生使用AI的情况,以及所面临的管理上的挑战与困惑。大家一致认为,合理使用指南已见雏形,但“合理使用”的广泛共识,及其落地应用仍任重道远。