前言:
目前姐妹们对“为什么需要引注请选出您认为正确的答案”都比较关切,兄弟们都想要剖析一些“为什么需要引注请选出您认为正确的答案”的相关知识。那么小编同时在网上收集了一些对于“为什么需要引注请选出您认为正确的答案””的相关内容,希望小伙伴们能喜欢,小伙伴们一起来了解一下吧!视频加载中...
央视网消息(记者/杜安琪):近期,几起借助生成式AI写学术论文的事件引发关注:教授署名的论文中出现ChatGPT常用提示语,医生用AI制作论文插图疑似违反常识……网友评价“抄答案连名字都抄上了”“用AI之后不会检查一下吗”“医生自己不觉得图片离谱吗”,更有网友怀疑这属于造假、抄袭等学术不端行为。
“据了解,目前已经有学生在用AI,特别是生成式AI去写论文和课程作业了。不一定用的是ChatGPT,可能是一些其他中低端的生成式AI产品。”同济大学马克思主义学院副教授、博士生导师王少向《新闻+》记者表示。作为省部级和国家级学术不端治理研究项目的主持人,王少已经在ChatGPT与学术不端领域撰写多篇论文。“照目前的发展情况看,将AI作为辅助研究工具,很有可能会成为一个流行的趋势。”
用AI做学术,利弊并存
某高校法学院研究生张立清是AI的“轻度使用者”。“我一般用它来做检索,AI比网页检索更方便、快捷,而且更有效率。”张同学向记者表示,“当你想要去涉及一个新领域,比如了解从来没有研究过的东西,或者是你从来没听过的概念,可以让AI用简单的话讲给你。”
在尝试过AI的各种用法之后,张立清认为效果最好的是用AI做润色。“在写英文论文的时候,把文字输进去,让它帮你改成更加标准的英语,这个体验是非常好的。因为AI检索英文能力比较强,如果我的论文涉及国外的判例法等信息,我就会使用AI。目前,我认为AI的正面作用大于负面作用。”
不过,也有研究者并不看好生成式AI的功能。一年后即将从某高校博士毕业的杨佑宜表示,生成式AI对于要求较高的博士论文用途不大。“AI生成的内容比较浅显且准确率不高,会编造不存在的论文,或者把相同意思的内容反复去说。我2023年用过一次之后就没有再用过了”。
另一所高校在读本科生邬小涵也认为,用AI写论文有点大材小用了。“平时的作业主要是相对基础的思考和研究,比如一些思考题、主观题和1000字的小论文。自己查查资料、看看书就可以完成。”邬小涵说,“做学术的比较专业的人,或者未来在工作上可能会用得到。目前本科里面很少有同学用AI,我个人就没有用过。”
“生成式AI对于学术研究的影响,我觉得是利弊并存的。”王少表示,“对于推动创意完善,实现重复内容的大规模创造,生成式AI都具有极大的价值。这些工具在加深人与人工智能交互的同时,也会给学术研究等各种知识生产工作带来新的发展机遇。我们的学术研究人员,包括教师、学生,都可以从一些重复性的阅读和材料整理工作当中解放出来,从而将更多的时间放到创新之上。所以有利之处也是比较多的。”
但是,生成式AI的弊端同样很明显,比如它对学术不端治理造成了很大的冲击。王少介绍,学术不端通常是指违背学术伦理、科研诚信的行为,或者是侵害著作权、误导科研界的行为。从外延的角度看,经典的学术不端行为主要是“FFP”,也就是捏造、篡改和剽窃,此外,还有不当署名、重复发表、侵占他人研究成果、数据管理不善、未披露利益冲突等一些表现形式。
生成式AI会助长学术不端吗?
“在ChatGPT等生成式AI兴起之前,AI在学术研究中的主要功能是辅助,像辅助绘图、辅助整理文献等等。虽然也可能涉及学术不端,但总的来说风险不大。但是生成式AI,无论是ChatGPT还是GPT-4,都是以内容生产为核心功能,它直接指向论文撰写,这样就使得学术不端的风险增大了。”王少介绍。
王少认为,理论上,使用AI可能发生全部类型的学术不端行为,其中最可能的是剽窃和捏造。首先,AI产出的文本并不是他人未曾表达或未充分表达的观点,而是对于他人的观点做了一些统合梳理、归纳总结,然后以改头换面的方式表达出来而已,这就直接指向了剽窃。此外,现在的生成式AI有一个非常重要的功能——基于人类反馈的学习。AI通过反馈学习获得用户的思想内容,再向其他用户进行二次创作的时候,就有可能涉嫌剽窃先前使用者的思想。
“从捏造的角度来看,生成式AI在数据收集、处理和输出过程当中,存在一个幻觉效应。它生成的文本往往会出现编造错误的文献、出现错误的引注等问题。如果我们不加分辨地使用生成的内容,肯定会影响学术论文的真实性,降低学术论文的价值,产生一种捏造行为。”王少介绍。
生成式AI:只能是辅助工具
既然AI增加了学术不端的风险,是否应该在写论文时使用AI呢?王少表示:“一般来说,我们不应当直接使用AI写学术论文,这是不被接受的。因为在现有的技术条件和学术不端治理的政策框架之下,直接使用AI去撰写论文无法规避学术不端风险。”
王少介绍,目前对于AI所导致的学术不端,相关规范仍然不太健全。国际上通常是一些研究机构或期刊做出规定,比如《Science》杂志还有我国的一些期刊,都明确拒绝接受生成式AI撰写的论文。“有研究表明,人们很难辨别论文是否由AI撰写。美国北密歇根大学一位教授就曾读到一篇他认为‘全班最好的论文’,而这篇论文却是学生用ChatGPT生成的。”王少表示。
2023年7月,国家网信办联合国家发展改革委、教育部等七部门发布的《生成式人工智能服务管理暂行办法》,对提供和使用生成式AI服务进行了规定。这是目前我国规制生成式人工智能的主要规范。不过,王少指出,这些政策基本都没有提到生成式AI参与的学术不端问题。“当技术发展得更为完善之后,比如能够更准确地去分析文献信息数据的真伪,具有学术不端预警和追踪功能,可以获取所使用作品的部分著作权的时候,才可以有限地用于撰写学术论文。”王少表示。
王少表示:“目前我们只能将AI作为研究辅助工具,而不应该直接用于撰写论文。”他认为,学术论文一个非常重要的特点就是原创性和独创性。对于学术工作者来说,特别是一些年轻的学者和学生,论文写作是学术研究能力最核心的一环。如果把这一环交由AI去做,对于个人的学术的发展,对于整个学术事业的发展都是有害的。
不过,完全禁止使用AI也是一种因噎废食的做法。“我觉得面对这样一个新兴技术,我们既不能够忧惧、恐慌,也不能不假思索地敞开怀抱。一方面我们要积极去面对它,另一方面也要主动去防范它。在大学里可以开设一些相关的课程,不仅要教学生怎么去使用生成式AI,还要教会学生怎么用才是合理的、规范的,才是合乎学术伦理的。我觉得后面这一点可能更重要。”
张立清也支持在学术研究中合理地使用AI。“我觉得写论文并不是一件事情,它是一个过程。第一步肯定要先检索,先要去了解一下这个概念和背景知识。第二步是需要知道最近有哪些文章、研究成果可以看。然后第三步再去看,再去整合。”张立清说,“我认为,使用AI可能在第三步、第四步的效果并不是很好,但是在第一步、第二步,在检索阶段可以给我们提供很多参考,节省一些时间。”
(应受访者要求,文中张立清、杨佑宜、邬小涵皆为化名)