高校论文AI检测频误判经典名作,学生“自证清白”陷困境

高校论文AI检测频误判经典名作,学生“自证清白”陷困境 多所高校将AI生成内容检测纳入毕业论文审核,但系统误判现象频发:朱自清《荷塘月色》被检出62.88% AI率,刘慈欣《三体》片段、《滕王阁序》甚至被判100% AI生成。学生反映原创内容常遭误标,被迫通过“替换同义词”“删减段落”等生硬方式降AI率,甚至付费寻求“代改”服务,反面临诈骗风险。 专家指出,当前AI检测技术依赖统计学比对,难以识别文本深层逻辑与情感,易将结构严谨的经典或学术论文误判为AI产物。中南大学学者提醒,检测结果仅应作参考,核心仍应评估论文原创性。部分高校已调整处理方式,对AI率超标者引导修改而非直接处罚。 《教育强国建设纲要》强调提升师生AI素养,多校增设人工智能必修课。舆论呼吁高校审慎优化检测标准,避免“工具凌驾于人”,同时警惕“用AI反AI”的黑色幽默。

相关推荐

封面图片

中国多所高校明确严查人工智能代写论文

中国多所高校明确严查人工智能代写论文 现在,2024届高校毕业生陆续进入论文答辩阶段,中国多地高校发表声明,明确将引入论文检测工具,严查AI代写论文的行为。今年1月,华北电力大学研究生院发布通知,明确该校将引入“AIGC检测服务系统”,对所有申请学位研究生的学位论文进行检测,抵制人工智能代写论文的行为。4月,湖北大学、福州大学、南京工业大学、天津科技大学等高校相继发布通知,称将在本科毕业生毕业论文审核过程中试行加入对文章使用生成式AI风险情况的检测。据了解,“AIGC检测服务系统”是以文本为检测对象,通过语言模式和语义逻辑等多个维度进行分析比对,区分人工创作的内容和AI模型生成的文本内容,从而进行监管和维护学术诚信,简单说就是“用AI查询AI”。

封面图片

毕业季临近,全国多所高校宣布将严查 AI 代写论文

毕业季临近,全国多所高校宣布将严查 AI 代写论文 据央视新闻报道,日前,多地高校声明将引入论文检测工具,严查 AI 代写论文行为。记者调查发现,目前有不少 AI 工具将“论文”作为主打模板,千字论文不到 1 分钟即可生成,最低价格为每次 2 毛钱。此外,AI 工具还存在引用文献不存在、引用数据有偏差等问题。 教育学者表示,AI 工具在一定程度上可以作为辅助,但在论文撰写等学术研究中,学生需端正态度,学校也应出台措施,避免 AI 工具滥用造成抄袭、剽窃等学术不端行为。 华北电力大学研究生院早在今年 1 月便发布公告:“论文应由本人撰写,禁止使用人工智能代写。”该校表示,学位论文或者实践成果存在抄袭、剽窃、伪造、数据造假、人工智能代写等学术不端行为的,经学位评定委员会审议决定,由学位授予单位撤销学位证书。 此外,福州大学教务处也发布通知,杜绝人工智能代写、剽窃、伪造等学术不端行为,加强对毕业设计(论文)质量监控与管理,学校研究决定应用“维普 AIGC 检测系统”对 2024 届本科生毕业设计(论文)进行答辩前定稿和答辩后终稿进行 AIGC 检测。来源 , 频道:@kejiqu 群组:@kejiquchat

封面图片

多所高校发布声明严查AI代写

多所高校发布声明严查AI代写 访问:NordVPN 立减 75% + 外加 3 个月时长 另有NordPass密码管理器 4月,湖北大学、福州大学、南京工业大学、天津科技大学等高校相继发布通知,称将在本科毕业生毕业论文审核过程中试行加入对文章使用生成式AI风险情况的检测。其中,湖北大学明确,如发现该论文检测结果为“AI代写高风险”,教师应指导学生进行修改。福州大学强调,检测结果将作为成绩评定和优秀毕业论文评选的参考依据。据了解,“AIGC检测服务系统”是以文本为检测对象,通过语言模式和语义逻辑等多个维度进行分析比对,区分人工创作的内容和AI模型生成的文本内容,从而进行监管和维护学术诚信,简单说就是“用AI查询AI”。在前不久通过的《中华人民共和国学位法》第三十七条中明确,学位论文或者实践成果被认定为存在代写、剽窃、伪造等学术不端行为,经学位评定委员会决议,学位授予单位不授予学位或者撤销学位。有教育研究学者表示,多地高校出台政策,严禁AI论文代写,正是在落实学位法的相关要求。部分AI工具生成论文 千字最低仅需2角钱记者调查发现,目前市面上有不少AI工具将“论文”作为主打模板,声称提供快速生成文章功能。记者在微信小程序搜索关键词:“论文AI帮手”,在一款名为“AI写作智能生成神器”的小程序中,记者看到,它能提供“作文”“论文”等写作服务,用户可以自拟文章标题,在选择“文章风格”和调整文章“字数”后,就可以通过AI生成一篇论文。记者在标题栏输入“中国交通共享服务现状及未来发展”,将字数调整为1000字,不到一分钟,AI就生成了一篇字数为1248字的论文,但免费阅读仅为200字,解锁全部文章则需要付费,所谓的“智能创作”最低价格为每次2角钱。而这款名为“AI写论文写作助手”的小程序,提供了包括“论文选题”“写开题报告”“写论文提纲”等大量模板。记者注意到,该小程序还提供“写手”服务,记者联系到该款小程序的客服人员,对方表示“写手”服务可以提供定制化服务,但也是基于AI工具。这也意味着在高校进行AIGC检测时,将被检测出来。AI工具存在安全性 可靠性风险AI技术不断发展,为人们的学习和思考提供了有力的支持。但专家表示,AI技术可以用来辅助学习,但不可过分依赖。调查中记者还发现,依赖AI工具提供的内容存在安全性、可靠性的风险。四川大学电气工程学院的小刘今年即将硕士研究生毕业,她告诉记者,在学习中她会使用AI大模型工具进行实验数据的整理,但在检索一些问题引用的文献时,她发现AI提供的一些文献,虽然标注了出处,但自己再次检索时,这些内容并不存在。此外,一些引用数据上也存在严重偏差。四川大学电气工程学院硕士研究生 刘桢羽:人工智能模型能够获得的数据其实不一定是准确的,比如在很多研究领域的数据一般是不公开的,因此人工智能模型没有办法获取到这些未公开的数据,它没有收录这些应用的数据和例子,因此给出了错误的答案。教育学者表示,AI工具在一定程度上可以作为学术研究的辅助,但在论文撰写等学术研究中,学生需要端正态度,同时学校应该出台具体管理措施,避免AI工具滥用造成抄袭、剽窃等学术不端行为。北京教育科学研究院高等教育科学研究所所长 高兵:防止学生代写的一些政策文件以外,学校应该明确学生在使用AI时,主动地介绍你的AI使用情况,比如说哪些部分,或者是哪些方法上你使用了AI,来确保我们任务或者是研究内容的原创性和真实性,同时也能够遵守学术诚信的原则。 ... PC版: 手机版:

封面图片

OpenAI宣布将在数字内容中加入不可见水印以便可以检测AI生成内容

OpenAI宣布将在数字内容中加入不可见水印以便可以检测AI生成内容 今年早些时候 OpenAI 已经在 DALL-E 3 图像生成模型中接入了 C2PA 相关标准,即生成的图像会标记来自该模型,也就是证明这是由人工智能创作的图像。OpenAI 称当 Sora 文本生成模型视频广泛推出时也会为 Sora 生成的视频内容添加 C2PA 元数据,可以识别视频来自 Sora 生成而不是真实拍摄等。值得注意的是 C2PA 标准元数据是可以删除的,一个简单的例子就是对于 DALL-E 3 生成的图像只需要修改图片元数据甚至直接截图就可以抹掉 C2PA 信息,所以 OpenAI 还准备了不可见的水印。不可见水印俗称盲水印,这种水印肉眼无法识别,但一些特殊的工具对图片进行处理后是可以读取盲水印的,OpenAI 的计划就是在后续实施盲水印,用难以删除的不可见信号标记音频等数字内容。既然添加盲水印那 OpenAI 也会提供对应的检测工具,OpenAI 已经开发了用于检测 AI 模型生成内容的检测分类器,该分类器从今天开始向一些研究人员提供,该工具主要可以检测 DALL-E 3 生成的图像,准确率为 98%,大约会有不到 0.5% 的非 AI 生成的图像也会被标记为 AI 生成,这个后续 OpenAI 还会继续优化。 ... PC版: 手机版:

封面图片

专家说经常用AI写论文会变蠢?吓得我赶紧打开ChatGPT查一下

专家说经常用AI写论文会变蠢?吓得我赶紧打开ChatGPT查一下 但AI的能力远不止降重这么简单,小到写一篇论文,大到通过司法考试,它都能做到。沃顿商学院教授发现,ChatGPT在MBA课程运营管理中的考试成绩超过了不少学生。而能力更强的GPT4,刚发布时,就以平均分75的成绩通过了美国法考,超过了90%的人类考生。面对拥有超能力的AI,大家也是来者不拒。有些人甚至直接用AI写的内容投稿,改都不改。今年4月的一篇医学论文《成功治疗4个月大女婴的医源性门静脉及肝动脉损伤:病例报告及文献综述》中,直接出现了“我是一个AI大模型,所以没有真实的病人数据”这样的内容。但ChatGPT能力再强,其本质也只是对已有的内容进行模仿重复,用它来写论文和考试作弊没什么区别。不少期刊已经开始不鼓励或者拒绝AI生成的学术内容。我国在学位法(草案)中,直接将人工智能代写论文定义为学术不端行为。但无论如何禁止学生使用AI写论文,总有人会冒险,只有让学生自发的,从心底里抗拒用AI作弊才行。就像疫情期间为了让所有人都戴上口罩,专家跑出来说病毒会影响性功能一样。巴基斯坦国立计算机与新兴科学大学(正经大学,2023年QS全球排名421)的学者Muhammad Abbas,另辟蹊径,做了个严谨的实验,试图证明用AI写论文会导致智商下降,让学生拒绝使用AI写作业。Abbas表示:“在过去一年里,我观察到我的学生们在完成我布置的各项作业和项目时,越来越多地、不加批判地依赖生成式AI工具。这促使我深入探究他们使用这些工具的根本原因和后果”。该研究分为两个阶段进行。首先,研究人员开发了一个变量表,用来衡量学生在学习上使用ChatGPT情况。变量表的类目包括“我使用ChatGPT来完成课程作业”“我依赖ChatGPT来帮助我的学习”“ChatGPT是我校园生活的一部分”等。这一块是想测量到底有多少学生会使用AI来完成学业,并且是否依赖AI。此表为了检测变量是否相关,简单来说就是作者在学术上为了证明这张表不是胡编的第二阶段,研究者调查影响学生使用ChatGPT的原因,包括学术工作量、时间压力、对成绩的担心程度以及对内容质量的感知程度等。测量后,研究者会评估使用ChatGPT对学生在拖延症、记忆力是否减退和学习成绩等方面的影响,并每隔一至两周进行复查。作者的研究模型研究发现,高强度的学术工作量(H1)和时间压力(H2)是ChatGPT使用量增加的主要因素,这意味着在面临高学业负担和时间紧迫的情况下,学生更有可能求助于AI工具。这很好理解,作业都快做不完了,AI这根救命稻草能抓牢还是要抓一下的,当然,也有可能是因为大学生天然就有拖延症属性。而更担心成绩的学生则不太愿意使用ChatGPT,他们担心使用AI工具可能会危害分数。这是什么隔壁小孩式的发言?对于老师不允许做的事情,他们不敢越雷池一步。有趣的是,研究并没有发现质量敏感性与使用ChatGPT之间的显著关系(H4),这表明学生对学术内容质量的重视程度并不一定会影响其使用AI工具。也就是说,学生其实并不在意AI做出来的东西质量高不高,能交差就行。此表是呈现什么原因会导致学生使用ChatGPT,以及使用ChatGPT的后果简单解释一下这张表(同下表),Path列代表路径,比如H1行中,学术工作量(Workload)会导致学生使用ChatGPT。系数(Coefficient)代表两个因素之间的关系,以H1的0.133为例,代表学生的学术工作量越大,就越会使用ChatGPT。T和P列,是为了在学术上证明这个研究假设在统计学上成立不成立。其实!我们直接看最后一列Status就好了,统计量大小对于看乐子的我们没多大影响。再来看一下,使用ChatGPT会对学生学习表现会造成什么影响(H5、H6、H7)。一句话,研究发现使用ChatGPT对学生个人能力和学业成绩都会产生显著的不利影响。越依赖ChatGPT的学生,越容易拖延,记忆障碍也更频繁出现,并对学业成绩产生负面影响。原因也很简单,不论AI给出的回答是好是坏,都让作业变得更简单了,全权交给AI完成,而不用自己的脑子思考,怎么还会有心思规划作业进度、复习知识点呢?想想也是啊,反正作业考试都有AI帮忙,学生学习的时候也不会认真,课后也缺乏思考。作者对学生使用ChatGPT的原因,以及对学业表现的影响做了更深度的分析。此表是呈现学生因为各种原因使用ChatGPT后,对学习表现的影响作者发现了一个连锁反应:那些被作业和时间紧迫感压得喘不过气来的学生,更容易一头扎进ChatGPT的怀抱,同时也更容易染上拖延的恶习。这就像是开启了一个恶性循环,记忆力随之每况愈下,学习成绩自然也就一落千丈。而担心成绩的学生则相反,他们不太使用ChatGPT,因此拖延和记忆力衰退的程度更低,但这种自我约束对学业成绩并没有显著影响。既然作业多、时间紧,那是不是老师不布置那么多学业任务就好了?(这才是重点)看完后硅基君发现,这研究是针对学生的,打工人完全不用担心了?!当然不是,Abbas表示:“普通人应该认识到过度使用生成式AI的阴暗面。虽然这些工具提供了便利,但它们也可能导致负面后果”。同月《神经心理学》杂志发表了一篇关于AI可能影响人类认知发展的论文。狠狠打了硅基君的脸。该论文的作者同样表达了对学生利用AI工具的担忧,“像ChatGPT这样工具的出现,让我担心学生可能会使用它来完成任务,从而阻止对认知功能的刺激”。作者提出了一个论点,AI可以充当“认知假体(cognitive prosthesis)。即AI可以代表人类去执行认知任务,就像假肢替代失去的肢体一样,不仅仅包括计算、安排时间等简单任务,还扩展到了更复杂的认知功能,例如决策、解决问题等人类特有的能力。短期来看,生成式AI增强决策的功能可以帮助个人更快更好做出选择,更专注于重要任务,但是长期来看可能会带来潜在风险。关键问题就在于“认知卸载(cognitive offloading)”。简单来说过度依赖AI会导致我们独立执行认知任务的能力下降。就像肌肉不锻炼会萎缩一样,人们不经常使用认知能力,它也会逐渐退化。也就是说,如果人们不“卸载”,一直使用AI,是不是就不会有问题了?(来自硅基君的垂死挣扎)总而言之,AI对于人类认知的影响可不单单作用在学业上,任何人过度使用AI工具的负面影响都不容小觑。自ChatGPT诞生之后,AI工具就已经成为了学生们的新型“学习伙伴”。早在去年1月,根据在线课程供应商Study.com对美国1000名18岁及以上的学生进行的一项调查,每10个学生中就有超9个知道ChatGPT,超过89%的学生承认使用ChatGPT来帮助完成家庭作业。让学生完全禁止使用AI工具似乎不太可能,面对AI的潜在风险,我们能做到也许只有保持自己的大脑不断运转。想象中AI像个家庭教师,为每个学生提供个性化教学,但现实是,AI帮学生写作业。当然,这两项研究告诉我们的不仅仅是学生该谨慎使用AI,而是我们每个人都要注意不能过分依赖AI。别在AI替代人类之前,人类就已经成为了技术的奴隶了。 ... PC版: 手机版:

封面图片

有大学教师正在使用AI为论文评分 专家提出伦理方面的担忧

有大学教师正在使用AI为论文评分 专家提出伦理方面的担忧 她会向学生展示 ChatGPT 的反馈,以及该工具是如何改写他们的作文的。她说:"我也会分享我对他们介绍的看法,然后我们一起讨论。"盖斯基要求她班上的 15 名学生也这样做:通过 ChatGPT 运行他们的草稿,可以发现哪里可以改进。人工智能的出现正在重塑教育,它带来了实实在在的好处,比如将一些任务自动化,从而腾出时间进行更个性化的教学,但同时也带来了一些巨大的隐患,从围绕准确性和剽窃的问题到维护诚信的问题。教师和学生都在使用新技术。由学术剽窃检测平台 Turnitin 赞助的战略咨询公司 Tyton Partners 的一份报告发现,2023 年秋季,半数大学生使用了人工智能工具。与此同时,虽然使用人工智能的教师人数较少,但2023年秋季,使用人工智能的教师比例从2023年春季的9%增至22%。教师们正在求助于人工智能工具和平台,如 ChatGPT、Writable、Grammarly 和 EssayGrader 等,来帮助他们批改试卷、撰写反馈、制定教学计划和布置作业。他们还利用这些新兴工具创建测验、投票、视频和互动,以"提高课堂预期"。另一方面,学生们则依赖于 ChatGPT 和 Microsoft CoPilot 等工具,这些工具内置于 Word、PowerPoint 和其他产品中。不过,虽然一些学校已经制定了学生可以或不可以在学校作业中使用人工智能的政策,但许多学校并没有为教师制定指导方针。使用人工智能撰写反馈或批改作业的做法也会引发道德方面的考虑。而已经在学费上花费了数十万美元的家长和学生可能会怀疑,在大学里无休止地使用人工智能生成和人工智能评分内容的反馈循环是否值得花费时间和金钱。盖斯基说:"如果教师只用它来评分,而学生只用它来制作最终产品,那么它就不会起作用。"弗吉尼亚大学(University of Virginia)商业伦理教授多萝西-莱德纳(Dorothy Leidner)认为,教师如何使用人工智能取决于很多因素,尤其是在评分时。她认为如果大班测试的材料主要是陈述性知识,因此有明确的对错,那么教师使用人工智能评分"甚至可能优于人类评分",人工智能可以让教师更快、更一致地批改试卷,避免疲劳或厌烦。莱斯利-雷恩教她的学生如何更好地使用 ChatGPT,但她对一些教育工作者如何使用 ChatGPT 给论文打分表示不满。但莱德纳指出,当涉及到小班教学或答案不那么明确的作业时,评分应保持个性化,这样教师才能提供更具体的反馈,了解学生的作业,从而了解学生在一段时间内的进步。老师应该负责评分,但也可以让人工智能承担一些责任。她建议教师使用人工智能来查看某些指标,如结构、语言使用和语法,并根据这些数据给出一个数字分数。但是,教师应该自己对学生的作品进行评分,以考察其新颖性、创造性和见解深度。莱斯利-莱恩(Leslie Layne)在弗吉尼亚州林奇堡大学的写作工作坊中教授 ChatGPT 最佳实践,她说,她看到了教师的优势,但也看到了缺点。她说:"使用并非真正来自我的反馈意见似乎有点破坏了这种关系。"她还认为,将学生的作品上传到 ChatGPT 是一个"巨大的道德考量",有可能侵犯他们的知识产权。像 ChatGPT 这样的人工智能工具会利用这些作品来训练它们的算法,从说话模式到如何造句,再到事实和数字无所不包。伦理学教授莱德纳对此表示赞同,他说博士论文和硕士论文尤其应该避免这种情况,因为学生可能希望发表作品。她说:"在没有事先告知学生的情况下将材料上传到人工智能中是不对的。也许还需要征得学生的同意"。一些教师正在使用名为 Writable 的软件,该软件使用 ChatGPT 帮助批改论文,但采用了"标记化"技术,因此论文不包含任何个人信息,也不会直接与系统共享。该平台最近被教育公司 Houghton Mifflin Harcourt 收购。其他教育工作者正在使用Turnitin等平台,这些平台拥有剽窃检测工具,帮助教师识别作业是否由 ChatGPT 和其他人工智能撰写。但这类检测工具远非万无一失;OpenAI 去年关闭了自己的人工智能检测工具,因为该公司称其"准确率很低"。一些学校正在积极制定针对教师和学生的政策。约翰-霍普金斯大学教育研究与改革中心(CRRE)的助理研究员艾伦-里德(Alan Reid)说,他最近花时间与K-12教育工作者一起工作,这些教育工作者使用GPT工具在成绩单上创建季度末个性化评语。但与莱恩一样,他也承认该技术撰写有见地的反馈意见的能力仍然"有限"。他目前是所在学院一个委员会的成员,该委员会正在为教职员工制定一项人工智能政策;讨论正在进行中,不仅是关于教师如何在课堂上使用人工智能,还包括一般教育工作者如何使用人工智能。他承认,学校正在就使用生成式人工智能工具创建晋升和终身教职档案、绩效考核和职位发布等内容进行对话"。林奇堡大学(University of Lynchburg)哲学副教授尼古拉斯-弗兰克(Nicolas Frank)说,大学和教授在政策方面需要保持一致,但也需要保持谨慎。他说:"在现阶段制定有关人工智能的政策非常危险。"他担心,现在了解人工智能将如何融入日常生活还为时过早。他还担心,一些不在课堂上授课的管理者制定的政策可能会忽略教学中的细微差别。"这可能会造成将人工智能用于评分和教学的问题过于简单化的危险,过度简化就是制定糟糕政策的方式"。"首先,教育工作者可以识别人工智能的明显滥用,并开始围绕这些滥用制定政策。"莱德纳表示,"大学可以提供非常高水平的指导,比如将透明度作为优先事项这样学生就有权知道人工智能何时被用于给他们的作业打分并确定哪些类型的信息绝不能上传到人工智能中,也不能向人工智能询问。大学也必须持开放态度,"随着技术和用途的发展,定期进行重新评估"。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人