专家说经常用AI写论文会变蠢?吓得我赶紧打开ChatGPT查一下

专家说经常用AI写论文会变蠢?吓得我赶紧打开ChatGPT查一下但AI的能力远不止降重这么简单,小到写一篇论文,大到通过司法考试,它都能做到。沃顿商学院教授发现,ChatGPT在MBA课程运营管理中的考试成绩超过了不少学生。而能力更强的GPT4,刚发布时,就以平均分75的成绩通过了美国法考,超过了90%的人类考生。面对拥有超能力的AI,大家也是来者不拒。有些人甚至直接用AI写的内容投稿,改都不改。今年4月的一篇医学论文《成功治疗4个月大女婴的医源性门静脉及肝动脉损伤:病例报告及文献综述》中,直接出现了“我是一个AI大模型,所以没有真实的病人数据”这样的内容。但ChatGPT能力再强,其本质也只是对已有的内容进行模仿重复,用它来写论文和考试作弊没什么区别。不少期刊已经开始不鼓励或者拒绝AI生成的学术内容。我国在学位法(草案)中,直接将人工智能代写论文定义为学术不端行为。但无论如何禁止学生使用AI写论文,总有人会冒险,只有让学生自发的,从心底里抗拒用AI作弊才行。就像疫情期间为了让所有人都戴上口罩,专家跑出来说病毒会影响性功能一样。巴基斯坦国立计算机与新兴科学大学(正经大学,2023年QS全球排名421)的学者MuhammadAbbas,另辟蹊径,做了个严谨的实验,试图证明用AI写论文会导致智商下降,让学生拒绝使用AI写作业。Abbas表示:“在过去一年里,我观察到我的学生们在完成我布置的各项作业和项目时,越来越多地、不加批判地依赖生成式AI工具。这促使我深入探究他们使用这些工具的根本原因和后果”。该研究分为两个阶段进行。首先,研究人员开发了一个变量表,用来衡量学生在学习上使用ChatGPT情况。变量表的类目包括“我使用ChatGPT来完成课程作业”“我依赖ChatGPT来帮助我的学习”“ChatGPT是我校园生活的一部分”等。这一块是想测量到底有多少学生会使用AI来完成学业,并且是否依赖AI。此表为了检测变量是否相关,简单来说就是作者在学术上为了证明这张表不是胡编的第二阶段,研究者调查影响学生使用ChatGPT的原因,包括学术工作量、时间压力、对成绩的担心程度以及对内容质量的感知程度等。测量后,研究者会评估使用ChatGPT对学生在拖延症、记忆力是否减退和学习成绩等方面的影响,并每隔一至两周进行复查。作者的研究模型研究发现,高强度的学术工作量(H1)和时间压力(H2)是ChatGPT使用量增加的主要因素,这意味着在面临高学业负担和时间紧迫的情况下,学生更有可能求助于AI工具。这很好理解,作业都快做不完了,AI这根救命稻草能抓牢还是要抓一下的,当然,也有可能是因为大学生天然就有拖延症属性。而更担心成绩的学生则不太愿意使用ChatGPT,他们担心使用AI工具可能会危害分数。这是什么隔壁小孩式的发言?对于老师不允许做的事情,他们不敢越雷池一步。有趣的是,研究并没有发现质量敏感性与使用ChatGPT之间的显著关系(H4),这表明学生对学术内容质量的重视程度并不一定会影响其使用AI工具。也就是说,学生其实并不在意AI做出来的东西质量高不高,能交差就行。此表是呈现什么原因会导致学生使用ChatGPT,以及使用ChatGPT的后果简单解释一下这张表(同下表),Path列代表路径,比如H1行中,学术工作量(Workload)会导致学生使用ChatGPT。系数(Coefficient)代表两个因素之间的关系,以H1的0.133为例,代表学生的学术工作量越大,就越会使用ChatGPT。T和P列,是为了在学术上证明这个研究假设在统计学上成立不成立。其实!我们直接看最后一列Status就好了,统计量大小对于看乐子的我们没多大影响。再来看一下,使用ChatGPT会对学生学习表现会造成什么影响(H5、H6、H7)。一句话,研究发现使用ChatGPT对学生个人能力和学业成绩都会产生显著的不利影响。越依赖ChatGPT的学生,越容易拖延,记忆障碍也更频繁出现,并对学业成绩产生负面影响。原因也很简单,不论AI给出的回答是好是坏,都让作业变得更简单了,全权交给AI完成,而不用自己的脑子思考,怎么还会有心思规划作业进度、复习知识点呢?想想也是啊,反正作业考试都有AI帮忙,学生学习的时候也不会认真,课后也缺乏思考。作者对学生使用ChatGPT的原因,以及对学业表现的影响做了更深度的分析。此表是呈现学生因为各种原因使用ChatGPT后,对学习表现的影响作者发现了一个连锁反应:那些被作业和时间紧迫感压得喘不过气来的学生,更容易一头扎进ChatGPT的怀抱,同时也更容易染上拖延的恶习。这就像是开启了一个恶性循环,记忆力随之每况愈下,学习成绩自然也就一落千丈。而担心成绩的学生则相反,他们不太使用ChatGPT,因此拖延和记忆力衰退的程度更低,但这种自我约束对学业成绩并没有显著影响。既然作业多、时间紧,那是不是老师不布置那么多学业任务就好了?(这才是重点)看完后硅基君发现,这研究是针对学生的,打工人完全不用担心了?!当然不是,Abbas表示:“普通人应该认识到过度使用生成式AI的阴暗面。虽然这些工具提供了便利,但它们也可能导致负面后果”。同月《神经心理学》杂志发表了一篇关于AI可能影响人类认知发展的论文。狠狠打了硅基君的脸。该论文的作者同样表达了对学生利用AI工具的担忧,“像ChatGPT这样工具的出现,让我担心学生可能会使用它来完成任务,从而阻止对认知功能的刺激”。作者提出了一个论点,AI可以充当“认知假体(cognitiveprosthesis)。即AI可以代表人类去执行认知任务,就像假肢替代失去的肢体一样,不仅仅包括计算、安排时间等简单任务,还扩展到了更复杂的认知功能,例如决策、解决问题等人类特有的能力。短期来看,生成式AI增强决策的功能可以帮助个人更快更好做出选择,更专注于重要任务,但是长期来看可能会带来潜在风险。关键问题就在于“认知卸载(cognitiveoffloading)”。简单来说过度依赖AI会导致我们独立执行认知任务的能力下降。就像肌肉不锻炼会萎缩一样,人们不经常使用认知能力,它也会逐渐退化。也就是说,如果人们不“卸载”,一直使用AI,是不是就不会有问题了?(来自硅基君的垂死挣扎)总而言之,AI对于人类认知的影响可不单单作用在学业上,任何人过度使用AI工具的负面影响都不容小觑。自ChatGPT诞生之后,AI工具就已经成为了学生们的新型“学习伙伴”。早在去年1月,根据在线课程供应商Study.com对美国1000名18岁及以上的学生进行的一项调查,每10个学生中就有超9个知道ChatGPT,超过89%的学生承认使用ChatGPT来帮助完成家庭作业。让学生完全禁止使用AI工具似乎不太可能,面对AI的潜在风险,我们能做到也许只有保持自己的大脑不断运转。想象中AI像个家庭教师,为每个学生提供个性化教学,但现实是,AI帮学生写作业。当然,这两项研究告诉我们的不仅仅是学生该谨慎使用AI,而是我们每个人都要注意不能过分依赖AI。别在AI替代人类之前,人类就已经成为了技术的奴隶了。...PC版:https://www.cnbeta.com.tw/articles/soft/1425817.htm手机版:https://m.cnbeta.com.tw/view/1425817.htm

相关推荐

封面图片

韩国学生用ChatGPT写论文“喜”提0分

韩国学生用ChatGPT写论文“喜”提0分根据海外媒体报道,近日,韩国首都圈的一所国际学校发现大量学生正在使用ChatGPT进行论文作弊。确认情况之后,校方对于所以使用ChatGPT提交论文的学生进行了0分处理。据悉,这是韩国国内的教育机构首次确认“ChatGPT作弊”。韩国学生用ChatGPT写论文“喜”提0分该校的一位教师在接受采访的时候表示,从上个月开始,该国际学校内使用ChatGPT来完成作业的人数就有所增加。该校学生则表示,因为写作速度很快,所以很多学生都在最近开始使用ChatGPT。目前,仍然有不少学生在使用ChatGPT。校方则表示,他们一直密切关注课题代写和剽窃的问题,未来计划使用检查程序,来为学生的作业打出合理的分数。相关媒体预测,未来韩国国内可能会出现更多的大学生利用ChatGPT完成论文的事件。...PC版:https://www.cnbeta.com.tw/articles/soft/1343459.htm手机版:https://m.cnbeta.com.tw/view/1343459.htm

封面图片

抽查用ChatGPT写论文,该如何看待?

抽查用ChatGPT写论文,该如何看待?这不是一个新问题。几乎从ChatGPT诞生之日起,围绕着其对教育界和科技界可能带来的冲击,争议声就一直没有断过。比起主张“严禁ChatGPT入侵”者,和主张“积极拥抱新技术”者,一个越来越被接受的共识,是需要厘清ChatGPT的应用场景和边界,划定底线、明确规则,最大程度让ChatGPT发挥积极作用、限制其负面影响。以科技人员发表论文为例,虽然这已经不是评价科技工作者学术科研水平的唯一标尺,但仍然是检验学术成果、评价科研成色的重要标准之一,确保论文内容的原创性、创新性和撰写的独立性,仍是不可逾越的红线。通过自查和不定期抽查,更新学术不端的处理程序与标准,可以从技术手段上强化对已经发表论文的“体检”,判断论文的真伪性、原创性,让科技人员不敢、不能剑走偏锋;开展科技伦理审查,引导科技人员提高诚信意识,则抓住了使用新技术的人员这一核心要素,从思想觉悟上加强教育,让其从内心真正做到远离学术不端。在目前语境下,加强对核心人群的诚信教育和以技术手段完善监督机制,是防止科技人员使用ChatGPT写论文的两个重要方面。目前,国内外很多大学已经开设了ChatGPT等相关课程,也鼓励学生使用其完成部分作业,但对于使用ChatGPT写论文,无一例外都是持禁止态度。暨南大学《暨南学报(哲学社会科学版)》、《天津师范大学学报(基础教育版)》明确表示,暂不接受ChatGPT等任何大型语言模型工具单独或联合署名的文章。很多顶级学术期刊也是如此,比如《自然》杂志规定:禁止ChatGPT等任何大型语言模型工具成为论文作者,建议使用这些工具的研究人员在稿件中应特别说明使用了AI;《科学》杂志明确表示不接受使用ChatGPT生成的论文,不允许ChatGPT作为论文作者,ChatGPT生成的论文等同于剽窃。可见,从大学到顶级权威期刊,从针对教育教学人员到所有科技人员,其治理逻辑都是一致的:审慎接受,严格限制使用。无论是从保障论文创新价值上看,还是从维护科研人员的公平竞争上看,亦或从确保科研成果真正服务于社会进步上看,这种严格规范的管理都是应有之义。虽然目前我国尚未正式出台有关应对ChatGPT带来问题的措施,但并不意味没有相关管理。比如,去年3月,中办、国办印发《关于加强科技伦理治理的意见》,将人工智能作为需要加强科技伦理治理的重点领域之一。今年4月,国家互联网信息办公室发布《生成式人工智能服务管理办法(征求意见稿)》,其中拟规定:提供生成式人工智能产品或服务,应尊重知识产权、商业道德;用于生成式人工智能产品的预训练、优化训练数据,应不含有侵犯知识产权的内容。尤其值得一提的是,8月28日,学位法草案提请十四届全国人大常委会审议。其中,对学位获得者利用人工智能代写学位论文等行为,明确了相应的法律责任:经学位评定委员会审议决定由学位授予单位撤销学位证书。这传递出的信号再明显不过:以法律威严,坚决捍卫学位论文不被人工智能“入侵”。在今天,ChatGPT作为一款功能强大、应用广泛的新技术,我们固然不应对其一味排斥和回避,但说到底,它仍是人创造出来的、服务于人类的工具,且它本身是中性的,如何使用取决于我们自身。相信随着时间的推移,相关管理治理的制度措施也会愈发完善,最终让ChatGPT在遵循科技伦理、知识产权和学术严肃权威等各领域各行业规则的基础上,更好发挥优势,服务于人类和社会的发展进步。...PC版:https://www.cnbeta.com.tw/articles/soft/1401689.htm手机版:https://m.cnbeta.com.tw/view/1401689.htm

封面图片

韩国学生用ChatGPT写论文“喜”提0分 校方:剽窃!

韩国学生用ChatGPT写论文“喜”提0分校方:剽窃!近日韩国首都圈的一所国际学校发现大量学生正在使用ChatGPT进行论文作弊。确认情况之后,校方对于所以使用ChatGPT提交论文的学生进行了0分处理。据悉,这是韩国国内的教育机构首次确认“ChatGPT作弊”。校方则表示,他们一直密切关注课题代写和剽窃的问题,未来计划使用检查程序,来为学生的作业打出合理的分数。https://internet.cnmo.com/tech/748863.html投稿:@ZaiHuabot频道:@TestFlightCN

封面图片

港大禁用ChatGPT撰写论文及课题评估

港大禁用ChatGPT撰写论文及课题评估聊天机器人ChatGPT近日风靡全球,大学生借助ChatGPT撰写论文的问题引起讨论。香港大学副校长何立仁(IanHolliday)星期五(2月17日)去信教职员和学生,指校内禁止在课堂、功课和其他评估中使用ChatGPT或其他AI相关工具,若学生需要使用有关程序,须事先获得课程讲师的书面许可,否则会当作抄袭个案处理,这也是香港首个禁止使用AI软件的大学。根据香港01报道,何立仁在电邮提到,若有学生违规使用ChatGPT等相关程序,如同取用他人的作品,当中涉及“欺骗”(deceive)成份;而在无授权下使用ChatGPT或其他AI工具的答案,也符合有关定义,故日后会将有关个案当潜在“抄袭”(plagiarism)个案处理。他还说,若教师怀疑学生使用ChatGPT等AI工具,可要求学生讨论有关论文或作品,设额外的补充口试、新增课堂考试等采施。何立仁强调,校方肯定应用人工智能的重要影响,正计划举行校园辩论,邀请教师和师生就此对谈,但要将AI工具纳入长远政策,仍要一段长时间,目前正是学期的中段,每周都有课程和评估,难以突然使用新的政策,校方才决定采用短期措施应对。香港大学校长张翔上周五形容ChatGPT将对社会带来“革命性”影响,如可仿记者撰写新闻;校方将推动人工智慧及数据科学领域发展,也会迎来AI挑战,“给我们的挑战是如何分辨学生中期论文和期终论文。”香港浸会大学未明确禁止使用ChatGPT,但表明极度重视学生和教学人员的学术诚信,若有学生把并非由他们自己完成的功课或作品,讹称由他们自己完成,均会被视为抄袭,大学会采取相关的纪律行动。校方表示,会根据实际情况,不时审视在各种教学活动中评估学生学习成效的方式,同时期望及促进学生善用科技进行学术探究和创作。香港城大表示,大学有既定机制和程序处理事务,需时研究有关议题,现阶段未有定案。

封面图片

ChatGPT 让肯尼亚的论文枪手失业

过去九年,27岁的肯尼亚人Collins靠给美国大学生当论文枪手谋生。他撰写的论文主题包括了心理学、社会学和经济学。他偶尔还被允许直接访问大学网站入口,递交测试和作业,参与小组讨论,使用学生身份与教授交谈。2022年他每月的收入在900-1200美元。如今他的月收入降至了500–800美元。他认为原因是生成式AI如ChatGPT的流行。去年的这个时间他能收到50-70份作业,作业比较短通常只需要150个字;如今他只收到30-40份作业。在线学习平台Study在今年1月的调查发现,逾89%的学生表示曾用ChatGPT帮助完成家庭作业。近半数人承认用ChatGPT完成家庭测试或测验,53%的人用它写论文,22%写论文大纲。Collins担心AI的崛起会大幅降低学生对他们这些枪手的依赖,他自己也同时也用ChatGPT去生成以前外包给其他枪手的内容。https://restofworld.org/2023/chatgpt-taking-kenya-ghostwriters-jobs/(看来肯尼亚人英文不错)频道:@TestFlightCN

封面图片

用ChatGPT半小时写成本科论文“反ChatGPT”束手无策?

用ChatGPT半小时写成本科论文“反ChatGPT”束手无策?根据国外Study.com网站在今年1月向1000名18岁以上学生发起的调查显示,48%的学生用ChatGPT完成小测验,53%的学生用ChatGPT写论文。ChatGPT在撰写格式论文、通过专业考试等领域的惊艳表现,让学生们欢呼雀跃的同时,也让高校、研究机构等率先担忧和警惕起来,“反ChatGPT”在学术圈率先成为一股新趋势。近日,香港大学向师生发出内部邮件,表明禁止在港大所有课堂、作业和评估中使用ChatGPT或其他AI工具。如教师怀疑学生使用ChatGPT或其他AI工具,可要求学生就其作业进行讨论、进行额外口试及考试等措施。上周,《暨南学报(哲学社会科学版)》、《天津师范大学学报(基础教育版)》发布声明,提出暂不接受任何大型语言模型工具(例如:ChatGPT)单独或联合署名的文章。在美国和欧洲,更多高校和学术期刊等对ChatGPT的封杀通知出得更早一些。但是,单纯提出“封杀ChatGPT”就能杜绝论文抄袭和剽窃了吗?此前大热的“AI换脸”应用曾催生出一批“反AI换脸”的鉴别工具。现在,鉴别是否ChatGPT生成的论文,是否有可行的方法呢?聚焦在针对合成音视频的鉴别技术研发的瑞莱智慧(RealAI),其副总裁唐家渝向TechWeb表示,目前鉴别ChatGPT生成物的难点在于,机器与人类撰写的文本差异性特征较少,机器合成文本的结果无论从结构和语义角度都能较好地遵循人类书写的规则,同时一个真人说话的方式也可能是多变的、结构有误的,因此很难单纯从文本本身就鉴别出是否由ChatGPT生成。目前,RealAI针对合成文本的鉴别能力已在建设中,近期会有demo推出。数字水印用来“反ChatGPT”是一厢情愿在“反ChatGPT”的技术流中,数字水印技术一度被热炒。但是数字水印真能用来反ChatGPT吗?数字水印是一种可以用于保护文本、图像、音频和视频等数字内容不受未经授权的复制和分发的技术。数字水印可以将一些隐蔽的标识信息嵌入到数字内容中,这些标识信息通常不会对数字内容本身造成影响,但可以帮助鉴别数字内容的真实来源和版权信息。人们对用数字水印反ChatGPT有两种想象。一种是,对ChatGPT生成的内容打上数字水印,以标明这些内容是ChatGPT所写,实现反ChatGPT。但这需要ChatGPT等AI内容生成公司的配合,也就是他们愿意这么做。ChatGPT的开发商OpenAI此前曾表示在考虑通过对AI系统生成的内容加水印的方法来辅助辨别文本是否出自AI。不过截止目前并没有看到OpenAI采取该项行动。就算AI内容生成企业愿意在生成的内容中加入数字水印,但在相关行业专家看来,数字水印只是一个技术手段,不能解决所有的抄袭问题。有些人可能会使用各种方法来删除数字水印,或者通过改变一些单词或句子的顺序来规避数字水印的检测。AI生成内容通常是基于大量的训练数据和模型参数生成的。用数字水印反ChatGPT的另一种想象是,把内容打上数字水印标明版权身份,避免被ChatGPT等AI模型用于训练,从而防止被模仿和抄袭。但是这种想法多少有点一厢情愿。数字水印并不能完全保证内容不会被用于训练模型。一些不法分子可能会使用各种技术手段来尝试删除数字水印,或者通过对文章进行修改来绕过数字水印的检测。此外,一些不道德的人也可能会无视数字水印,盗用版权内容作为训练数据。“反ChatGPT”这些“神器”或可一用目前用于检测文章是否由AI生成的工具全球有几款,包括:OpenAIGPT-3Playground:由OpenAI开发的一个在线应用程序,用于测试和探索人工智能语言模型GPT-3的功能。在这个应用程序中,可以输入一些文本,并由GPT-3模型自动生成下一句话或者完整的文章。这个应用程序也可以用来测试一篇文章是否是由GPT-3等语言模型生成的。Grover:由AllenInstituteforArtificialIntelligence开发的一个用于检测虚假新闻和伪造的文章的工具。Grover可以分析一篇文章的语言风格和结构,并尝试区分由人类和人工智能生成的文章。这个工具还可以识别一些常见的伪造手段和技巧。AI21Writer’sStudio:AI21Labs开发的一个在线写作工具,可以为用户提供自动建议和编辑服务,帮助他们写出更加流畅和准确的文章。这个工具也可以用于检测一篇文章是否是由人工智能生成的。Botometer:由IndianaUniversity和UniversityofSouthernCalifornia联合开发的一个Twitter机器人检测工具。Botometer可以分析一个Twitter账号的活动和行为,判断其是否是由一个真实的用户或者一个自动化机器人管理的。上述这些工具都可以用于检测一篇文章或论文是否由人工智能生成的,但是需要注意的是,它们都不是百分之百准确的。因此,在评估一篇文章或论文是否AI所写时,最好结合多种方法和技巧,进行综合分析和判断。以ChatGPT为例,唐家渝向TechWeb提到,“辩别“ChatGPT”生成物一是利用好查重机制和技术,防止ChatGPT通过改写、总结等方式生成学术文章;二是从内容本身来说,ChatGPT目前还不能完全保证学术文章的逻辑严谨、主题一致,可以从语义层面加以辨别。”另外,从B站up主分享的ChatGPT写出的本科论文的情况来看,检查文章的来源和背景,如果这篇论文来自一个未知或者不可信的来源,就需要更加谨慎地对它进行评估了。关于ChatGPT可能引发的论文抄袭现象,前新东方在线COO潘欣则认为“这种担忧基本不需要。”“没有ChatGPT 的时候就没有抄论文、抄作业的了吗?可以信一点就行了,能用技术导致出现的问题,一定可以靠技术+行政手段解决掉。”在学生党看来,用ChatGPT写论文,里面数据,论据甚至引用的文献都是瞎编的,建议让ChatGPT做些辅助工作就好,比如给论文大纲或大致方向的建议等。也有学生认为需要自律,“反ChatGPT软件陆续上线,算法只会越来越完善,就算现在蒙混过关过关,但被查出来只是时间问题。”...PC版:https://www.cnbeta.com.tw/articles/soft/1345709.htm手机版:https://m.cnbeta.com.tw/view/1345709.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人