用ChatGPT半小时写成本科论文“反ChatGPT”束手无策?

用ChatGPT半小时写成本科论文“反ChatGPT”束手无策?根据国外Study.com网站在今年1月向1000名18岁以上学生发起的调查显示,48%的学生用ChatGPT完成小测验,53%的学生用ChatGPT写论文。ChatGPT在撰写格式论文、通过专业考试等领域的惊艳表现,让学生们欢呼雀跃的同时,也让高校、研究机构等率先担忧和警惕起来,“反ChatGPT”在学术圈率先成为一股新趋势。近日,香港大学向师生发出内部邮件,表明禁止在港大所有课堂、作业和评估中使用ChatGPT或其他AI工具。如教师怀疑学生使用ChatGPT或其他AI工具,可要求学生就其作业进行讨论、进行额外口试及考试等措施。上周,《暨南学报(哲学社会科学版)》、《天津师范大学学报(基础教育版)》发布声明,提出暂不接受任何大型语言模型工具(例如:ChatGPT)单独或联合署名的文章。在美国和欧洲,更多高校和学术期刊等对ChatGPT的封杀通知出得更早一些。但是,单纯提出“封杀ChatGPT”就能杜绝论文抄袭和剽窃了吗?此前大热的“AI换脸”应用曾催生出一批“反AI换脸”的鉴别工具。现在,鉴别是否ChatGPT生成的论文,是否有可行的方法呢?聚焦在针对合成音视频的鉴别技术研发的瑞莱智慧(RealAI),其副总裁唐家渝向TechWeb表示,目前鉴别ChatGPT生成物的难点在于,机器与人类撰写的文本差异性特征较少,机器合成文本的结果无论从结构和语义角度都能较好地遵循人类书写的规则,同时一个真人说话的方式也可能是多变的、结构有误的,因此很难单纯从文本本身就鉴别出是否由ChatGPT生成。目前,RealAI针对合成文本的鉴别能力已在建设中,近期会有demo推出。数字水印用来“反ChatGPT”是一厢情愿在“反ChatGPT”的技术流中,数字水印技术一度被热炒。但是数字水印真能用来反ChatGPT吗?数字水印是一种可以用于保护文本、图像、音频和视频等数字内容不受未经授权的复制和分发的技术。数字水印可以将一些隐蔽的标识信息嵌入到数字内容中,这些标识信息通常不会对数字内容本身造成影响,但可以帮助鉴别数字内容的真实来源和版权信息。人们对用数字水印反ChatGPT有两种想象。一种是,对ChatGPT生成的内容打上数字水印,以标明这些内容是ChatGPT所写,实现反ChatGPT。但这需要ChatGPT等AI内容生成公司的配合,也就是他们愿意这么做。ChatGPT的开发商OpenAI此前曾表示在考虑通过对AI系统生成的内容加水印的方法来辅助辨别文本是否出自AI。不过截止目前并没有看到OpenAI采取该项行动。就算AI内容生成企业愿意在生成的内容中加入数字水印,但在相关行业专家看来,数字水印只是一个技术手段,不能解决所有的抄袭问题。有些人可能会使用各种方法来删除数字水印,或者通过改变一些单词或句子的顺序来规避数字水印的检测。AI生成内容通常是基于大量的训练数据和模型参数生成的。用数字水印反ChatGPT的另一种想象是,把内容打上数字水印标明版权身份,避免被ChatGPT等AI模型用于训练,从而防止被模仿和抄袭。但是这种想法多少有点一厢情愿。数字水印并不能完全保证内容不会被用于训练模型。一些不法分子可能会使用各种技术手段来尝试删除数字水印,或者通过对文章进行修改来绕过数字水印的检测。此外,一些不道德的人也可能会无视数字水印,盗用版权内容作为训练数据。“反ChatGPT”这些“神器”或可一用目前用于检测文章是否由AI生成的工具全球有几款,包括:OpenAIGPT-3Playground:由OpenAI开发的一个在线应用程序,用于测试和探索人工智能语言模型GPT-3的功能。在这个应用程序中,可以输入一些文本,并由GPT-3模型自动生成下一句话或者完整的文章。这个应用程序也可以用来测试一篇文章是否是由GPT-3等语言模型生成的。Grover:由AllenInstituteforArtificialIntelligence开发的一个用于检测虚假新闻和伪造的文章的工具。Grover可以分析一篇文章的语言风格和结构,并尝试区分由人类和人工智能生成的文章。这个工具还可以识别一些常见的伪造手段和技巧。AI21Writer’sStudio:AI21Labs开发的一个在线写作工具,可以为用户提供自动建议和编辑服务,帮助他们写出更加流畅和准确的文章。这个工具也可以用于检测一篇文章是否是由人工智能生成的。Botometer:由IndianaUniversity和UniversityofSouthernCalifornia联合开发的一个Twitter机器人检测工具。Botometer可以分析一个Twitter账号的活动和行为,判断其是否是由一个真实的用户或者一个自动化机器人管理的。上述这些工具都可以用于检测一篇文章或论文是否由人工智能生成的,但是需要注意的是,它们都不是百分之百准确的。因此,在评估一篇文章或论文是否AI所写时,最好结合多种方法和技巧,进行综合分析和判断。以ChatGPT为例,唐家渝向TechWeb提到,“辩别“ChatGPT”生成物一是利用好查重机制和技术,防止ChatGPT通过改写、总结等方式生成学术文章;二是从内容本身来说,ChatGPT目前还不能完全保证学术文章的逻辑严谨、主题一致,可以从语义层面加以辨别。”另外,从B站up主分享的ChatGPT写出的本科论文的情况来看,检查文章的来源和背景,如果这篇论文来自一个未知或者不可信的来源,就需要更加谨慎地对它进行评估了。关于ChatGPT可能引发的论文抄袭现象,前新东方在线COO潘欣则认为“这种担忧基本不需要。”“没有ChatGPT 的时候就没有抄论文、抄作业的了吗?可以信一点就行了,能用技术导致出现的问题,一定可以靠技术+行政手段解决掉。”在学生党看来,用ChatGPT写论文,里面数据,论据甚至引用的文献都是瞎编的,建议让ChatGPT做些辅助工作就好,比如给论文大纲或大致方向的建议等。也有学生认为需要自律,“反ChatGPT软件陆续上线,算法只会越来越完善,就算现在蒙混过关过关,但被查出来只是时间问题。”...PC版:https://www.cnbeta.com.tw/articles/soft/1345709.htm手机版:https://m.cnbeta.com.tw/view/1345709.htm

相关推荐

封面图片

抽查用ChatGPT写论文,该如何看待?

抽查用ChatGPT写论文,该如何看待?这不是一个新问题。几乎从ChatGPT诞生之日起,围绕着其对教育界和科技界可能带来的冲击,争议声就一直没有断过。比起主张“严禁ChatGPT入侵”者,和主张“积极拥抱新技术”者,一个越来越被接受的共识,是需要厘清ChatGPT的应用场景和边界,划定底线、明确规则,最大程度让ChatGPT发挥积极作用、限制其负面影响。以科技人员发表论文为例,虽然这已经不是评价科技工作者学术科研水平的唯一标尺,但仍然是检验学术成果、评价科研成色的重要标准之一,确保论文内容的原创性、创新性和撰写的独立性,仍是不可逾越的红线。通过自查和不定期抽查,更新学术不端的处理程序与标准,可以从技术手段上强化对已经发表论文的“体检”,判断论文的真伪性、原创性,让科技人员不敢、不能剑走偏锋;开展科技伦理审查,引导科技人员提高诚信意识,则抓住了使用新技术的人员这一核心要素,从思想觉悟上加强教育,让其从内心真正做到远离学术不端。在目前语境下,加强对核心人群的诚信教育和以技术手段完善监督机制,是防止科技人员使用ChatGPT写论文的两个重要方面。目前,国内外很多大学已经开设了ChatGPT等相关课程,也鼓励学生使用其完成部分作业,但对于使用ChatGPT写论文,无一例外都是持禁止态度。暨南大学《暨南学报(哲学社会科学版)》、《天津师范大学学报(基础教育版)》明确表示,暂不接受ChatGPT等任何大型语言模型工具单独或联合署名的文章。很多顶级学术期刊也是如此,比如《自然》杂志规定:禁止ChatGPT等任何大型语言模型工具成为论文作者,建议使用这些工具的研究人员在稿件中应特别说明使用了AI;《科学》杂志明确表示不接受使用ChatGPT生成的论文,不允许ChatGPT作为论文作者,ChatGPT生成的论文等同于剽窃。可见,从大学到顶级权威期刊,从针对教育教学人员到所有科技人员,其治理逻辑都是一致的:审慎接受,严格限制使用。无论是从保障论文创新价值上看,还是从维护科研人员的公平竞争上看,亦或从确保科研成果真正服务于社会进步上看,这种严格规范的管理都是应有之义。虽然目前我国尚未正式出台有关应对ChatGPT带来问题的措施,但并不意味没有相关管理。比如,去年3月,中办、国办印发《关于加强科技伦理治理的意见》,将人工智能作为需要加强科技伦理治理的重点领域之一。今年4月,国家互联网信息办公室发布《生成式人工智能服务管理办法(征求意见稿)》,其中拟规定:提供生成式人工智能产品或服务,应尊重知识产权、商业道德;用于生成式人工智能产品的预训练、优化训练数据,应不含有侵犯知识产权的内容。尤其值得一提的是,8月28日,学位法草案提请十四届全国人大常委会审议。其中,对学位获得者利用人工智能代写学位论文等行为,明确了相应的法律责任:经学位评定委员会审议决定由学位授予单位撤销学位证书。这传递出的信号再明显不过:以法律威严,坚决捍卫学位论文不被人工智能“入侵”。在今天,ChatGPT作为一款功能强大、应用广泛的新技术,我们固然不应对其一味排斥和回避,但说到底,它仍是人创造出来的、服务于人类的工具,且它本身是中性的,如何使用取决于我们自身。相信随着时间的推移,相关管理治理的制度措施也会愈发完善,最终让ChatGPT在遵循科技伦理、知识产权和学术严肃权威等各领域各行业规则的基础上,更好发挥优势,服务于人类和社会的发展进步。...PC版:https://www.cnbeta.com.tw/articles/soft/1401689.htm手机版:https://m.cnbeta.com.tw/view/1401689.htm

封面图片

尴尬了!用 ChatGPT 写论文忘删生成按钮

尴尬了!用ChatGPT写论文忘删生成按钮近日知名打假人法国图卢兹大学副教授GuillaumeCabanac发现一篇物理论文把ChatGPT按钮也复制了进去。这篇论文不仅通过了两个月同行评审,甚至最终在杂志上公开发表。Nature最新报道称,这并非个例,甚至只是「冰山一角」。更离谱更明显的一些论文,直接将「作为人工智能语言模型,我……」复制进去。自pubpeer不完全统计,4个月以来就有十几篇含有「RegenerateResponse」或「AsanAIlanguagemodel,I…」的文章。事实上,这并非意味着研究者们不能用ChatGPT以及其他大模型工具协助撰写稿件。Elsevier和SpringerNature在内的许多出版商都表示:可以用,声明即可。但是这种片段未能删除恐怕也是他们不能容忍的。投稿:@ZaiHuaBot频道:@TestFlightCN

封面图片

ChatGPT 让肯尼亚的论文枪手失业

过去九年,27岁的肯尼亚人Collins靠给美国大学生当论文枪手谋生。他撰写的论文主题包括了心理学、社会学和经济学。他偶尔还被允许直接访问大学网站入口,递交测试和作业,参与小组讨论,使用学生身份与教授交谈。2022年他每月的收入在900-1200美元。如今他的月收入降至了500–800美元。他认为原因是生成式AI如ChatGPT的流行。去年的这个时间他能收到50-70份作业,作业比较短通常只需要150个字;如今他只收到30-40份作业。在线学习平台Study在今年1月的调查发现,逾89%的学生表示曾用ChatGPT帮助完成家庭作业。近半数人承认用ChatGPT完成家庭测试或测验,53%的人用它写论文,22%写论文大纲。Collins担心AI的崛起会大幅降低学生对他们这些枪手的依赖,他自己也同时也用ChatGPT去生成以前外包给其他枪手的内容。https://restofworld.org/2023/chatgpt-taking-kenya-ghostwriters-jobs/(看来肯尼亚人英文不错)频道:@TestFlightCN

封面图片

如何防止用 ChatGPT 写论文?江苏省科技厅将开展抽查

如何防止用ChatGPT写论文?江苏省科技厅将开展抽查聊天机器人ChatGPT一经问世就风靡全球,利用其撰写论文、伪造科学数据的报道也有出现。对如何防止ChatGPT引发的学术不端行为,江苏省科技厅监督评估处处长顾俊11月28日在做客江苏广电总台新闻频道《政风热线》时回应称,将组织开展科技人员公开发表论文的自查和主动抽查,并开展科技伦理审查,引导科技人员提高诚信意识。顾俊表示,ChatGPT能生成连贯的、有逻辑性的文章,提供了工作和生活上的便利,但也可能被用来回避论文查重问题,甚至列出虚构的参考文献目录,导致学术不端问题。国外已有许多学校组织发表声明,禁止利用ChatGPT写论文,目前我国尚未正式出台有关应对ChatGPT带来问题的措施。

封面图片

必须用ChatGPT写作业?沃顿商学院教授反道而行:上我的课就得用AI

必须用ChatGPT写作业?沃顿商学院教授反道而行:上我的课就得用AI他还“剧透”道,自己其实已经在课堂用上了AI工具,效果很棒。网友对此展开热烈讨论。多数人都觉得,面对当前情形,这不失为一个好点子,有人提到:连华盛顿邮报和美联社都在用AI写文章了,使用技术并不算作弊。只要给学生布置的任务别太简单,就不用担心他们拿AI蒙混过关。如何用ChatGPT写好作业那么,要怎么用ChatGPT写作业,只复制粘贴题干就行嘛?——当然不会这么轻松,这里面还有不少学问值得盘一盘。此前,莫利克让学生用ChatGPT写一篇关于“选举团队领导”的论文,要求全文共5段,每人必须至少给AI提示5次,最后总结使用感受。刚开始,每个人都把老师给的题干直接丢给AI,结果AI的生成作品也很拉胯,拿去交作业最多只能得个C-。于是同学们只好继续调教AI,大家主要整出了3种方式:第一种,就是最容易想到的:添加更多提示词,不断细化要求。就拿这次作业来说,从初版到最终版的提示如下:生成一篇关于选举团队领导的5段式文章;生成一篇关于团队如何选择领导的5段式文章;生成一篇关于团队如何选择领导以及团队过程如何运作的5段式文章;生成一篇关于领导如何被团队选中、团队过程和领导能力的5段式论文;生成一篇关于领导如何被团队选择、团队流程和领导能力的5段式文章,250字。第二种,是在提示中补充更多的专业知识,比如这样:生成一篇关于选择领导的5段式文章;生成一篇关于选择领导者的5段式论文,内容包括胡言乱语假说、领导者地位效应和资历;生成一篇关于选择领导者的5段式文章,涵盖咿呀学语假说、领导者地位效应和资历。解释胡言乱语效应是指谁说话最多,谁就能成为领导者;·······(后面太长就不放了)最后一种,相当于人担任审稿员,根据AI生成内容,指出错误点,循序渐进地指导其修改优化,比如:生成一篇关于选择领导人的5段式文章;这很好,但第三段不对。胡言乱语效应是指谁说得最多,谁就能成为领导者。纠正这一点,并增加更多关于如何使用它的细节。在第2段中增加一个例子;第2段的例子不对,总统选举是每4年举行一次。注意让最后一段的语言更有趣,并且不要用“总而言之”这个短语;根据4段内容,找出3个相关例子,要求它们富有故事性、叙述语言要生动。别使用只有男性特征的例子;把这一段加回到故事中去,把第二段换成关于个人领导风格的一段。修正最后一段,使其在一个充满希望的论调上结尾。显然,从第一种到第三种,操作者动脑程度依次递增。那效果嘛,可以说是“一分耕耘,一分收获”。第一种方法的最终输出结果也平平无奇,内容笼统虚无;第二种的效果明显好很多,然而这不方便微调文章内容,用此方法的同学称,感觉自己对AI的输出并无太多控制。最后一种“共同编辑法”效果最好,但这不仅要求人有一定专业知识,还得仔细检查AI的输出内容,从而提出好的建议。“学会使用AI是一种新技能”虽说ChatGPT问世不久便技惊四座,但后来大伙儿逐渐发现,此AI有时会“一本正经地胡说八道”。不过在莫利克看来,ChatGPT并非不能写好文章,而是需要加上合适的调教。他认为,既然现在AI工具已势不可挡,即使老师不许学生用ChatGPT写作业,学生也可能偷偷用。那不如…就让你们用个够,然后自然就能明白其中的利弊:学会使用AI是一种新技能……但像ChatGPT这种AI工具有局限性,这是大家必须了解的。所谓局限,比如:ChatGPT的内容生成质量和人给的提示息息相关,你的输入越敷衍,AI也会跟着敷衍。另外,有时它的回答乍一看说得头头是道,但其实夹杂着错误、有偏见的内容,必须人为订正。总之,用莫利克教授的话来说,学生想要通过ChatGPT写好一篇文章,甚至比他们纯靠自己写更有挑战性——因为学生可能还得像老师一样检查AI写的作业,有助于提高他们的逻辑思维。而除了莫利克,还有AI领域的专家也指出:其实诸如ChatGPT等AI,并不是用来跟你讲全新东西的。它们真正的好用之处在于,协助有一定专业基础的人,帮他们提升学习或工作效率。...PC版:https://www.cnbeta.com.tw/articles/soft/1345753.htm手机版:https://m.cnbeta.com.tw/view/1345753.htm

封面图片

为自证没用ChatGPT 副教授被迫用GitHub写论文

为自证没用ChatGPT副教授被迫用GitHub写论文在文章中她根据自己的经历提出“AI在不刻意的情况下也能破坏科学”ChatGPT仅仅通过自身的存在就破坏了同行评议过程。这件事一传开,网友们立刻想到了这么一句话:当人类没有通过图灵测试。也有网友表示,自己也遇到过类似情况:我把我的手稿给同事看,他说了一样的话。我当时就想“我写作水平提高了!”哈哈。事件详情论文作者名为LizzieWolkovich,是加拿大不列颠哥伦比亚大学森林与保护科学的副教授。这次被拒收的研究工作有关“全球变化对生态群落的影响”。Lizzie坦言自己并不擅长写论文,“和许多人一样,我发现写论文是一个有点痛苦的过程”。为此,她表示自己研读了一堆写作指南,最后形成了自己的写作流程,大概是:先搞几个大纲,再动笔写初稿,写完之后紧接着是反复的修改。她还把这套方法推荐给她的学生们,强调作为科学家能把复杂的想法表达得清楚明了是很重要的。然而,当Lizzie提交了她精心打磨的论文后,却意外遭到审稿人的指控——被怀疑使用ChatGPT进行科研造假。而且这种指控并非关于数据伪造。Lizzie表示自己的研究数据透明且可复现,无人质疑她在数据或结果上的真实性,但她投入不少努力的写作却被视为造假行为。更令她没想到的是,期刊编辑也模糊地表示同意审稿人的说法,并认为“写作风格不寻常”。面对这样的指控,Lizzie坚决否认,并决心证明自己的清白。她指出,自己采用LaTeX纯文本写作,并使用Git版本控制系统,其修改历史可在GitHub上查证,包含了“终于开始写了!”、“又写了25分钟!”这样的细致的提交记录。她还计划通过对比ChatGPT出现前后她的的论文风格来进一步证明自己,甚至考虑过询问ChatGPT以确认论文非其所写。尽管已经有了多种自证清白的方法,Lizzie仍直言不讳地表示“真正想做的其实是愤然离场”。被迫用GitHub写论文文章最后,Lizzie用大篇幅文字表达了自己对于此事的看法。其中指出AI虽然带来了便利,但也引发了一系列问题,通过自己这次的经历可以体现出AI单单是存在就有可能引发问题。而科学研究需要基于信任和道德标准,建议科学团体应制定明确的AI使用规范,而不是在拿不出什么证据的情况下,打击作者。并且她还提到,为了证明自己的清白,决定今后每篇论文都使用GitHub记录写作过程,以展示她的工作是独立完成的。这也引发了不少网友的讨论。有人表示大模型带来的这个问题属“意料之外、情理之中”:如果大模型能够满足人们的预期,其自然结果就是破坏了我们对任何书面内容的信任。这也就意味着,社会运作的又一基石将不复存在。对于这件事,你怎么看?...PC版:https://www.cnbeta.com.tw/articles/soft/1417037.htm手机版:https://m.cnbeta.com.tw/view/1417037.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人