尴尬了!用 ChatGPT 写论文忘删生成按钮

尴尬了!用ChatGPT写论文忘删生成按钮近日知名打假人法国图卢兹大学副教授GuillaumeCabanac发现一篇物理论文把ChatGPT按钮也复制了进去。这篇论文不仅通过了两个月同行评审,甚至最终在杂志上公开发表。Nature最新报道称,这并非个例,甚至只是「冰山一角」。更离谱更明显的一些论文,直接将「作为人工智能语言模型,我……」复制进去。自pubpeer不完全统计,4个月以来就有十几篇含有「RegenerateResponse」或「AsanAIlanguagemodel,I…」的文章。事实上,这并非意味着研究者们不能用ChatGPT以及其他大模型工具协助撰写稿件。Elsevier和SpringerNature在内的许多出版商都表示:可以用,声明即可。但是这种片段未能删除恐怕也是他们不能容忍的。投稿:@ZaiHuaBot频道:@TestFlightCN

相关推荐

封面图片

为自证没用ChatGPT 副教授被迫用GitHub写论文

为自证没用ChatGPT副教授被迫用GitHub写论文在文章中她根据自己的经历提出“AI在不刻意的情况下也能破坏科学”ChatGPT仅仅通过自身的存在就破坏了同行评议过程。这件事一传开,网友们立刻想到了这么一句话:当人类没有通过图灵测试。也有网友表示,自己也遇到过类似情况:我把我的手稿给同事看,他说了一样的话。我当时就想“我写作水平提高了!”哈哈。事件详情论文作者名为LizzieWolkovich,是加拿大不列颠哥伦比亚大学森林与保护科学的副教授。这次被拒收的研究工作有关“全球变化对生态群落的影响”。Lizzie坦言自己并不擅长写论文,“和许多人一样,我发现写论文是一个有点痛苦的过程”。为此,她表示自己研读了一堆写作指南,最后形成了自己的写作流程,大概是:先搞几个大纲,再动笔写初稿,写完之后紧接着是反复的修改。她还把这套方法推荐给她的学生们,强调作为科学家能把复杂的想法表达得清楚明了是很重要的。然而,当Lizzie提交了她精心打磨的论文后,却意外遭到审稿人的指控——被怀疑使用ChatGPT进行科研造假。而且这种指控并非关于数据伪造。Lizzie表示自己的研究数据透明且可复现,无人质疑她在数据或结果上的真实性,但她投入不少努力的写作却被视为造假行为。更令她没想到的是,期刊编辑也模糊地表示同意审稿人的说法,并认为“写作风格不寻常”。面对这样的指控,Lizzie坚决否认,并决心证明自己的清白。她指出,自己采用LaTeX纯文本写作,并使用Git版本控制系统,其修改历史可在GitHub上查证,包含了“终于开始写了!”、“又写了25分钟!”这样的细致的提交记录。她还计划通过对比ChatGPT出现前后她的的论文风格来进一步证明自己,甚至考虑过询问ChatGPT以确认论文非其所写。尽管已经有了多种自证清白的方法,Lizzie仍直言不讳地表示“真正想做的其实是愤然离场”。被迫用GitHub写论文文章最后,Lizzie用大篇幅文字表达了自己对于此事的看法。其中指出AI虽然带来了便利,但也引发了一系列问题,通过自己这次的经历可以体现出AI单单是存在就有可能引发问题。而科学研究需要基于信任和道德标准,建议科学团体应制定明确的AI使用规范,而不是在拿不出什么证据的情况下,打击作者。并且她还提到,为了证明自己的清白,决定今后每篇论文都使用GitHub记录写作过程,以展示她的工作是独立完成的。这也引发了不少网友的讨论。有人表示大模型带来的这个问题属“意料之外、情理之中”:如果大模型能够满足人们的预期,其自然结果就是破坏了我们对任何书面内容的信任。这也就意味着,社会运作的又一基石将不复存在。对于这件事,你怎么看?...PC版:https://www.cnbeta.com.tw/articles/soft/1417037.htm手机版:https://m.cnbeta.com.tw/view/1417037.htm

封面图片

抽查用ChatGPT写论文,该如何看待?

抽查用ChatGPT写论文,该如何看待?这不是一个新问题。几乎从ChatGPT诞生之日起,围绕着其对教育界和科技界可能带来的冲击,争议声就一直没有断过。比起主张“严禁ChatGPT入侵”者,和主张“积极拥抱新技术”者,一个越来越被接受的共识,是需要厘清ChatGPT的应用场景和边界,划定底线、明确规则,最大程度让ChatGPT发挥积极作用、限制其负面影响。以科技人员发表论文为例,虽然这已经不是评价科技工作者学术科研水平的唯一标尺,但仍然是检验学术成果、评价科研成色的重要标准之一,确保论文内容的原创性、创新性和撰写的独立性,仍是不可逾越的红线。通过自查和不定期抽查,更新学术不端的处理程序与标准,可以从技术手段上强化对已经发表论文的“体检”,判断论文的真伪性、原创性,让科技人员不敢、不能剑走偏锋;开展科技伦理审查,引导科技人员提高诚信意识,则抓住了使用新技术的人员这一核心要素,从思想觉悟上加强教育,让其从内心真正做到远离学术不端。在目前语境下,加强对核心人群的诚信教育和以技术手段完善监督机制,是防止科技人员使用ChatGPT写论文的两个重要方面。目前,国内外很多大学已经开设了ChatGPT等相关课程,也鼓励学生使用其完成部分作业,但对于使用ChatGPT写论文,无一例外都是持禁止态度。暨南大学《暨南学报(哲学社会科学版)》、《天津师范大学学报(基础教育版)》明确表示,暂不接受ChatGPT等任何大型语言模型工具单独或联合署名的文章。很多顶级学术期刊也是如此,比如《自然》杂志规定:禁止ChatGPT等任何大型语言模型工具成为论文作者,建议使用这些工具的研究人员在稿件中应特别说明使用了AI;《科学》杂志明确表示不接受使用ChatGPT生成的论文,不允许ChatGPT作为论文作者,ChatGPT生成的论文等同于剽窃。可见,从大学到顶级权威期刊,从针对教育教学人员到所有科技人员,其治理逻辑都是一致的:审慎接受,严格限制使用。无论是从保障论文创新价值上看,还是从维护科研人员的公平竞争上看,亦或从确保科研成果真正服务于社会进步上看,这种严格规范的管理都是应有之义。虽然目前我国尚未正式出台有关应对ChatGPT带来问题的措施,但并不意味没有相关管理。比如,去年3月,中办、国办印发《关于加强科技伦理治理的意见》,将人工智能作为需要加强科技伦理治理的重点领域之一。今年4月,国家互联网信息办公室发布《生成式人工智能服务管理办法(征求意见稿)》,其中拟规定:提供生成式人工智能产品或服务,应尊重知识产权、商业道德;用于生成式人工智能产品的预训练、优化训练数据,应不含有侵犯知识产权的内容。尤其值得一提的是,8月28日,学位法草案提请十四届全国人大常委会审议。其中,对学位获得者利用人工智能代写学位论文等行为,明确了相应的法律责任:经学位评定委员会审议决定由学位授予单位撤销学位证书。这传递出的信号再明显不过:以法律威严,坚决捍卫学位论文不被人工智能“入侵”。在今天,ChatGPT作为一款功能强大、应用广泛的新技术,我们固然不应对其一味排斥和回避,但说到底,它仍是人创造出来的、服务于人类的工具,且它本身是中性的,如何使用取决于我们自身。相信随着时间的推移,相关管理治理的制度措施也会愈发完善,最终让ChatGPT在遵循科技伦理、知识产权和学术严肃权威等各领域各行业规则的基础上,更好发挥优势,服务于人类和社会的发展进步。...PC版:https://www.cnbeta.com.tw/articles/soft/1401689.htm手机版:https://m.cnbeta.com.tw/view/1401689.htm

封面图片

韩国学生用ChatGPT写论文“喜”提0分

韩国学生用ChatGPT写论文“喜”提0分根据海外媒体报道,近日,韩国首都圈的一所国际学校发现大量学生正在使用ChatGPT进行论文作弊。确认情况之后,校方对于所以使用ChatGPT提交论文的学生进行了0分处理。据悉,这是韩国国内的教育机构首次确认“ChatGPT作弊”。韩国学生用ChatGPT写论文“喜”提0分该校的一位教师在接受采访的时候表示,从上个月开始,该国际学校内使用ChatGPT来完成作业的人数就有所增加。该校学生则表示,因为写作速度很快,所以很多学生都在最近开始使用ChatGPT。目前,仍然有不少学生在使用ChatGPT。校方则表示,他们一直密切关注课题代写和剽窃的问题,未来计划使用检查程序,来为学生的作业打出合理的分数。相关媒体预测,未来韩国国内可能会出现更多的大学生利用ChatGPT完成论文的事件。...PC版:https://www.cnbeta.com.tw/articles/soft/1343459.htm手机版:https://m.cnbeta.com.tw/view/1343459.htm

封面图片

如何防止用 ChatGPT 写论文?江苏省科技厅将开展抽查

如何防止用ChatGPT写论文?江苏省科技厅将开展抽查聊天机器人ChatGPT一经问世就风靡全球,利用其撰写论文、伪造科学数据的报道也有出现。对如何防止ChatGPT引发的学术不端行为,江苏省科技厅监督评估处处长顾俊11月28日在做客江苏广电总台新闻频道《政风热线》时回应称,将组织开展科技人员公开发表论文的自查和主动抽查,并开展科技伦理审查,引导科技人员提高诚信意识。顾俊表示,ChatGPT能生成连贯的、有逻辑性的文章,提供了工作和生活上的便利,但也可能被用来回避论文查重问题,甚至列出虚构的参考文献目录,导致学术不端问题。国外已有许多学校组织发表声明,禁止利用ChatGPT写论文,目前我国尚未正式出台有关应对ChatGPT带来问题的措施。

封面图片

用ChatGPT半小时写成本科论文“反ChatGPT”束手无策?

用ChatGPT半小时写成本科论文“反ChatGPT”束手无策?根据国外Study.com网站在今年1月向1000名18岁以上学生发起的调查显示,48%的学生用ChatGPT完成小测验,53%的学生用ChatGPT写论文。ChatGPT在撰写格式论文、通过专业考试等领域的惊艳表现,让学生们欢呼雀跃的同时,也让高校、研究机构等率先担忧和警惕起来,“反ChatGPT”在学术圈率先成为一股新趋势。近日,香港大学向师生发出内部邮件,表明禁止在港大所有课堂、作业和评估中使用ChatGPT或其他AI工具。如教师怀疑学生使用ChatGPT或其他AI工具,可要求学生就其作业进行讨论、进行额外口试及考试等措施。上周,《暨南学报(哲学社会科学版)》、《天津师范大学学报(基础教育版)》发布声明,提出暂不接受任何大型语言模型工具(例如:ChatGPT)单独或联合署名的文章。在美国和欧洲,更多高校和学术期刊等对ChatGPT的封杀通知出得更早一些。但是,单纯提出“封杀ChatGPT”就能杜绝论文抄袭和剽窃了吗?此前大热的“AI换脸”应用曾催生出一批“反AI换脸”的鉴别工具。现在,鉴别是否ChatGPT生成的论文,是否有可行的方法呢?聚焦在针对合成音视频的鉴别技术研发的瑞莱智慧(RealAI),其副总裁唐家渝向TechWeb表示,目前鉴别ChatGPT生成物的难点在于,机器与人类撰写的文本差异性特征较少,机器合成文本的结果无论从结构和语义角度都能较好地遵循人类书写的规则,同时一个真人说话的方式也可能是多变的、结构有误的,因此很难单纯从文本本身就鉴别出是否由ChatGPT生成。目前,RealAI针对合成文本的鉴别能力已在建设中,近期会有demo推出。数字水印用来“反ChatGPT”是一厢情愿在“反ChatGPT”的技术流中,数字水印技术一度被热炒。但是数字水印真能用来反ChatGPT吗?数字水印是一种可以用于保护文本、图像、音频和视频等数字内容不受未经授权的复制和分发的技术。数字水印可以将一些隐蔽的标识信息嵌入到数字内容中,这些标识信息通常不会对数字内容本身造成影响,但可以帮助鉴别数字内容的真实来源和版权信息。人们对用数字水印反ChatGPT有两种想象。一种是,对ChatGPT生成的内容打上数字水印,以标明这些内容是ChatGPT所写,实现反ChatGPT。但这需要ChatGPT等AI内容生成公司的配合,也就是他们愿意这么做。ChatGPT的开发商OpenAI此前曾表示在考虑通过对AI系统生成的内容加水印的方法来辅助辨别文本是否出自AI。不过截止目前并没有看到OpenAI采取该项行动。就算AI内容生成企业愿意在生成的内容中加入数字水印,但在相关行业专家看来,数字水印只是一个技术手段,不能解决所有的抄袭问题。有些人可能会使用各种方法来删除数字水印,或者通过改变一些单词或句子的顺序来规避数字水印的检测。AI生成内容通常是基于大量的训练数据和模型参数生成的。用数字水印反ChatGPT的另一种想象是,把内容打上数字水印标明版权身份,避免被ChatGPT等AI模型用于训练,从而防止被模仿和抄袭。但是这种想法多少有点一厢情愿。数字水印并不能完全保证内容不会被用于训练模型。一些不法分子可能会使用各种技术手段来尝试删除数字水印,或者通过对文章进行修改来绕过数字水印的检测。此外,一些不道德的人也可能会无视数字水印,盗用版权内容作为训练数据。“反ChatGPT”这些“神器”或可一用目前用于检测文章是否由AI生成的工具全球有几款,包括:OpenAIGPT-3Playground:由OpenAI开发的一个在线应用程序,用于测试和探索人工智能语言模型GPT-3的功能。在这个应用程序中,可以输入一些文本,并由GPT-3模型自动生成下一句话或者完整的文章。这个应用程序也可以用来测试一篇文章是否是由GPT-3等语言模型生成的。Grover:由AllenInstituteforArtificialIntelligence开发的一个用于检测虚假新闻和伪造的文章的工具。Grover可以分析一篇文章的语言风格和结构,并尝试区分由人类和人工智能生成的文章。这个工具还可以识别一些常见的伪造手段和技巧。AI21Writer’sStudio:AI21Labs开发的一个在线写作工具,可以为用户提供自动建议和编辑服务,帮助他们写出更加流畅和准确的文章。这个工具也可以用于检测一篇文章是否是由人工智能生成的。Botometer:由IndianaUniversity和UniversityofSouthernCalifornia联合开发的一个Twitter机器人检测工具。Botometer可以分析一个Twitter账号的活动和行为,判断其是否是由一个真实的用户或者一个自动化机器人管理的。上述这些工具都可以用于检测一篇文章或论文是否由人工智能生成的,但是需要注意的是,它们都不是百分之百准确的。因此,在评估一篇文章或论文是否AI所写时,最好结合多种方法和技巧,进行综合分析和判断。以ChatGPT为例,唐家渝向TechWeb提到,“辩别“ChatGPT”生成物一是利用好查重机制和技术,防止ChatGPT通过改写、总结等方式生成学术文章;二是从内容本身来说,ChatGPT目前还不能完全保证学术文章的逻辑严谨、主题一致,可以从语义层面加以辨别。”另外,从B站up主分享的ChatGPT写出的本科论文的情况来看,检查文章的来源和背景,如果这篇论文来自一个未知或者不可信的来源,就需要更加谨慎地对它进行评估了。关于ChatGPT可能引发的论文抄袭现象,前新东方在线COO潘欣则认为“这种担忧基本不需要。”“没有ChatGPT 的时候就没有抄论文、抄作业的了吗?可以信一点就行了,能用技术导致出现的问题,一定可以靠技术+行政手段解决掉。”在学生党看来,用ChatGPT写论文,里面数据,论据甚至引用的文献都是瞎编的,建议让ChatGPT做些辅助工作就好,比如给论文大纲或大致方向的建议等。也有学生认为需要自律,“反ChatGPT软件陆续上线,算法只会越来越完善,就算现在蒙混过关过关,但被查出来只是时间问题。”...PC版:https://www.cnbeta.com.tw/articles/soft/1345709.htm手机版:https://m.cnbeta.com.tw/view/1345709.htm

封面图片

韩国学生用ChatGPT写论文“喜”提0分 校方:剽窃!

韩国学生用ChatGPT写论文“喜”提0分校方:剽窃!近日韩国首都圈的一所国际学校发现大量学生正在使用ChatGPT进行论文作弊。确认情况之后,校方对于所以使用ChatGPT提交论文的学生进行了0分处理。据悉,这是韩国国内的教育机构首次确认“ChatGPT作弊”。校方则表示,他们一直密切关注课题代写和剽窃的问题,未来计划使用检查程序,来为学生的作业打出合理的分数。https://internet.cnmo.com/tech/748863.html投稿:@ZaiHuabot频道:@TestFlightCN

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人