主要科学期刊出版商禁止将 ChatGPT 列为署名作者

主要科学期刊出版商禁止将ChatGPT列为署名作者《科学》期刊的主编HoldenThorp上周四更新了编辑政策,禁止使用ChatGPT生成的文本,不允许将ChatGPT列为署名作者。期刊要求作者签署一份表格声明对其工作承担责任。出版《自然》等期刊的Springer-Nature也在上周二宣布ChatGPT不能被列为署名作者,但它允许作者在论文准备阶段使用ChatGPT等工具,只需要在手稿中予以披露。https://www.solidot.org/story?sid=73966

相关推荐

封面图片

《科学》期刊禁止将 ChatGPT 列为论文的共同作者

《科学》期刊禁止将ChatGPT列为论文的共同作者《科学》期刊宣布了一项更新的,禁止使用ChatGPT生成的文本,并澄清该程序不能被列为作者。《科学》期刊要求作者签署一份表格,声明他们对自己对工作的贡献负责任,而由于ChatGPT不能这样做,所以它不能成为作者。此外,他们认为,即使在准备论文时使用ChatGPT也有问题。因为ChatGPT会犯很多错误,这些错误可能会出现在文献中,如果科学家们开始依赖人工智能程序来准备文献综述或总结他们的发现,那么工作的正确背景和结果应有的深入审查就可能会丢失。来源,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

ChatGPT对学术出版影响几何?出版商已明确几条原则

ChatGPT对学术出版影响几何?出版商已明确几条原则励讯旗下拥有全球最大的学术出版商之一爱思唯尔,旗下刊物包括《柳叶刀》(Lancet)、《细胞》(Cell)等知名科学杂志。励讯集团的其他业务还涵盖法律、风险以及展览。励讯集团首席财务官NickLuff表示,生成式AI给信息分析行业带来的机遇大于威胁,集团目前已经将生成式AI构建到其业务产品中。“生成式AI技术本身非常有趣,但需要确保将它们应用于正确的内容、正确的用例、正确的工作流程,以获得专业用户的信任。”Luff在财报发布时指出。数字化转型是励讯集团近年来的战略重点,这一需求在传统出版行业面临数字化挑战的背景下显得尤为突出。2月17日,爱思唯尔董事长池永硕在一篇署名文章中指出,爱思唯尔已经开发了数字化解决方案,用于支持临床决策的深度数据和信息分析,并产生可信赖的医学知识信息。不过,随着科研人员迈入高级对话AI的新世界,出版机构也正在讨论如何认可生成式AI的合法使用,并为防止滥用制定清晰准则。全球知名出版集团施普林格-自然(SpringerNature)的旗舰刊物《自然》日前公开发表社论,声明了在使用生成式AI时的两条原则:一是不接受任何LLM工具作为对研究论文有贡献的作者;二是使用LLM工具的研究人员应在方法或致谢部分中声明。“这并不是禁止ChatGPT作为撰写论文的工具,但根本问题是对于一篇论文是如何组成的,以及使用什么软件撰写的,要有明确的规定。”一位出版界相关人士对第一财经记者表示,“科学需要透明度,这是核心与本质。包括研究人员、出版商需要走到一起,制定新的披露规范,以防止技术被滥用。”全球顶尖科学期刊《科学》杂志主编HoldenThorp也公开撰文称,在不到两个月的时间里,生成式AI软件ChatGPT已经成为一种“文化轰动”。“这在文学创作中可能会变得很有趣,但对科学界和学术界可能会造成严重的影响。”Thorp写道。编辑和出版商是否已经可以检测出由大模型生成的论文文本?根据《自然》的说法,ChatGPT的原始输出经过仔细检查是可以检测到的,尤其是当涉及多个段落并且主题与科学工作相关时。根据Thorp援引最近的一项研究,由ChatGPT创建的摘要在提交给学术审稿人时,只有63%的文章被检测到使用了AI软件。《科学》杂志制定准则称,人工智能程序不能成为作者,违反这些政策将构成科学不端行为,与篡改图像或抄袭现有论文没有差异。但针对通过人工智能技术在研究中生成的合法的数据集(非论文文本)除外。“科学论文归根结底是人类为解决重要问题所做的努力。机器发挥着重要作用,但它是人们提出假设、设计实验和理解结果的工具。最终,这些产品必须来自人类头脑中美妙的计算机来表达。”Thorp表示。...PC版:https://www.cnbeta.com.tw/articles/soft/1344945.htm手机版:https://m.cnbeta.com.tw/view/1344945.htm

封面图片

世界上最大的学术出版商认为ChatGPT不能被标记为作者

世界上最大的学术出版商认为ChatGPT不能被标记为作者施普林格-自然的旗舰出版物《自然》的主编MagdalenaSkipper表示:"我们现在不得不澄清我们的立场:为我们的作者,为我们的编辑,也为我们自己。这种新一代的LLM工具--包括ChatGPT产生的内容真的在社区中爆发了,社区理所当然地对它们感到兴奋和玩味,但[也]以超出目前真正可以使用的方式来使用它们。"ChatGPT和早期的大型语言模型(LLMs)已经在少量发表的论文、预印本和科学文章中被列为作者,然而,这些工具的贡献的性质和程度因个案而异。在《肿瘤科学》杂志上发表的一篇观点文章中,ChatGPT被用来论证在帕斯卡尔赌注的背景下服用某种药物,并明确标注了人工智能生成的文本。但在一篇研究机器人通过美国医学执照考试(USMLE)能力的预印本论文中,对机器人贡献的唯一承认是一句话,称该程序"为本稿的几个部分的写作做出了贡献"。在后者的预印本论文中没有提供进一步的细节,说明ChatGPT是如何或在哪里被用来生成文本的。然而,资助这项研究的公司--医疗保健创业公司AnsibleHealth的首席执行官认为,该机器人做出了重大贡献。AnsibleHealth首席执行官JackPo表示:"我们之所以把[ChatGPT]列为作者,是因为我们相信它实际上对论文的内容做出了智力上的贡献,而不仅仅是作为一个评估对象。"科学界对将ChatGPT作为作者的论文的反应主要是负面的,社交媒体用户称USMLE案例中的决定是"荒谬的"、"愚蠢的"、"非常愚蠢的"。反对给予人工智能作者资格的论点是,软件根本无法履行所需的职责,正如Skipper和NatureSpringer解释的那样。Skipper说:"当我们想到科学论文、研究论文的作者资格时,我们不只是想到写论文。有一些责任是超越出版的,当然,目前这些人工智能工具还不能承担这些责任。"软件不能对一份出版物进行有意义的问责,它不能为其工作主张知识产权,也不能与其他科学家和媒体通信以解释和回答关于其工作的问题。如果在将人工智能作为作者的问题上有广泛的共识,那么在使用人工智能工具撰写论文的问题上就不那么明确了,即使有适当的致谢。这部分是由于这些工具的输出存在有据可查的问题。人工智能写作软件可以放大社会偏见,如性别歧视和种族主义,并有产生"合理的废话"的倾向--将不正确的信息作为事实呈现。正是因为有这样的问题,一些组织已经禁止在特定范围内使用ChatGPT,包括学校、学院和依赖分享可靠信息的网站,如编程问答库StackOverflow。本月早些时候,一个关于机器学习的顶级学术会议禁止使用所有人工智能工具来撰写论文,尽管它确实说作者可以使用此类软件来"打磨"和"编辑"他们的作品。写作和编辑之间的界限到底在哪里是很棘手的,但对于《自然-斯普林格》来说,这种使用情况也是可以接受的。"我们的政策非常明确:我们不禁止将其作为撰写论文的工具,"Skipper说,"最根本的是,要有明确的规定。关于一篇论文是如何组成的,以及使用什么[软件]。我们需要透明度,因为这正是科学应该如何完成和交流的核心所在。"鉴于人工智能可用于广泛的应用,这一点尤其重要。人工智能工具不仅可以生成和转述文本,还可以迭代实验设计,或者用来碰撞思想,就像机器实验室伙伴一样。像SemanticScholar这样由人工智能驱动的软件可以用来搜索研究论文并总结其内容。Skipper指出,"另一个机会是使用人工智能写作工具来帮助那些英语不是其第一语言的研究人员。从这个角度来看,它可能是一种有用而过程中没有太大争议的工具。""在科学工作中禁止人工智能工具将是无济于事的,我认为我们可以有把握地说,直接禁止任何东西都是无效的。她说,相反,科学界--包括研究人员、出版商和会议组织者--需要走到一起,制定新的披露规范和安全护栏。作为一个社区,我们有责任关注积极的用途和潜力,然后规范和遏制潜在的滥用。我很乐观,我们可以做到这一点。"...PC版:https://www.cnbeta.com.tw/articles/soft/1341101.htm手机版:https://m.cnbeta.com.tw/view/1341101.htm

封面图片

顶级学术期刊杂志编辑集体辞职,因出版商拒绝降低“不道德”的高昂出版费用

顶级学术期刊杂志编辑集体辞职,因出版商拒绝降低“不道德”的高昂出版费用超过40位顶尖科学家集体辞去顶级科学期刊编辑委员会的职务,以抗议他们所说的出版巨头爱思唯尔(Elsevier)的“贪婪”。Neuroimage杂志的整个学术委员会,包括牛津大学、伦敦国王学院和卡迪夫大学的教授,在爱思唯尔拒绝降低出版费用后辞职。世界各地的学术界都为学术出版界的巨额利润发起反抗而欢呼,许多人希望这会引发一场反叛,其利润率超过了苹果、谷歌和亚马逊。Neuroimage是全球领先的脑成像研究刊物,是众多现在“开放获取”而非订阅付费墙的期刊之一。但它对作者的收费极其高昂,现在学术界要为发表一篇研究论文支付超过2,700英镑。前任编辑说这是“不道德的”。Elsevier是一家荷兰公司,号称发表了全球25%的科学论文,该公司去年的收入增长了10%,达到29亿英镑。但根据其2019年的账目,接近40%的利润率最让学术界感到愤怒。——

封面图片

《科学》杂志期刊论文免费获取开放政策将于2023年生效

《科学》杂志期刊论文免费获取开放政策将于2023年生效著名期刊《科学》的出版商很快将允许其研究论文的作者在出版后立即在他们选择的存储库中公开其手稿的几乎最终版本,而无需支付任何费用。这种方法与类似高影响力期刊Cell和Nature的出版商所采用的方法不同,后者向大多数作者收取称为文章处理费(APC)的费用,以使其文章的最终出版版本开放获取。(Nature的新闻团队在编辑上独立于其出版商SpringerNature。)《科学》杂志在9月9日由华盛顿特区美国科学促进会(AAAS)的高级管理人员撰写的社论中宣布​​了其新方法。此后,美国科学促进会科学期刊出版商比尔·莫兰(BillMoran)告诉《自然》,《科学》的政策将从2023年1月起生效,并适用于《科学》家族的所有五种订阅期刊。(AAAS确实已经有了一个完全开放获取的标题ScienceAdvances,作者支付出版费;新政策不会延伸到该期刊。)——

封面图片

中国大学期刊:隐瞒ChatGPT使用将被退稿或撤稿

中国大学期刊:隐瞒ChatGPT使用将被退稿或撤稿聊天机器人ChatGPT近期在中国引起巨大兴趣后,中国陆续有大学期刊做出规范,其中有大学表明如有学生在论文中隐瞒使用该应用,将对文章直接退稿或撤稿处理。据《每日经济新闻》报道,《暨南学报(哲学社会科学版)》近期发布关于使用人工智能写作工具的说明。说明提到,暂不接受任何大型语言模型工具如ChatGPT单独或联合署名的文章。在论文创作中使用过相关工具,需单独提出并在文章中详细解释如何使用以及论证作者自身的创作性。说明也说,如有隐瞒使用情况,将对文章直接退稿或撤稿处理。对于引用人工智能写作工具的文章作为参考文献的,需请作者提供详细的引用论证。此外,《天津师范大学学报(基础教育版)》也发布相关声明,建议作者在参考文献、致谢等文字中对使用人工智能写作工具包括ChatGPT等的情况予以说明。ChatGPT是美国人工智慧(AI)研究实验室OpenAI开发的一款AI聊天机器人,2022年11月推出后,热潮席卷全球,每日访问量超过2500万次,平均每天增加约51万9000次访问。北京某重点大学法学专业教师告诉《每日经济新闻》,“确实已经遇到有学生用ChatGPT写论文交作业的事情”。他补充说:“我的学生都是大学生、研究生,我自己也经历过这个阶段,他们论证的深度、总结的维度,包括全面性等方面,如果用了ChatGPT的话,一眼就能看出来,而且他们获取信息的渠道相对来说也比较狭窄。”四川某高校经济学系老师也在密切关注学生使用ChatGPT的情况,一名副教授向《每日经济新闻》介绍称,他已经注意到一些学生在尝试用ChatGPT,而由于目前正值中国高校寒假期间,大规模用它写论文的学生目前看来还比较少。但他预测,今年开学后会出现一些ChatGPT所引发的学术乱象问题。另一位北京高校英语系教授说:“学校2月下旬开学,我会密切关注此事,开学后和学生交流,并且与写作课老师讨论。”不过,也有一些高校和中学老师对此相对乐观,其中一名上海重点高校社科类教授说,虽然学生用ChatGP写作业对教师来说是个麻烦事,但它只能做些简单重复的工作,高层次的做不到。...

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人