剑桥大学出台AI伦理政策 禁止将AI视为学术出版物作者

剑桥大学出台AI伦理政策禁止将AI视为学术出版物作者新政策规定,作者要对其作品的原创性、诚信和准确性负责。任何使用AI的方式必须在研究论文中声明,并且不能违反出版社的抄袭政策。论文必须是作者自己的学术作品,不能使用他人的想法、数据、言语或其他材料,必须进行“充分引用和透明引用”。剑桥大学出版社的系列编辑R.MichaelAlvarez表示:“生成式AI为学术研究人员和教育者引入了许多问题。”他说,学者和作者将“在未来多年里一直讨论由生成式AI为学术出版带来的机遇和陷阱”。该政策表明AI与人类在学术出版领域的角色划分问题将引起越来越多的关注和争议。剑桥大学出版社的此项政策可能会影响其他出版社及学术机构的决策,将有助于维护学术诚信和规范,促进学术研究的质量和可信度。此前,知名学术期刊《Science》和《Nature》也禁止AI列为论文作者。《Science》决定任何论文使用AI工具产生内容都属科学性不当,如果没有编辑明确许可,不得使用这类内容写论文、附带数据、图片或图表。此外,人工智能模型也不能列为论文作者。《Nature》新规则也类似,不接受人工智能模型列为论文作者,不过论文本身可使用AI工具产生文本,但需在研究方法或谢辞部分清楚标示。...PC版:https://www.cnbeta.com.tw/articles/soft/1353321.htm手机版:https://m.cnbeta.com.tw/view/1353321.htm

相关推荐

封面图片

澳门理工大学语言著作获剑桥出版社出版

澳门理工大学语言著作获剑桥大学出版社出版#澳门理工大学澳门理工大学语言及翻译学院副教授温植胜与来自加拿大的教授JohnSchwieter联合编著的TheCambridgeHandbookofWorkingMemoryandLanguage近日获国际著名的剑桥大学出版社出版。该手册收录在剑桥大学出版社最著名的“剑桥语言和语言学手册”系列...https://www.gcs.gov.mo/detail/zh-hant/N22EERlIY2

封面图片

ChatGPT对学术出版影响几何?出版商已明确几条原则

ChatGPT对学术出版影响几何?出版商已明确几条原则励讯旗下拥有全球最大的学术出版商之一爱思唯尔,旗下刊物包括《柳叶刀》(Lancet)、《细胞》(Cell)等知名科学杂志。励讯集团的其他业务还涵盖法律、风险以及展览。励讯集团首席财务官NickLuff表示,生成式AI给信息分析行业带来的机遇大于威胁,集团目前已经将生成式AI构建到其业务产品中。“生成式AI技术本身非常有趣,但需要确保将它们应用于正确的内容、正确的用例、正确的工作流程,以获得专业用户的信任。”Luff在财报发布时指出。数字化转型是励讯集团近年来的战略重点,这一需求在传统出版行业面临数字化挑战的背景下显得尤为突出。2月17日,爱思唯尔董事长池永硕在一篇署名文章中指出,爱思唯尔已经开发了数字化解决方案,用于支持临床决策的深度数据和信息分析,并产生可信赖的医学知识信息。不过,随着科研人员迈入高级对话AI的新世界,出版机构也正在讨论如何认可生成式AI的合法使用,并为防止滥用制定清晰准则。全球知名出版集团施普林格-自然(SpringerNature)的旗舰刊物《自然》日前公开发表社论,声明了在使用生成式AI时的两条原则:一是不接受任何LLM工具作为对研究论文有贡献的作者;二是使用LLM工具的研究人员应在方法或致谢部分中声明。“这并不是禁止ChatGPT作为撰写论文的工具,但根本问题是对于一篇论文是如何组成的,以及使用什么软件撰写的,要有明确的规定。”一位出版界相关人士对第一财经记者表示,“科学需要透明度,这是核心与本质。包括研究人员、出版商需要走到一起,制定新的披露规范,以防止技术被滥用。”全球顶尖科学期刊《科学》杂志主编HoldenThorp也公开撰文称,在不到两个月的时间里,生成式AI软件ChatGPT已经成为一种“文化轰动”。“这在文学创作中可能会变得很有趣,但对科学界和学术界可能会造成严重的影响。”Thorp写道。编辑和出版商是否已经可以检测出由大模型生成的论文文本?根据《自然》的说法,ChatGPT的原始输出经过仔细检查是可以检测到的,尤其是当涉及多个段落并且主题与科学工作相关时。根据Thorp援引最近的一项研究,由ChatGPT创建的摘要在提交给学术审稿人时,只有63%的文章被检测到使用了AI软件。《科学》杂志制定准则称,人工智能程序不能成为作者,违反这些政策将构成科学不端行为,与篡改图像或抄袭现有论文没有差异。但针对通过人工智能技术在研究中生成的合法的数据集(非论文文本)除外。“科学论文归根结底是人类为解决重要问题所做的努力。机器发挥着重要作用,但它是人们提出假设、设计实验和理解结果的工具。最终,这些产品必须来自人类头脑中美妙的计算机来表达。”Thorp表示。...PC版:https://www.cnbeta.com.tw/articles/soft/1344945.htm手机版:https://m.cnbeta.com.tw/view/1344945.htm

封面图片

「中国学术思想研究集刊·十七编 508册 台湾花木兰出版社 23.4g」

资源名称:「中国学术思想研究集刊·十七编508册台湾花木兰出版社23.4g」描述:花木兰文化事业有限公司系由两岸学者协同主编的学术出版社,12年来已出版了涵盖文史哲各个学门的学术专著数千部,书系二十余种,作者遍及两岸老中青三代学者。本社出版质量之精审、印刷装帧之精美,深获全世界汉学研究机构的肯定与典藏,已成为两岸学术出版的重镇!中国学术思想辑刊目前出到第34编链接:https://www.aliyundrive.com/s/5yryfkReN4f提取码:04sc

封面图片

顶级学术期刊杂志编辑集体辞职,因出版商拒绝降低“不道德”的高昂出版费用

顶级学术期刊杂志编辑集体辞职,因出版商拒绝降低“不道德”的高昂出版费用超过40位顶尖科学家集体辞去顶级科学期刊编辑委员会的职务,以抗议他们所说的出版巨头爱思唯尔(Elsevier)的“贪婪”。Neuroimage杂志的整个学术委员会,包括牛津大学、伦敦国王学院和卡迪夫大学的教授,在爱思唯尔拒绝降低出版费用后辞职。世界各地的学术界都为学术出版界的巨额利润发起反抗而欢呼,许多人希望这会引发一场反叛,其利润率超过了苹果、谷歌和亚马逊。Neuroimage是全球领先的脑成像研究刊物,是众多现在“开放获取”而非订阅付费墙的期刊之一。但它对作者的收费极其高昂,现在学术界要为发表一篇研究论文支付超过2,700英镑。前任编辑说这是“不道德的”。Elsevier是一家荷兰公司,号称发表了全球25%的科学论文,该公司去年的收入增长了10%,达到29亿英镑。但根据其2019年的账目,接近40%的利润率最让学术界感到愤怒。——

封面图片

付费出版物出现在 Telegram经过认证的

付费出版物出现在Telegram经过认证的@donate机器人已获得对付费消息的支持。支付,如捐赠和订阅付费频道,通过SmartGlocalPayments进行,资金将流向内容作者。该功能支持照片和视频。在购买之前,用户只看到媒体的概要和支付金额。购买后,用户将能够查看内容。。该功能正在测试中。温馨提示:付费帖子不适用于苹果设备。这可能是由于苹果的政策。,应用程序中的数字商品只能通过Apple支付系统进行支付,该系统对所有交易进行收费佣金为15%至30%。频道投稿:@ZaihuaBot订阅频道:@TestFlightCN双11活动:http://11.maxok.com

封面图片

世界上最大的学术出版商认为ChatGPT不能被标记为作者

世界上最大的学术出版商认为ChatGPT不能被标记为作者施普林格-自然的旗舰出版物《自然》的主编MagdalenaSkipper表示:"我们现在不得不澄清我们的立场:为我们的作者,为我们的编辑,也为我们自己。这种新一代的LLM工具--包括ChatGPT产生的内容真的在社区中爆发了,社区理所当然地对它们感到兴奋和玩味,但[也]以超出目前真正可以使用的方式来使用它们。"ChatGPT和早期的大型语言模型(LLMs)已经在少量发表的论文、预印本和科学文章中被列为作者,然而,这些工具的贡献的性质和程度因个案而异。在《肿瘤科学》杂志上发表的一篇观点文章中,ChatGPT被用来论证在帕斯卡尔赌注的背景下服用某种药物,并明确标注了人工智能生成的文本。但在一篇研究机器人通过美国医学执照考试(USMLE)能力的预印本论文中,对机器人贡献的唯一承认是一句话,称该程序"为本稿的几个部分的写作做出了贡献"。在后者的预印本论文中没有提供进一步的细节,说明ChatGPT是如何或在哪里被用来生成文本的。然而,资助这项研究的公司--医疗保健创业公司AnsibleHealth的首席执行官认为,该机器人做出了重大贡献。AnsibleHealth首席执行官JackPo表示:"我们之所以把[ChatGPT]列为作者,是因为我们相信它实际上对论文的内容做出了智力上的贡献,而不仅仅是作为一个评估对象。"科学界对将ChatGPT作为作者的论文的反应主要是负面的,社交媒体用户称USMLE案例中的决定是"荒谬的"、"愚蠢的"、"非常愚蠢的"。反对给予人工智能作者资格的论点是,软件根本无法履行所需的职责,正如Skipper和NatureSpringer解释的那样。Skipper说:"当我们想到科学论文、研究论文的作者资格时,我们不只是想到写论文。有一些责任是超越出版的,当然,目前这些人工智能工具还不能承担这些责任。"软件不能对一份出版物进行有意义的问责,它不能为其工作主张知识产权,也不能与其他科学家和媒体通信以解释和回答关于其工作的问题。如果在将人工智能作为作者的问题上有广泛的共识,那么在使用人工智能工具撰写论文的问题上就不那么明确了,即使有适当的致谢。这部分是由于这些工具的输出存在有据可查的问题。人工智能写作软件可以放大社会偏见,如性别歧视和种族主义,并有产生"合理的废话"的倾向--将不正确的信息作为事实呈现。正是因为有这样的问题,一些组织已经禁止在特定范围内使用ChatGPT,包括学校、学院和依赖分享可靠信息的网站,如编程问答库StackOverflow。本月早些时候,一个关于机器学习的顶级学术会议禁止使用所有人工智能工具来撰写论文,尽管它确实说作者可以使用此类软件来"打磨"和"编辑"他们的作品。写作和编辑之间的界限到底在哪里是很棘手的,但对于《自然-斯普林格》来说,这种使用情况也是可以接受的。"我们的政策非常明确:我们不禁止将其作为撰写论文的工具,"Skipper说,"最根本的是,要有明确的规定。关于一篇论文是如何组成的,以及使用什么[软件]。我们需要透明度,因为这正是科学应该如何完成和交流的核心所在。"鉴于人工智能可用于广泛的应用,这一点尤其重要。人工智能工具不仅可以生成和转述文本,还可以迭代实验设计,或者用来碰撞思想,就像机器实验室伙伴一样。像SemanticScholar这样由人工智能驱动的软件可以用来搜索研究论文并总结其内容。Skipper指出,"另一个机会是使用人工智能写作工具来帮助那些英语不是其第一语言的研究人员。从这个角度来看,它可能是一种有用而过程中没有太大争议的工具。""在科学工作中禁止人工智能工具将是无济于事的,我认为我们可以有把握地说,直接禁止任何东西都是无效的。她说,相反,科学界--包括研究人员、出版商和会议组织者--需要走到一起,制定新的披露规范和安全护栏。作为一个社区,我们有责任关注积极的用途和潜力,然后规范和遏制潜在的滥用。我很乐观,我们可以做到这一点。"...PC版:https://www.cnbeta.com.tw/articles/soft/1341101.htm手机版:https://m.cnbeta.com.tw/view/1341101.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人