科学期刊《自然》杂志宣布禁止生成式人工智能工具创作图片和视频

科学期刊《自然》杂志宣布禁止生成式人工智能工具创作图片和视频《自然》杂志针对科研领域中生成式人工智能(generativeAI)工具的应用问题做出了一项重要决策。为了确保科研的诚信、透明和道德,该杂志宣布自今日起,不再接受任何使用生成式人工智能工具创作的图片、视频或插图,除非与人工智能相关。《自然》杂志认为,这种技术虽然应用广泛,却带来了一系列无法解决的问题。首先,生成式人工智能工具无法提供数据来源信息,导致编辑、出版商和读者无法核实其准确性和真实性,这违背了科学出版的诚信和透明原则。其次,这些工具可能侵犯数据所有者的隐私和知识产权,因为它们通常使用了大量未经授权的受版权保护的作品进行训练。另外,生成式人工智能工具还可能加剧虚假信息的传播,例如深度伪造技术可用于制造假视频,误导公众或诽谤他人。出于以上考虑,《自然》杂志决定在可预见的未来禁止使用生成式人工智能工具创作视觉内容。对于所有受委托的艺术家、电影制作人、插画师和摄影师,杂志要求在提交作品时确认未使用此类技术。来源,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

相关推荐

封面图片

研究:ChatGPT 等生成式人工智能工具频繁使用率尚低

研究:ChatGPT等生成式人工智能工具频繁使用率尚低5月30日消息,一项由路透社新闻研究所发布的在线调查结果显示,ChatGPT已是目前使用最为广泛的生成式人工智能工具,不过总体上生成式人工智能工具的频繁使用率仍偏低。研究人员对英国、美国、阿根廷、丹麦、法国、日本6个国家的1万多人展开调查。结果显示,ChatGPT是迄今最受认可的生成式人工智能工具,在上述6个国家中,约有50%的网民听说过它。它也是6个国家中迄今使用最广泛的生成式人工智能工具。尽管如此,调查显示,ChatGPT的频繁使用率仍然很低,日本只有1%的人每天使用它,法国和英国为2%,美国为7%。——

封面图片

【新研究:ChatGPT等生成式人工智能工具频繁使用率尚低】

【新研究:ChatGPT等生成式人工智能工具频繁使用率尚低】2024年05月30日01点01分老不正经报道,一项由路透社新闻研究所发布的在线调查结果显示,ChatGPT已是目前使用最为广泛的生成式人工智能工具,不过总体上生成式人工智能工具的频繁使用率仍偏低。研究人员对英国、美国、阿根廷、丹麦、法国、日本6个国家的1万多人展开调查。结果显示,ChatGPT是迄今最受认可的生成式人工智能工具——在上述6个国家中,约有50%的网民听说过它。它也是6个国家中迄今使用最广泛的生成式人工智能工具。尽管如此,调查显示,ChatGPT的频繁使用率仍然很低,日本只有1%的人每天使用它,法国和英国为2%,美国为7%。

封面图片

新研究:ChatGPT 等生成式人工智能工具频繁使用率尚低

新研究:ChatGPT等生成式人工智能工具频繁使用率尚低一项由路透社新闻研究所发布的在线调查结果显示,ChatGPT已是目前使用最为广泛的生成式人工智能工具,不过总体上生成式人工智能工具的频繁使用率仍偏低。研究人员对英国、美国、阿根廷、丹麦、法国、日本6个国家的1万多人展开调查。结果显示,ChatGPT是迄今最受认可的生成式人工智能工具。尽管如此,ChatGPT的频繁使用率仍然很低,日本只有1%的人每天使用它,法国和英国为2%,美国为7%。(新华社)

封面图片

《自然》杂志宣布将不会刊登任何AI生成的图像或视频

《自然》杂志宣布将不会刊登任何AI生成的图像或视频《自然》成立于1869年11月,专门发表来自不同学科的同行评议研究成果,主要集中于在科学和技术领域。它是世界上被引用最多、最具影响力的科学期刊之一。《自然》表示,由于ChatGPT和Midjourney等生成式人工智能工具的日益普及以及能力不断提升,经过数月的激烈讨论和磋商,该杂志最近决定禁止发布人工智能生成的内容。该杂志称:“除了专门讨论人工智能的文章,《自然》将不会出版人工智能生成的任何图片、视频或插图等内容。”该杂志认为,论文刊登要符合诚信和透明度的道德准则,其中包括能够在图像中标注数据来源。“为什么我们要禁止使用生成式人工智能来制作视觉内容呢?归根结底,这是一个诚信问题。无论是科学还是艺术,出版过程都基于对诚信的共同承诺,这包括透明度。作为研究人员、编辑和出版商,我们都需要知道数据和图像的来源,以便验证它们的准确性和真实性。但现有的生成性人工智能工具无法提供数据来源的信息,因此无法进行此类验证。”因此,《自然》杂志称,艺术家、电影制作人、插画家和摄影师等“都将被要求确认他们提交的作品并非由生成性人工智能工具生成或增强”。《自然》杂志还提到,标注参考文献是科学的核心原则,但这也是“道德使用”生成式人工智能艺术作品的另一个障碍。由于人工智能生成的图像通常是从数百万张图像中合成的,因此标注出处存在困难。这也涉及到知情同意和授权的问题,特别是涉及个人身份识别或知识产权的问题。在这方面,《自然》杂志也指出,生产式人工智能仍存在缺陷,它们通常在没有获得必要许可的情况下使用受版权保护的作品进行训练。此外还有虚假信息的问题,尤其是Deepfake技术加速了虚假信息的传播。当然,《自然》并不是完全反对使用人工智能工具。该杂志仍将允许收录使用ChatGPT等辅助生成的文本,但必须附带适当的提醒。这些大语言模型(LLM)工具的使用必须在论文的方法或致谢部分有明确说明。此外,作者也必须提供所有数据来源,即使是在人工智能协助下生成的数据。另外,《自然》杂志坚定地表示,任何LLM工具都不会被认可为研究论文的作者。虽然有些出版物偶尔会出于编辑目的,使用带有明确标记的人工智能生成艺术品,但要以明显、非欺骗性的方式为作品服务,而《自然》杂志认为,作为权威科学期刊,需要非常谨慎地解释和遵守法律和伦理AI政策,不能留下模糊空间。《自然》杂志写道:“许多国家的监管和法律体系仍在制定应对生成式人工智能兴起的策略。在他们迎头赶上来之前,作为研究和创意作品的出版商,《自然》杂志的立场仍是拒绝收录使用生成式人工智能创作的视觉内容。”然而,随着生成式人工智能不断深入地融入到Photoshop等传统图像编辑工具中,像《自然》这样的出版物可能会发现,很难在人工智能生成艺术和非人工智能艺术之间划清界限。就在最近,Adobe在Photoshop的测试版中引入了生成式人工智能工具,由其AdobeFirefly引擎提供支持。在此之前的几十年里,Adobe始终在使用人工智能算法为其许多内置工具提供动力。一旦法律系统解决了抓取数据训练AI模型的潜在问题,在使用视觉作品的道德问题上,最重要的因素可能不再是AI技术的具体实现方式,而是艺术家或作者的意图。在这种情况下,《自然》的人工智能政策显得非常灵活,可以在未来进行调整:“我们预计,在不久的将来,这个领域会迅速取得进展,因此我们将定期审查这一政策,并在必要时进行调整。”(小小)...PC版:https://www.cnbeta.com.tw/articles/soft/1365061.htm手机版:https://m.cnbeta.com.tw/view/1365061.htm

封面图片

贝莱德将于下月向客户推出首个生成式人工智能工具

贝莱德将于下月向客户推出首个生成式人工智能工具据报道,贝莱德周三告诉员工,该公司计划在明年1月向客户推出生成式人工智能工具,这是该公司利用人工智能技术提高生产率的更大努力的一部分。该公司在给员工的备忘录中称,它已使用生成式人工智能为其Aladdin和eFront风险管理系统构建了一个“辅助工具”。客户将能够使用贝莱德的大型语言模型技术,帮助他们从Aladdin中提取信息。备忘录显示,贝莱德还在开发工具,帮助其投资专业人士为研究报告和投资提案收集财务和其他数据,同时它还在开发语言翻译工具。

封面图片

英国政府将试用人工智能工具

英国政府将试用人工智能工具英国的大臣们正在试点使用生成式人工智能来分析对政府意见征集的回应,撰写对议会问题的回答草稿。英国副首相奥利弗•道登将于周四公布一些工具,白厅核心的人工智能“精锐小组”正在试用这些工具,以期在中央部门和公共服务部门更广泛地推广这些工具。人工智能工具包括使用政府托管的ChatGPT版本和内部安全托管的开源人工智能模型,以起草对议员向大臣提交的问题和信息自由请求的初步答复。——()

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人