NIST 推出评估生成式人工智能的新平台

NIST 推出评估生成式人工智能的新平台 NIST 在新推出的 NIST GenAI网站和一份新闻稿中解释说,NISTGenAI将发布基准,帮助创建"内容真实性"检测(即深度验假)系统,并鼓励开发软件来识别人工智能生成的虚假或误导性信息的来源。"NIST GenAI 计划将发布一系列挑战问题,[旨在]评估和衡量生成式人工智能技术的能力和局限性。这些评估将用于确定促进信息完整性的策略,并指导安全、负责任地使用数字内容"。NIST GenAI 的第一个项目是一项试点研究,目的是建立能够可靠区分人类创建的媒体和人工智能生成的媒体的系统,首先从文本开始。(虽然许多服务都声称可以检测深度伪造,但研究和测试表明,它们充其量只能说是不可靠的,尤其是在文本方面)。NIST GenAI 邀请学术界、工业界和研究实验室的团队提交"生成器"(生成内容的人工智能系统)或"鉴别器"(旨在识别人工智能生成内容的系统)。研究中的生成器必须生成 250 字或更少的摘要,提供一个主题和一组文档,而判别器必须检测给定摘要是否可能是人工智能编写的。为确保公平,NIST GenAI 将提供测试生成器所需的数据。NIST 表示:"以公开数据训练的系统如果不"遵守适用的法律法规",将不被接受。试点登记将于 5 月 1 日开始,第一轮两家计划于 8 月 2 日结束。 预计研究的最终结果将于 2025 年 2 月公布。在人工智能生成的错误信息和虚假信息呈指数级增长之际,NIST GenAI 启动了以深度伪造为重点的研究。根据深度假货检测公司Clarity 的数据,与去年同期相比,今年制作和发布的深度假货数量增加了 900%。这引起了人们的恐慌,这是可以理解的。 YouGov 最近的 一项民意调查 发现,85% 的美国人担心误导性的深度假新闻会在网上传播。NIST GenAI 的启动是 NIST 响应乔-拜登总统关于人工智能的行政命令的一部分,拜登总统的行政命令规定,要求人工智能公司在其模型如何工作方面提高透明度,并制定了一系列新标准,包括对人工智能生成的内容进行标注。这也是 NIST 在任命前 OpenAI 研究员保罗-克里斯蒂亚诺(Paul Christiano)为该机构的人工智能安全研究所成员后,首次发布与人工智能相关的消息。克里斯蒂亚诺因其"现实主义"观点而备受争议;他曾预言,"人工智能的发展有50%的可能以[人类毁灭]而告终"。据报道,包括美国国家标准与技术研究院(NIST)科学家在内的批评人士担心,克里斯蒂亚诺可能会鼓励人工智能安全研究所关注"幻想的场景",而不是现实的、更直接的人工智能风险。NIST 表示,NIST GenAI 将为人工智能安全研究所的工作提供参考。 ... PC版: 手机版:

相关推荐

封面图片

Adobe 推出人工智能音乐生成工具

Adobe 推出人工智能音乐生成工具 在布鲁克林的 Hot Pod 峰会上,Adobe 推出了一款名为“Project Music GenAI Control”的人工智能音乐创作工具。该工具可以根据文本描述,例如“快乐的舞蹈”,“悲伤的爵士乐”来生成指定风格的音乐。通过工具内置的编辑控制器,用户还可以调整重复模式、速度、强度和结构。该工具尚未向公众开放,并且尚未公布正式发布日期。

封面图片

谷歌宣布推出人工智能图像生成器 ImageFX

谷歌宣布推出人工智能图像生成器 ImageFX 当地时间2月1日,谷歌在博客文章中宣布推出了一款全新的图像生成工具 ImageFX,新工具由 Imagen 2 (谷歌 DeepMind 的最新文本到图像模型) 提供支持,可以通过简单的文字提示来创建高质量的图像。 用户可以在此体验:链接 谷歌博客

封面图片

生成式AI:人工智能的未来.zip

生成式AI:人工智能的未来.zip 简介:本书《生成式AI:人工智能的未来.zip》涵盖生成式AI:人工智能的未来.zip的方方面面,结合专业知识、研究成果和实例解析,帮助读者构建完整的知识体系,实现更深层次的理解。 标签: #生成#学习#成长#进步 文件大小NG 链接:https://pan.quark.cn/s/f6415efe5383

封面图片

网站生成式人工智能手册

网站生成式人工智能手册 网站功能:人工智能学习手册 网站简介:一个免费、开源的学习资源,旨在系统地组织和呈现现代人工智能(AI)系统的核心概念,尤其是大型语言模型(LLM)和其他生成式模型的最新进展。 该手册为技术背景的读者提供了一条学习路径,帮助他们深入理解生成式AI的基础和应用,特别适合那些对AI充满好奇或希望在该领域发展职业的人士。 网站链接:点击打开 频道 群聊 投稿 商务

封面图片

调查:中国在生成式人工智能应用方面全球第一

调查:中国在生成式人工智能应用方面全球第一 根据美国人工智能和分析软件公司SAS以及Coleman Parkes Research对全球各行业1600名决策者进行的调查,83%的中国受访者表示他们已采用了生成式人工智能。这一比例远高于参与调查的其他16个国家和地区的平均水平(54%)。紧随中国之后的英国和美国,在这两个国家中70%和65%的受访者表示他们已经采用了生成式人工智能。SAS指出,此份调查的受访行业包括了银行、保险、医疗保健、电信、制造、零售和能源等。接受调查的最小企业和组织也雇用了500至999名员工,大型组织雇用了超过10000名员工。自ChatGPT发布之后,GenAI领域的发展势头迅猛,目前已有数十家中国公司推出了自身的聊天机器人版本。上周,联合国世界知识产权组织的一份报告也显示,中国在GenAI专利竞赛中处于领先地位,2014年至2023年间,中国的生成式人工智能发明超过3.8万件,是排名第二的美国的6倍之多。虽然包括OpenAI在内的一些国际领先的生成式人工智能服务提供商,目前对中国地区的使用施以限制,但中国已发展出一个强大的本地生成式人工智能产业,从字节跳动等科技巨头到智谱等初创企业都提供了相关AI服务。由于价格战可能进一步降低企业大型语言模型服务的成本,未来中国企业采用生成式人工智能的速度还有望进一步加快。调查还显示,受访的每10个组织中只有1个已做好遵守GenAI法规所需的准备工作。95%的企业缺乏全面的GenAI治理框架。只有不到十分之一的组织(7%)提供了高水平的GenAI治理和监控培训。值得一提的是,在生成式AI的法规建设和安全监控方面,中国同样位居全球第一。不过,Coleman Parkes董事总经理Stephen Saw也表示,尽管中国在GenAI采用率方面可能处于领先地位,但采用率更高并不一定意味着实施效果更好或回报更高。事实上,美国在GenAI的竞争中可能仍要略占上风,24%的美国企业和组织已全面实施了GenAI(将生成式AI与现有业务流程进行整合使用),而中国这一比例仅为19%。调查报告还提到,按行业划分,TMT、零售、保险、银行和生命科学等领域目前在GenAI的应用方面处于领先位置。制造业、公共部门和医疗保健等领域则相对落后。                                     ... PC版: 手机版:

封面图片

人工智能对人工智能生成的内容进行训练将导致人工智能崩溃

人工智能对人工智能生成的内容进行训练将导致人工智能崩溃 用于训练大型语言模型的数据最初来自人类来源,如书籍、文章、照片等,这些都是在没有人工智能的帮助下创建的。但随着越来越多的人使用人工智能来制作和发布内容,一个明显的问题出现了:当人工智能生成的内容在互联网上扩散时,人工智能模型开始对其进行训练。研究人员发现,“在训练中使用模型生成的内容会导致所产生的模型出现不可逆转的缺陷。”他们研究了文本到文本和图像到图像的人工智能生成模型的概率分布,得出结论:“从其他模型产生的数据中学习会导致模型崩溃 这是一个退化的过程,并且随着时间的推移,模型会忘记真正的基础数据分布。”他们观察到模型崩溃发生得如此之快:模型可以迅速忘记它们最初学习的大部分原始数据。这导致它们随着时间的推移,表现越来越差,错误越来越多。来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人