OpenAI、谷歌、微软和 Anthropic 组成联合机构来监督安全的“前沿人工智能”开发

OpenAI、谷歌、微软和 Anthropic 组成联合机构来监督安全的“前沿人工智能”开发 四家卓越的人工智能参与者正在联合组建一个新的行业机构,旨在确保所谓的“前沿人工智能”模型的“安全和负责任的开发”。 为了回应日益增长的监管呼声,ChatGPT的开发者OpenAI、微软、谷歌和Anthropic宣布成立Frontier Model Forum,这个联盟将借助成员公司的专业知识来开发技术评估和基准,并促进最佳实践和标准。 Forum的核心目标是:1、推进人工智能安全研究,促进前沿模型的负责任开发,降低风险,实现独立的标准化能力和安全评估。2、确定负责任地开发和部署前沿模型的最佳实践,帮助公众理解该技术的性质、能力、限制和影响。3、与决策者、学者、民间社会和公司合作,共享有关信任和安全风险的知识。4、支持开发有助于应对社会最大挑战的应用程序,如应对气候变化、早期癌症检测和预防以及打击网络威胁。 尽管 Frontier Model Forum 目前只有四名成员,但该团体表示正在向新成员开放。符合资格的组织应该开发和部署前沿人工智能模型,并展示对“前沿模型安全”有着坚定的承诺。

相关推荐

封面图片

微软和Google宣布为生成式人工智能服务提供新的儿童安全承诺

微软和Google宣布为生成式人工智能服务提供新的儿童安全承诺 这两家公司和其他公司与两个团体合作,提出了这些新的承诺。一个名为"Thorn",是一个致力于打击儿童性虐待的非营利组织。另一个名为"所有科技都应以人为本"(All Tech Is Human),旨在帮助创建一个"负责任的科技生态系统"。微软在博文中表示,它将开发生成式人工智能模型,这些模型将不会在包含儿童性或剥削性内容的数据集上进行训练。这也将有助于保护这些模型在发布后免受此类内容的影响。博文补充道:今天的承诺标志着在防止滥用人工智能技术制作或传播儿童性虐待材料(AIG-CSAM)和其他形式的儿童性伤害方面迈出了重要一步。这一集体行动彰显了科技行业对儿童安全的重视,表明了对道德创新和社会最弱势群体福祉的共同承诺。Google在博文中提到的儿童安全承诺与微软 在其人工智能服务方面所做的一些承诺如出一辙。Google补充说,它有自己的团队专门负责查找显示儿童可能面临危险的内容,此外他们还表示,正试图通过"哈希匹配技术、人工智能分类器和人工审核的结合"来查找和删除涉及儿童性虐待和性剥削的内容。最后,Google宣布支持美国国会关于保护儿童免受虐待和剥削的一系列法案。 ... PC版: 手机版:

封面图片

由几名前OpenAI员工创办的人工智能公司Anthropic表示,新的Claude 3系列人工智能模型的表现与谷歌和OpenAI

由几名前OpenAI员工创办的人工智能公司Anthropic表示,新的Claude 3系列人工智能模型的表现与谷歌和OpenAI的领先模型一样好,甚至更好。与早期版本不同的是, Claude 3也是多模态的,能够理解文本和照片输入。 Anthropic 表示 Claude 3 将可以回答更多的问题,理解更长的指令,并更准确。Claude 3可以理解更多的上下文,这意味着它可以处理更多的信息。 标签: #Anthropic #Claude 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

报道微软正在自行开发比OpenAI更小更便宜的人工智能模型

报道微软正在自行开发比OpenAI更小更便宜的人工智能模型 这些 SLM 旨在提供与 OpenAI 的 GPT 等大型语言模型(LLM)类似的对话和生成能力,但对硬件的需求大大降低。与外部开发的替代产品相比,这将使微软的人工智能产品和服务具有更低的相关成本和碳足迹。GenAI 团队预计将并入微软的 Azure 云计算部门,将专注于创建更小的语言模型。为了支持 GenAI 团队,微软还从其研究小组调来了几位顶尖开发人员。微软公司副总裁米沙-比连科(Misha Bilenko)将领导该团队的工作。GenAI 团队的目标是创造出与 OpenAI 等公司提供的模型功能相匹配甚至更强的人工智能,同时针对较小的规模进行优化。迄今为止,微软已将 OpenAI 的多项人工智能功能纳入其产品中。例如,必应在Copilot中使用了GPT-4,必应图像创建器在图像生成中使用了Dall-E。最近几周,该公司还推出了Copilot Pro一项针对个人消费者的订阅服务,为他们提供更先进的人工智能功能。该报告是在 OpenAI 最近推出 GPT 商店之后发布的,用户可以在该商店创建、分享和销售基于 OpenAI 语言模型的定制人工智能模型。同样,微软也宣布了自己的计划,即为Copilot提供针对特定需求和主题定制的人工智能聊天机器人。然而,依赖外部开发的人工智能会产生一些费用,而且缺乏对技术本身的控制。微软致力于开发更小巧、更经济实惠的人工智能技术,这有可能为公司提供自己的解决方案开辟新的途径,减少对第三方供应商的依赖。据说美国司法部(DOJ)和联邦贸易委员会(FTC)希望调查 OpenAI 与微软的关系,以防您错过。上周,我们曾报道,这两个机构都急于调查这笔交易,特别是微软的参与及其对人工智能行业竞争的影响。 ... PC版: 手机版:

封面图片

Anthropic 发布新的人工智能模型更新

Anthropic 发布新的人工智能模型更新 人工智能公司 Anthropic 推出了其最新模型 Claude 3.5 Sonnet,据称该模型在各种任务中的表现可与 OpenAI 的 GPT-4.o 或谷歌的 Gemini 相媲美甚至更胜一筹。新模型已在网页和 iOS 上供 Claude 用户使用,并且也将向开发者提供。Claude 3.5 Sonnet 在编写和翻译代码、处理多步骤工作流程、解释图表和图形以及从图像转录文本方面将表现得更好。

封面图片

英国机构发布测试人工智能模型安全性的工具

英国机构发布测试人工智能模型安全性的工具 英国人工智能安全机构英国安全研究所发布了一套工具集,旨在通过让行业、研究机构和学术界更容易开发人工智能评估来“加强人工智能安全”。该工具集名为 Inspect,可在开源许可证 (特别是 MIT 许可证) 下使用,旨在评估人工智能模型的某些功能,包括模型的核心知识和推理能力,并根据结果生成分数。英国安全研究所声表示,Inspect 标志着“首次由国家支持的机构牵头的人工智能安全测试平台发布以供更广泛使用”。Inspect 由三个基本组件组成:数据集、求解器和评分器。数据集为评估测试提供样本。求解器负责执行测试。评分器评估求解器的工作,并将测试中的分数汇总为指标。Inspect 的内置组件可以通过用 Python 编写的第三方包进行增强。   、、

封面图片

硅谷对加州人工智能安全法案不满

硅谷对加州人工智能安全法案不满 美国加利福尼亚州的人工智能重量级企业正在抗议一项州法案,该法案将迫使科技公司遵守严格的安全框架,包括创建一个“切断开关”来关闭其强大的人工智能模型。该法案于上月由加州参议院通过,并将于8月在众议院进行表决。该法案要求加州的人工智能团体向一个新成立的州机构保证,它们不会开发具有“危险能力”的模型,例如制造生物武器或核武器,或协助网络安全攻击。根据拟议中的《前沿人工智能系统安全创新法案》,开发人员必须报告其安全测试,并引入所谓的“切断开关”来关闭他们的模型。 ()

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人