OpenAI、谷歌、微软和 Anthropic 组成联合机构来监督安全的“前沿人工智能”开发
OpenAI、谷歌、微软和Anthropic组成联合机构来监督安全的“前沿人工智能”开发四家卓越的人工智能参与者正在联合组建一个新的行业机构,旨在确保所谓的“前沿人工智能”模型的“安全和负责任的开发”。为了回应日益增长的监管呼声,ChatGPT的开发者OpenAI、微软、谷歌和Anthropic宣布成立FrontierModelForum,这个联盟将借助成员公司的专业知识来开发技术评估和基准,并促进最佳实践和标准。Forum的核心目标是:1、推进人工智能安全研究,促进前沿模型的负责任开发,降低风险,实现独立的标准化能力和安全评估。2、确定负责任地开发和部署前沿模型的最佳实践,帮助公众理解该技术的性质、能力、限制和影响。3、与决策者、学者、民间社会和公司合作,共享有关信任和安全风险的知识。4、支持开发有助于应对社会最大挑战的应用程序,如应对气候变化、早期癌症检测和预防以及打击网络威胁。尽管FrontierModelForum目前只有四名成员,但该团体表示正在向新成员开放。符合资格的组织应该开发和部署前沿人工智能模型,并展示对“前沿模型安全”有着坚定的承诺。——
在Telegram中查看相关推荐
🔍 发送关键词来寻找群组、频道或视频。
启动SOSO机器人