推进人工智能安全研究 美国“AI四大天王”牵头成立行业机构

推进人工智能安全研究美国“AI四大天王”牵头成立行业机构7月26日,Google、微软、OpenAI和Anthropic这AI“四大天王”发布联合公告,宣布成立前沿模型论坛(FrontierModelForum),来确保未来可以安全且负责任地开发前沿人工智能模型。公告指出,前沿模型论坛的核心目标包括:推进人工智能安全研究,促进负责任地开发人工智能系统,最大限度地降低风险,并实现对大模型能力和安全性的独立、标准化评估。确定前沿模型负责任开发和部署的最佳案例,帮助公众了解这项技术的性质、能力、局限性和影响。与各国政府、学术界、社会组织及公司合作,分享有关AI大模型信任和安全风险的知识。支持开发有助于应对全球社会挑战的应用程序,例如减缓和适应气候变化、早期癌症检测和预防以及应对网络威胁。联合公告还指出,该论坛将在未来几个月内成立一个咨询委员会来指导AI战略,并将成立工作组和执行委员会,来安排包括章程、管理和资金在内的工作。微软副董事长兼总裁布拉德·史密斯(BradSmith)表示,创造AI大模型的公司有责任确保其安全可靠,并始终处于人类控制之下:这一举措是将科技行业聚集在一起,负责任地推进人工智能并应对挑战,使其造福全人类的重要一步。但针对这一论坛,英国《金融时报》指出,论坛的建立意味着科技巨头们的工作将集中于日益强大的人工智能带来的潜在风险,而不是回答当今监管机构与版权、数据保护和隐私有关的实际问题。华盛顿大学的计算语言学家EmilyBender认为这些公司的做法是试图逃避监管,让公众将注意力集中在对“AI‘涌现’并接管人类工作”的恐惧上,会分散人们对“数据盗窃、监视等实际问题”的注意力:“监管需要来自外部。它需要由代表各国政府制定,来限制这些公司的行为。”此前,美国联邦贸易委员会(FTC)已对OpenAI发起调查。当地时间7月13日媒体报道称,FTC告知OpenAI,将调查ChatGPT是否通过发布虚假信息损害了人们的利益,以及OpenAI是否存在“不公平或欺骗性”的隐私和数据安全行为。这一举动早有预警,今年5月,白宫与OpenAI、Google、微软等公司的首席执行官会面,探讨相关技术的风险。白宫还表示,七家最大的AI公司已经同意在8月份的年度DefCon极客大会上开放模型,接受一定程度的公众监督。近日,在白宫“指示”下,美国人工智能(AI)巨头“自我管控”的条例浮出水面。白宫公布,拜登政府得到了亚马逊、Anthropic、Google、Inflection、Meta、微软和OpenAI七家公司自愿的承诺,管控AI带来的风险。他们承诺,将帮助推动AI技术安全且透明地发展。...PC版:https://www.cnbeta.com.tw/articles/soft/1373291.htm手机版:https://m.cnbeta.com.tw/view/1373291.htm

相关推荐

封面图片

OpenAI、谷歌、微软和 Anthropic 组成联合机构来监督安全的“前沿人工智能”开发

OpenAI、谷歌、微软和Anthropic组成联合机构来监督安全的“前沿人工智能”开发四家卓越的人工智能参与者正在联合组建一个新的行业机构,旨在确保所谓的“前沿人工智能”模型的“安全和负责任的开发”。为了回应日益增长的监管呼声,ChatGPT的开发者OpenAI、微软、谷歌和Anthropic宣布成立FrontierModelForum,这个联盟将借助成员公司的专业知识来开发技术评估和基准,并促进最佳实践和标准。Forum的核心目标是:1、推进人工智能安全研究,促进前沿模型的负责任开发,降低风险,实现独立的标准化能力和安全评估。2、确定负责任地开发和部署前沿模型的最佳实践,帮助公众理解该技术的性质、能力、限制和影响。3、与决策者、学者、民间社会和公司合作,共享有关信任和安全风险的知识。4、支持开发有助于应对社会最大挑战的应用程序,如应对气候变化、早期癌症检测和预防以及打击网络威胁。尽管FrontierModelForum目前只有四名成员,但该团体表示正在向新成员开放。符合资格的组织应该开发和部署前沿人工智能模型,并展示对“前沿模型安全”有着坚定的承诺。——

封面图片

英国将成为首个成立人工智能安全研究所的国家

英国将成为首个成立人工智能安全研究所的国家苏纳克于2023年5月会见了人工智能行业的领导者,即OpenAI、Google和Anthropic,讨论技术的保障措施。与唐宁街代表的会面为确保安全、负责任地发展人工通用智能(AGI)的倡议做了准备。苏纳克说:"在安全可靠的情况下,人工智能有可能带来变革和经济增长。"在这一进展之后,英国政府宣布将于11月1日和2日举行人工智能安全峰会。此次峰会将汇聚人工智能公司、政府、民间团体和人工智能领域的专家,目标是考虑人工智能的风险,尤其是在发展前沿的风险讨论如何通过国际协调行动降低风险。此次峰会将重点关注前沿人工智能(FrontierAI),这是一类能力极强的基础模型,其性能与现有模型相当或更胜一筹。就在峰会召开前一周,英国首相在伦敦的一次演讲中宣布成立人工智能安全研究所,这在世界上尚属首次。根据苏纳克的说法,该研究所将"仔细评估和测试新型人工智能,以便我们了解新模型的能力"。英国政府还就前沿人工智能的风险以及人工智能攻击的规模和速度导致的网络安全漏洞发布了两份讨论文件。这两份文件警告说,在未来,我们可能会看到由人工智能进行和防御的网络攻击,而在每一个步骤中,人类的监督都会被最小化。...PC版:https://www.cnbeta.com.tw/articles/soft/1392513.htm手机版:https://m.cnbeta.com.tw/view/1392513.htm

封面图片

美国开放人工智能研究中心成立安全委员会

美国开放人工智能研究中心成立安全委员会美国开放人工智能研究中心(OpenAI)28日表示,该公司新成立一个安全委员会,并已开始训练新人工智能模型,以取代其ChatGPT聊天机器人目前所依赖的GPT-4系统。OpenAI在当天发布的一份声明中说,该安全委员会将就其项目和运营的“关键安全决策”向董事会提供建议。委员会成员包括OpenAI首席执行官萨姆・奥尔特曼和董事会主席布雷特・泰勒,以及其他几位技术和决策专家。(新华社)

封面图片

谷歌、微软等14家科技公司成立“安全人工智能联盟”

谷歌、微软等14家科技公司成立“安全人工智能联盟”人工智能需要一个能够跟上其快速增长步伐的安全框架和应用标准。谷歌等14家科技公司7月18日在阿斯彭安全论坛上宣布成立安全人工智能联盟(CoSAI)。谷歌表示:“过去一年来,我们一直致力于组建这个联盟,以推进全面的安全措施,应对人工智能带来的独特风险,包括实时出现的问题和未来可能出现的问题。”该联盟的创始成员包括亚马逊、微软、Anthropic、Chainguard、英特尔、Cohere、思科、GenLab、IBM、OpenAI、英伟达、Paypal和Wiz。——

封面图片

微软谷歌等AI四巨头牵头成立行业机构 先于白宫自我监管

微软谷歌等AI四巨头牵头成立行业机构先于白宫自我监管在美国政府的敦促下,参与前沿模型论坛的企业已经同意在国会可能通过有约束力的法规之前,对AI技术的发展实施保障措施。OpenAI全球事务副总裁AnnaMakanju在声明中表示:“这是一项紧迫的工作,本论坛具备迅速采取行动的条件。”微软总裁布拉德·史密斯(BradSmith)在声明中表示:“这一举措至关重要,能让科技行业的所有企业团结一致,负责任地推进AI的发展,应对挑战,从而造福全人类。”该论坛计划在未来几个月成立一个能够评估优先事项的咨询委员会,并为此领导这项工作而建立章程和治理体系,以及筹资。最新一代的AI模型让人们意识到,这些系统正在接近人类的智能程度。世界各国政府都希望共同努力对抗AI带来的危险。七国集团正计划在英国召开国际人工智能峰会。微软总裁布拉德·史密斯(BradSmith)在声明中表示:“这一举措至关重要,能让科技行业的所有企业团结一致,负责任地推进AI的发展,应对挑战,从而造福全人类。”...PC版:https://www.cnbeta.com.tw/articles/soft/1373631.htm手机版:https://m.cnbeta.com.tw/view/1373631.htm

封面图片

英特尔和 AMD 等全球 50 家机构成立人工智能联盟

英特尔和AMD等全球50家机构成立人工智能联盟据IBM官网今晨透露,包括英特尔、AMD、IBM、Meta、Oracle、HuggingFace、索尼集团、美国达特茅斯学院、美国康奈尔大学、美国耶鲁大学、日本东京大学、Linux基金会等全球50多个创始成员和合作者,联合发起成立人工智能联盟(AIAlliance),以加速人工智能(AI)技术负责任的创新与发展。目前,AI联盟官网thealliance.ai已上线。值得注意的是,此次成立人工智能联盟,并没有包含OpenAI、英伟达。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人