美国之音担心人工智能潜在风险 白宫召集谷歌、微软、OpenAI等公司主管开会 ||

None

相关推荐

封面图片

拜登怕 AI 危及国安!紧急召集微软、Google、OpenAI 进白宫商谈「人工智慧风险」

封面图片

微软准备新的人工智能模型,以便与谷歌、OpenAI展开竞争

封面图片

巴菲特担心人工智能具有巨大潜在危害

巴菲特担心人工智能具有巨大潜在危害 巴菲特周六在伯克希尔公司于内布拉斯加州奥马哈市举行的年会上说:“当我们开发核武器时,我们把一个魔鬼从瓶子里放了出来。人工智能有点类似,它的一部分已经从瓶子里出来了。” 这位亿万富翁投资者承认,他对底层技术如何运作知之甚少,但他说他有理由担心。他最近看到自己的形象和声音被人工智能工具复制,即使是他的妻子和孩子也很难判断出这是假的。巴菲特预测说,随着犯罪分子利用人工智能向亲戚索要钱财,所谓的深度伪造的威力可能会使诈骗更加有效。他说:“如果我有兴趣投资诈骗,这将是有史以来增长最快的行业。”

封面图片

OpenAI 已解散长期人工智能风险团队

OpenAI 已解散长期人工智能风险团队 去年 7 月,OpenAI 宣布成立一个新的研究团队,为通用人工智能的到来做准备。OpenAI 首席科学家、公司联合创始人之一 Ilya Sutskever 被任命为这个新团队的联合负责人。OpenAI 表示,该团队将获得 20% 的计算能力。 现在 OpenAI 证实,“超级对齐团队”已不复存在。此前多位相关研究人员离职,该团队的两名研究人员 Leopold Aschenbrenner 和 Pavel Izmailov 因泄露公司机密而被解雇,周二 Sutskever 宣布将离开公司,该团队的另一位联合负责人也辞职了。该小组的工作将被纳入 OpenAI 的其他研究工作中。

封面图片

OpenAI、谷歌、微软和 Anthropic 组成联合机构来监督安全的“前沿人工智能”开发

OpenAI、谷歌、微软和 Anthropic 组成联合机构来监督安全的“前沿人工智能”开发 四家卓越的人工智能参与者正在联合组建一个新的行业机构,旨在确保所谓的“前沿人工智能”模型的“安全和负责任的开发”。 为了回应日益增长的监管呼声,ChatGPT的开发者OpenAI、微软、谷歌和Anthropic宣布成立Frontier Model Forum,这个联盟将借助成员公司的专业知识来开发技术评估和基准,并促进最佳实践和标准。 Forum的核心目标是:1、推进人工智能安全研究,促进前沿模型的负责任开发,降低风险,实现独立的标准化能力和安全评估。2、确定负责任地开发和部署前沿模型的最佳实践,帮助公众理解该技术的性质、能力、限制和影响。3、与决策者、学者、民间社会和公司合作,共享有关信任和安全风险的知识。4、支持开发有助于应对社会最大挑战的应用程序,如应对气候变化、早期癌症检测和预防以及打击网络威胁。 尽管 Frontier Model Forum 目前只有四名成员,但该团体表示正在向新成员开放。符合资格的组织应该开发和部署前沿人工智能模型,并展示对“前沿模型安全”有着坚定的承诺。

封面图片

白宫将召开人工智能保障会议,召集顶级AI公司的CEO

白宫将召开人工智能保障会议,召集顶级AI公司的CEO 副总统卡马拉·哈里斯周四将与顶级人工智能公司Alphabet Inc.、微软公司、OpenAI Inc.和 Anthropic的首席执行官会面,这是拜登政府向公司施压以围绕新兴技术实施保障措施的一部分。 据一位白宫官员称,哈里斯和政府官员计划告诉企业领导人,他们有责任减轻人工智能工具的潜在危害。 彭博社获得的一份会议邀请函称,政府正在寻求“坦诚讨论我们每个人在当前和近期人工智能发展中看到的风险、减轻这些风险的行动,以及我们可以共同努力以确保美国人民的其他方式”受益于人工智能的进步,同时免受其危害。” 除副总统外,白宫办公厅主任杰夫齐恩茨、商务部长吉娜雷蒙多、国家安全顾问杰克沙利文和拜登技术顾问阿拉蒂普拉巴卡尔预计将出席。拜登经济顾问莱尔布雷纳德、高级顾问苏珊赖斯和布鲁斯里德以及白宫顾问斯图尔特德勒里也将参加会议。 白宫官员说,这次会议是让公司、研究人员和民间社会倡导者参与进来的更广泛努力的一部分。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人