美国之音担心人工智能潜在风险白宫召集谷歌、微软、OpenAI等公司主管开会

None

相关推荐

封面图片

拜登怕AI危及国安!紧急召集微软、Google、OpenAI进白宫商谈「人工智慧风险」https://toutiaoqushi.

封面图片

美国最高层官员们召集谷歌、微软、OpenAI CEO开会 都说了什么?

美国最高层官员们召集谷歌、微软、OpenAICEO开会都说了什么?哈里斯指出,近几个月来,生成式人工智能工具的流行使用激增,带来的挑战很复杂,还表示企业必须与政府合作,以确保保护公民权利和隐私,并防止错误信息或诈骗。她也明确了行业应有的责任使命,称“私营部门需要有道德、有法律责任,来确保其产品的安全。”哈里斯在与多位首席执行官们就推进负责任的人工智能创新会面后,发表声明,要点包括:技术进步总是带来机遇和风险,生成式人工智能也不例外。人工智能是当今最强大的技术之一,具有改善人们生活和应对部分极具挑战性的社会问题的潜力。与此同时,人工智能有可能显著增加对安全的威胁,侵犯公民权利和隐私,并削弱公众的信任和信心。在我的整个职业生涯中,我一直专注于保护消费者免受与技术相关的风险。我致力于保护老年人免受网络诈骗,保护妇女和女孩免受网络骚扰,保护消费者免受隐私侵犯,在加州司法部内建立隐私执法和保护部门。很明显,技术进步,包括人工智能带来的挑战,是复杂的。政府、私营公司和社会上的其他人必须共同应对这些挑战。拜登总统和我致力于尽我们的一份力量,包括推进潜在的新法规和支持新立法,让每个人都能安全地从技术创新中受益。正如我今天与美国人工智能创新前沿公司的首席执行官们分享的那样,私营部门需要有道德、有法律责任,来确保其产品的安全。每家公司都必须遵守现行法律以保护人民。我期待着在接下来的几周内跟进。昨日据报道,邀请函显示,拜登表示,希望像你们这样的公司在向公众提供产品之前,必须确保产品是安全的。人们担心,快速发展的AI技术可能侵犯隐私并怀有偏见,散布谣言和虚假信息。ChatGPT自去年问世以来,引发了巨大的社会争议,也引起了美国立法者的警惕。今年4月,拜登表示,AI技术是否危险还有待观察,但他强调,科技公司有责任确保其产品的安全。社交媒体已经反映出,如果没有正确的保障措施,强大的技术可能会造成危害。在本次白宫会议召开之前,包括微软和Alphabet在内的主要人工智能公司承诺参与对其系统的首次独立公开评估。在该承诺下,AI系统将可供黑客和AI专家们在8月的DefCon31会议上进行测试和评估。相关演习旨在生成更多关于这些模型影响的公开信息,并使有关公司能够解决出现的问题,有助于识别产品中的错误、故障和漏洞。不过这些公司有限地允许测试和评估,而不是承诺在生产或改进新产品时进行持续地评估,可能不足以满足监管机构的要求。但无论如何,8月的这次大会可以被视为开放系统进行评估的第一步。本周三,美国联邦贸易委员会主席LinaKhan表示,该机构正在密切监控人工智能工具的使用。“虽然这些工具很新颖,但它们不能免除现有规则,联邦贸易委员会将大力执法。”在对AI立法方面,欧洲先行一步。上周,欧盟达成《人工智能法》协议,为生成式AI设立版权规则。监管当局要求部署ChatGPT等生成式人工智能工具的公司披露用于开发其系统的受版权保护的材料。该协议为可能是世界上第一部综合性人工智能法律的《人工智能法》出台铺平道路。刚刚过去的周末,七国集团数字部长表示,成员国应采用“基于风险”的人工智能监管。与此同时,相关监管还应为人工智能技术的发展保持开放和有利的环境。...PC版:https://www.cnbeta.com.tw/articles/soft/1358249.htm手机版:https://m.cnbeta.com.tw/view/1358249.htm

封面图片

微软准备新的人工智能模型,以便与谷歌、OpenAI展开竞争。

封面图片

微软准备新的人工智能模型,以便与谷歌、OpenAI展开竞争

封面图片

巴菲特担心人工智能具有巨大潜在危害

巴菲特担心人工智能具有巨大潜在危害巴菲特周六在伯克希尔公司于内布拉斯加州奥马哈市举行的年会上说:“当我们开发核武器时,我们把一个魔鬼从瓶子里放了出来。人工智能有点类似,它的一部分已经从瓶子里出来了。”这位亿万富翁投资者承认,他对底层技术如何运作知之甚少,但他说他有理由担心。他最近看到自己的形象和声音被人工智能工具复制,即使是他的妻子和孩子也很难判断出这是假的。巴菲特预测说,随着犯罪分子利用人工智能向亲戚索要钱财,所谓的深度伪造的威力可能会使诈骗更加有效。他说:“如果我有兴趣投资诈骗,这将是有史以来增长最快的行业。”——

封面图片

OpenAI、谷歌、微软和 Anthropic 组成联合机构来监督安全的“前沿人工智能”开发

OpenAI、谷歌、微软和Anthropic组成联合机构来监督安全的“前沿人工智能”开发四家卓越的人工智能参与者正在联合组建一个新的行业机构,旨在确保所谓的“前沿人工智能”模型的“安全和负责任的开发”。为了回应日益增长的监管呼声,ChatGPT的开发者OpenAI、微软、谷歌和Anthropic宣布成立FrontierModelForum,这个联盟将借助成员公司的专业知识来开发技术评估和基准,并促进最佳实践和标准。Forum的核心目标是:1、推进人工智能安全研究,促进前沿模型的负责任开发,降低风险,实现独立的标准化能力和安全评估。2、确定负责任地开发和部署前沿模型的最佳实践,帮助公众理解该技术的性质、能力、限制和影响。3、与决策者、学者、民间社会和公司合作,共享有关信任和安全风险的知识。4、支持开发有助于应对社会最大挑战的应用程序,如应对气候变化、早期癌症检测和预防以及打击网络威胁。尽管FrontierModelForum目前只有四名成员,但该团体表示正在向新成员开放。符合资格的组织应该开发和部署前沿人工智能模型,并展示对“前沿模型安全”有着坚定的承诺。——

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人