英韩合办AI峰会 16家企业签署AI安全承诺 中国入列

英韩合办AI峰会 16家企业签署AI安全承诺 中国入列 去年11月,英国召开首届全球AI安全峰会,有近30个国家的官方代表,以及超过80个学术研究机构、企业和公民组织与会。今年5月,英国与南韩合办在线峰会,规模较小,下一场实体峰会则由法国主办,明年召开。根据英国科学创新暨科技部(DSIT)释出的资料,峰会尚未正式展开,已有16家AI科技企业签署安全承诺,要点包括不得发展或部署安全风险无法获充分缓解的AI模型或系统、建立可供问责的安全管理架构,以及向大众揭露各企业对前沿AI(frontier AI)科技安全的应处策略。这16家签署“前沿AI安全承诺”(Frontier AI Safety Commitments)的企业包括OpenAI、亚马逊(Amazon)、Google(Google)及其旗下DeepMind、Meta、马斯克(ElonMusk)去年创办的xAI、微软(Microsoft)、IBM。另外还有三星电子(Samsung Electronics)、Anthropic、Inflection AI、Mistral AI、Cohere、G42、Naver、智谱AI、阿拉伯联合酋长国的“科技创新研究院”(Technology InnovationInstitute)等。英国科技部指出,这16家企业名单包含AI两大强权:美国和中国。科技部表示,这些企业将各自发布AI安全框架,向大众说明未来将如何测算自家前沿AI模型的安全风险,包括遭恶意行为者滥用的风险,以及各家企业对安全风险的最高容忍极限为何、如何确保AI模型的安全风险不会超越此预设门坎。在极端情况下,若企业在采取补救措施后,仍未能将AI模型或系统的安全风险保持在门坎以下,则不得继续发展或进一步部署该模型或系统。英国科技部指出,在订定前沿AI安全风险门坎时,相关企业已承诺将寻求“受信任行为者”的意见,包括本国政府(前提为若情况适当)。根据议程,英国首相苏纳克(Rishi Sunak)和南韩总统尹锡悦,以及英国科技大臣唐萃兰(MichelleDonelan)和南韩科技部长李宗昊将在21和22日分别共同主持一场高阶会议。 ... PC版: 手机版:

相关推荐

封面图片

中央社英韩合办AI峰会 16家企业签署AI安全承诺中国入列 ||

封面图片

领先科技公司签署新一轮AI安全承诺

领先科技公司签署新一轮AI安全承诺 英国和韩国政府宣布,领先的人工智能公司签署了有关人工智能安全的新一轮自愿承诺。包括科技巨头亚马逊、谷歌、Meta、微软、萨姆•奥尔特曼领导的 OpenAI 和马斯克的 xAI 以及中国开发商智谱AI,这些公司将发布框架,概述他们将如何衡量其“前沿”人工智能模型的风险。全球人工智能峰会周二在首尔开幕,两国政府在峰会开幕前表示,这些公司承诺,如果无法缓解严重风险,他们将“根本不开发或部署相关模型”。这些人工智能公司将“评估自己的前沿模型或系统构成的风险……包括在部署该模型或系统之前,以及在训练之前和期间。”

封面图片

美英签署人工智能安全测试里程碑协议

美英签署人工智能安全测试里程碑协议 美国和英国签署了一项具有里程碑意义的人工智能协议,这两个盟国成为首批就如何测试和评估新兴人工智能模型风险进行正式合作的国家。英国科学大臣米歇尔•唐兰和美国商务部长吉娜•雷蒙多周一在华盛顿特区签署了这份协议,列出了两国政府将如何在人工智能安全方面汇集技术知识、信息和人才。该协议是全球首个关于人工智能安全的双边协议。该协议将特别使英国于去年11月成立的新人工智能安全研究所 (AISI) 和尚未开始工作的美国同类机构能够通过借调两国研究人员来交流专业知识。两家机构还将共同研究如何独立评估 OpenAI 和谷歌等公司建立的私人人工智能模型。

封面图片

多家欧洲企业签署公开信,批评欧盟 AI 法案草案限制产业发展

多家欧洲企业签署公开信,批评欧盟 AI 法案草案限制产业发展 欧洲议会在 6 月 14 日通过了人工智能法案草案,这是欧美第一个全面性的 AI 法规,以确保能够可控监管欧洲公司推出的 AI 模型。但包括德国西门子、法国空中客车、法国育碧、德国银行等超过150名欧洲企业高管日前签署公开信,反对该方案草案,表示该草案限制了相关产业及技术的进步空间。 公开信中声称,人工智能法案草案不仅会危及欧洲企业竞争力,实际上也无法有效解决欧洲所面临的种种技术挑战。该法案草案严格监管了模型的训练数据来源、相应能力、输出结果,并要求任何模型在欧盟区域上市前,都需要向欧盟数据库进行验证,因此开发这些基础人工智能系统的公司将面临不成比例的合规成本和责任风险,这可能会鼓励人工智能提供商完全退出欧洲市场。 来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

核心安全团队解散后 OpenAI公布10大安全措施

核心安全团队解散后 OpenAI公布10大安全措施 如何安全地发展人工智能?5月21日周二,为期两天的“AI首尔峰会”以在线视频的方式开幕。本次会议主题主要围绕如何安全地发展AI。世界各地的领导人、科技公司的高管以及国际组织的代表,在会上共同讨论了AI的风险和潜在的好处。在韩国总统尹锡悦和英国首相苏纳克的共同主持下,16家世界领先的AI公司,包括Meta、OpenAI、谷歌、亚马逊、微软等均做出了自愿承诺,保证在开发最前沿的AI技术时注重安全,确保AI系统不会失控并危害人类。如果发现某些极端风险无法控制,他们甚至会选择停止相关AI模型的开发。同时,AI公司们还提出需要制定一些规则和政策框架,来评估和控制AI可能带来的风险。不仅是公司,一些国家的集团(比如G7、欧盟等)也表示支持这个想法,他们同意要把AI的安全和创新放在重要位置。与会者还强调,虽然公司可以自愿承诺要安全使用AI,但也需要有政府出台相关的法律来确保这些承诺能落到实处。被称为“人工智能教父”的计算机科学家Yoshua Bengio称,自愿承诺必须伴随法律监管。目前,全球各地的政府都在努力制定AI相关的法规,例如,联合国已经通过了关于AI系统安全使用的第一项决议,而欧盟的AI法案预计今年晚些时候将生效。对此,网友们纷纷点赞称:“这真是个好消息!很高兴看到欧盟为协调人工智能法规而采取的进步措施。这确实有助于为人工智能道德和安全制定高标准。期待看到该法案的积极影响显现!”虽然AI技术的迅速发展虽然可以造福人类,但同时来带了一些问题,如大批量失业、误导人们、传播错误信息等。牛津大学在X上发帖表示:“全球的AI界正在努力推动AI技术的能力越来越强大,但安全和伦理问题往往是事后才考虑的。科学家们在向世界领导人发出呼吁,要求对AI带来的风险采取行动。他们警告说,自从AI安全峰会以来,在处理这些风险方面的进展还不够。”在核心安全团队解散风波后,OpenAI披露公司安全措施最新情况,消除网友对公司安全问题的担忧例如,在此前OpenAI解散了AI风险团队事件中,该团队负责人Jan Leike离职后吐真言,指责OpenAI在过去几年里将华而不实的产品凌驾于安全之上,并呼吁OpenAl必须成为一家以安全为先的通用人工智能公司。Jan的发言引起了网友的广泛担忧,网友担心OpenAI是否能确保AI技术安全可靠地发展。5月21日,在核心安全团队解散风波后,OpenAI在“AI首尔峰会”上公开分享了公司正在实施的10大安全措施:模型测试与评估:在发布新的AI模型前,OpenAI会进行严格的安全测试,包括内部和外部的评估。如果发现风险超过了他们可接受的“中等”水平,他们会先进行改进,直到风险降低到可以接受的程度。他们还会请外部的专家来帮助评估风险。持续的安全与对齐研究:随着时间的推移,他们的模型在安全性上有了显著改进,这包括减少错误信息的产生和在不利条件下减少有害内容的输出。公司还在投资实用的安全系统和研究,来进一步提高模型的安全性。监控滥用行为:随着越来越强大的语言模型的部署,公司使用了各种工具来监控安全风险和滥用行为。他们与合作伙伴(如微软)共同揭露了技术被滥用的情况,以帮助其他人更好地防范类似风险。系统性的安全措施:公司在模型的每个生命周期阶段实施安全措施,从训练前到部署。他们在数据安全、模型行为控制和监控基础设施方面进行投资。保护儿童:保护儿童是他们工作的重点。公司在其产品中内置了强大的安全措施,以减少对儿童的潜在危害。选举完整性:公司与政府和其他利益相关者合作,以防止AI生成内容的滥用,确保内容透明度,并改善公众获取准确投票信息的途径。影响评估和政策分析投资:公司的影响评估工作对研究、行业规范和政策具有广泛的影响。他们也出版了关于如何管理与语言模型相关的风险的先驱性研究。安全与访问控制措施:公司重视保护客户、知识产权和数据安全。他们控制对AI模型的访问,并投资于网络安全,如内外部渗透测试和悬赏寻找漏洞的计划。与政府合作:公司与全球各地的政府合作,共同制定有效且可适应的AI安全政策。安全决策和董事会监督:公司有一个称为“准备框架”的系统,这个框架AI安全决策提供了指导。公司还有一个跨功能的安全顾问小组,这个小组由来自公司不同部门的成员组成。他们的任务是审查AI模型的性能报告,评估这些模型是否安全,以及在模型正式发布前提出改进建议。尽管有安全顾问小组提供建议和信息,但最终决定权在公司的高层领导手中。在这整个过程中,公司的董事会也会进行监督。最后,OpenAI还计划在未来继续改进这些做法。对此,网友在X上纷纷对OpenAI表示感谢:“很好,感谢更新!安全第一,人工智能第二。”“继续致力于安全。非常感谢!” ... PC版: 手机版:

封面图片

百度创世人李彦宏在阿联酋政府峰会上谈到DeepSeek以及持续投入AI基础设施

百度创世人李彦宏在阿联酋政府峰会上谈到DeepSeek以及持续投入AI基础设施 2月11日,在阿联酋迪拜举办的世界政府峰会上,百度创始人李彦宏在主论坛上与阿联酋AI部长对谈时表示,尽管技术进步、成本降低,但仍需持续投入AI基础设施,以确保处于技术创新的最前沿。 他说:“我们仍需对芯片、数据中心和云基础设施持续投入,以打造更好、更智能的下一代模型。” 在谈及DeepSeek时,他表示不仅在AI领域或IT行业,大多数创新都与降低成本有关。如果成本降低一定比例,生产力也随之提高同样比例。在今天,创新速度比以往都快得多。根据摩尔定律,每18个月,性能就会翻倍而价格减半。如今,大模型推理成本每年降低90%以上。 2024年有消息称,百度将在2025年推出文心大模型5.0。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人