英韩合办AI峰会 16家企业签署AI安全承诺 中国入列

英韩合办AI峰会16家企业签署AI安全承诺中国入列去年11月,英国召开首届全球AI安全峰会,有近30个国家的官方代表,以及超过80个学术研究机构、企业和公民组织与会。今年5月,英国与南韩合办在线峰会,规模较小,下一场实体峰会则由法国主办,明年召开。根据英国科学创新暨科技部(DSIT)释出的资料,峰会尚未正式展开,已有16家AI科技企业签署安全承诺,要点包括不得发展或部署安全风险无法获充分缓解的AI模型或系统、建立可供问责的安全管理架构,以及向大众揭露各企业对前沿AI(frontierAI)科技安全的应处策略。这16家签署“前沿AI安全承诺”(FrontierAISafetyCommitments)的企业包括OpenAI、亚马逊(Amazon)、Google(Google)及其旗下DeepMind、Meta、马斯克(ElonMusk)去年创办的xAI、微软(Microsoft)、IBM。另外还有三星电子(SamsungElectronics)、Anthropic、InflectionAI、MistralAI、Cohere、G42、Naver、智谱AI、阿拉伯联合酋长国的“科技创新研究院”(TechnologyInnovationInstitute)等。英国科技部指出,这16家企业名单包含AI两大强权:美国和中国。科技部表示,这些企业将各自发布AI安全框架,向大众说明未来将如何测算自家前沿AI模型的安全风险,包括遭恶意行为者滥用的风险,以及各家企业对安全风险的最高容忍极限为何、如何确保AI模型的安全风险不会超越此预设门坎。在极端情况下,若企业在采取补救措施后,仍未能将AI模型或系统的安全风险保持在门坎以下,则不得继续发展或进一步部署该模型或系统。英国科技部指出,在订定前沿AI安全风险门坎时,相关企业已承诺将寻求“受信任行为者”的意见,包括本国政府(前提为若情况适当)。根据议程,英国首相苏纳克(RishiSunak)和南韩总统尹锡悦,以及英国科技大臣唐萃兰(MichelleDonelan)和南韩科技部长李宗昊将在21和22日分别共同主持一场高阶会议。...PC版:https://www.cnbeta.com.tw/articles/soft/1431785.htm手机版:https://m.cnbeta.com.tw/view/1431785.htm

相关推荐

封面图片

中央社英韩合办AI峰会16家企业签署AI安全承诺中国入列

封面图片

领先科技公司签署新一轮AI安全承诺

领先科技公司签署新一轮AI安全承诺英国和韩国政府宣布,领先的人工智能公司签署了有关人工智能安全的新一轮自愿承诺。包括科技巨头亚马逊、谷歌、Meta、微软、萨姆•奥尔特曼领导的OpenAI和马斯克的xAI以及中国开发商智谱AI,这些公司将发布框架,概述他们将如何衡量其“前沿”人工智能模型的风险。全球人工智能峰会周二在首尔开幕,两国政府在峰会开幕前表示,这些公司承诺,如果无法缓解严重风险,他们将“根本不开发或部署相关模型”。这些人工智能公司将“评估自己的前沿模型或系统构成的风险……包括在部署该模型或系统之前,以及在训练之前和期间。”——

封面图片

16家AI巨头在韩国举行峰会 将做出新的安全承诺

16家AI巨头在韩国举行峰会将做出新的安全承诺16家AI巨头在韩国首尔举行全球峰会,将共同做出新的安全承诺,提供开发AI的透明度和问责制。法新社报道,为期两天的峰会在星期二(5月21日)开展,韩国总统尹锡悦和英国首相苏纳克将于星期二晚些时候共同主持线上会议。苏纳克与会前发声明说,AI公司将承诺为开发安全的人工智能方面,提供透明度和问责制。与会的公司包括美国科技巨头微软、亚马逊、IBM和脸书母公司Meta、法国的MistralAI和来自中国的Zhipu.ai。这些公司将达成安全协议,包括将制定框架,用以评估技术风险。当中涵盖哪些风险被“视为无法接受”,以及公司将采取哪些措施来确保不跨越这些门槛。在最极端的情况下,如果公司不能将风险保持在门槛以下,将无法开发新模型或系统。除了AI的安全之外,首尔峰会将讨论政府如何帮助刺激创新,包括大学的人工智能研究。另外,参与者也将考虑如何确保AI技术向所有人开放,并有助于解决气候变化和贫困等问题。2024年5月21日7:51PM

封面图片

英国AI安全峰会首日:中美等28国签署宣言 马斯克等谈AI监管

英国AI安全峰会首日:中美等28国签署宣言马斯克等谈AI监管宣言重点关注两个方面,一是识别共同关注的AI安全风险,建立对这些风险的共同科学和基于证据的理解;二是各国制定各自基于风险的政策,以确保此类风险的安全,酌情开展合作。宣言提到,为推进这一议程,各国决定支持一个具有国际包容性的前沿AI安全科学研究网络,该网络包含并补充现有和新的多边、诸边与双边合作,包括通过现有的国际论坛和其他相关举措,为政策制定和公共利益提供最佳的科学支持。会议还确认了下一届峰会的主办方。英国数字部长米歇尔·唐兰(MichelleDonelan)宣布之后将再召开两场AI安全峰会,一场于6个月后由韩国主办,另一场将在一年内由法国主办。据路透社报道,我国科技部副部长吴朝晖在开幕式上称,中国政府愿意加强在AI安全方面的合作,帮助建立一个国际治理框架,秉持相互尊重、平等互利的原则,“国家不分大小,都享有平等开发和利用人工智能的权利……我们呼吁全球合作,分享人工智能知识,并以开源方式向公众提供人工智能技术。”▲我国科技部副部长吴朝晖美国商务部长吉娜·雷蒙多(GinaMarieRaimondo)称,美国将成立一个AI安全研究所,以评估所谓“前沿”AI模型的已知和新出现的风险。她在会上发表演讲时称:“我几乎肯定会呼吁学术界和工业界的许多观众加入这个联盟……我们无法单独做到这一点,私营部门必须挺身而出。”雷蒙多补充说,她还将致力于推动美国研究所与英国安全研究所建立正式的合作伙伴关系,这项新工作将由美国国家标准与技术研究院(NIST)负责。该部门称,此研究所“将促进AI模型安全、保障和测试标准的制定,制定验证AI生成内容的标准,并为研究人员提供测试环境,以评估新兴AI风险并解决已知影响”。▲美国商务部长雷蒙多美国副总统卡玛拉·哈里斯(KamalaHarris)当天在伦敦发表演讲,介绍美国政府对AI的应对措施。她的演讲时机受到一些英国高管和立法者的质疑,他们认为哈里斯似乎抢了AI安全峰会的风头。据两位消息人士透露,哈里斯已邀请多个研究小组与她一起参加周三在伦敦大使馆举行的闭门活动,这意味着一些与会者可能不得不提前离开布莱切利公园的峰会。据报道,哈里斯将在周三晚些时候与苏纳克会面共进晚餐,并将出席周四第二天的峰会。▲美国副总统哈里斯英国政府还在峰会上宣布,将投资3亿英镑(约合3.64亿美元)用于构建新的“AI研究资源”,以支持先进AI模型的研究。资金将主要用于建设两台新的超级计算机,分别位于剑桥和布里斯托尔,为研究人员提供比英国目前最大的公共AI计算工具容量大30倍以上的资源。据称,布里斯托尔的“Isambard-AI”超级计算机将包括来自英伟达的5000个先进AI芯片,由惠普构建;而剑桥的“Dawn”超级计算机将通过与戴尔和英国中小企业StackHPC的合作交付,并由1000多个英特尔芯片提供动力。这些机器将从明年夏天开始运行,将用于分析先进的AI模型以测试安全功能,并推动药物发现和清洁能源方面的突破。英国首相里希·苏纳克(RishiSunak)在社交媒体平台X上称:“前沿AI模型的力量正在呈指数级增长。这项投资将确保英国的科学人才拥有他们所需的工具,以确保最先进的AI模型的安全。”▲苏纳克在社交媒体平台X上评论除了各国政府,一些科技头部企业的高管和研究人员也出席了峰会。埃隆·马斯克(ElonMusk)称,希望建立一个“第三方裁判”,能够监督AI开发公司并在出现问题时发出警报。他在接受记者采访时说:“我不知道公平的规则是什么,但在进行监督之前,你必须从洞察力开始。”GoogleDeepmind联合创始人穆斯塔法·苏莱曼(MustafaSuleyman)告诉记者,他并不认为目前的AI前沿模型会造成任何“重大灾难性危害”,但他谈道,随着AI行业训练出越来越大的模型,提前做好规划是有意义的。结语:28国签署新宣言,推动AI风险管控议程此次峰会是首届全球性质的AI安全峰会,《布莱切利宣言》的签署有助于推动全球AI风险管理的进程。前沿AI模型可能带来的风险是不可忽视的,需要立法者、科技企业和国际社会共同监督与合作,确保这项技术能够负责任地造福于所有人。...PC版:https://www.cnbeta.com.tw/articles/soft/1394071.htm手机版:https://m.cnbeta.com.tw/view/1394071.htm

封面图片

首届全球人工智能峰会召开 吁国际合作解决AI安全问题

首届全球人工智能峰会召开吁国际合作解决AI安全问题首届全球人工智能峰会在英国召开,与会各国就人工智能安全问题发表联合声明,强调协力解决一系列人工智能安全问题的必要性和紧迫性,并继续为促进人工智能发展进行包容性的全球对话。当地时间星期三(11月1日),第一届全球人工智能(AI)峰会在伦敦布莱切利公园(BletchleyPark)召开。包括东道国英国在内的28个国家和区域集团代表与会,马斯克等AI企业高管也出席峰会。与会各国(包括欧盟)当天发布《布莱切利声明》(BletchleyDeclaration),一致承诺推动全球合作努力,确保AI安全问题得到解决。声明指出,“AI带来了巨大的全球机遇,有可能改变和增进人类福祉、和平与繁荣”,也拥有“变革性的积极潜力”。不过,AI的发展也伴随着巨大的风险,涉及人们生活的多个方面,比如隐私、透明度、数据保护、公平、问责、监管、道德、偏见和欺骗性内容等。声明说,AI技术的“前沿”领域,即一些能力很强的通用AI模型等,尤其具有安全风险。与会各国特别关注“网络安全”和“生物技术”等领域的风险,以及“前沿AI系统可能放大虚假信息”等风险的情况。这些模型最重要的能力有可能造成“严重甚至灾难性的伤害”,无论是蓄意产生还是无意制造。声明强调,AI带来的许多风险其实具有国际性,因此“最好通过国际合作加以应对”。与会国家“将以包容的方式共同努力,通过现有的国际论坛和其他相关倡议,确保AI能够以人为本、值得信赖、负责人、安全可靠并造福所有人”。声明呼吁各国基于风险制定自己的政策,提高AI前沿能力的开发者的透明度,并指定适当的评估指标和安全测试工具,同时也要培养相关公共部门的能力和科学研究。与会国家在声明中宣布,“决心支持建立一个具有国际包容性的AI前沿安全科学研究网络”。这一网络将“包含并补充现有的和新的多边、诸边和双边合作”。此外,英国数码部长多兰(MichelleDonelan)在星期三的开幕式上宣布,韩国将在半年后主办第二届全球人工智能峰会,法国将于一年后主办第三届峰会。2023年11月1日8:57PM

封面图片

白宫催促下 美AI头部企业周五将承诺“无害发展”

白宫催促下美AI头部企业周五将承诺“无害发展”这将是科技公司的一次主动承诺,而并非拜登政府的强制性要求,这也表明拜登政府在确保AI不被滥用方面,所能做的事情很有限。美国国会正准备针对AI制定新法律,议员们最近多次开会学习AI技术的知识,但是在未来如何约束AI企业方面,国会议员可能很难达成共识。除了AI企业之外,白宫周五也将公布对AI技术发展的一些承诺和计划。据报道,今年5月,美国AI头部企业参加了副总统哈里斯召集的一次会议。哈里斯和其他白宫官员对这些企业表示,他们有责任确保AI技术的安全发展。白宫办公厅主任JeffZients表示,美国AI建立监管流程可能会慢一些,但是各界不能再等待一年或两年的时间。根据一份白宫文件的内容草案,这些AI公司作出的保证,有效期一直延续到美国国会正式颁布AI新法律。AI厂商的保证主要聚焦于最新的生成式AI(比如ChatGPT),以及AI大语言模型。消息人士表示,在周五正式发布之前,白宫和科技公司的承诺文件内容可能还会修改。白宫发言人对此事并未置评。目前美国科技巨头们对于AI技术展开激烈争夺,但是他们也警告AI可能带来不可预知风险。之前,拜登政府出台了一些指导文件,涉及到AI技术的开发,比如美国国家标准技术研究院曾经和科技行业头部企业进行了几个月的沟通,制定了一个AI技术的“风险管理框架”。在周五发布的这份承诺文件中,白宫将建议包括AI安全、社会责任等方面的承诺,一些内容如下:——企业允许独立的专家,让AI模型故意实施恶意行为,即所谓的“红队测试”;——企业向政府和其他公司分享AI的安全信息;——在音频和视频内容中使用水印技术,以便识别是否是AI所创作;——AI企业在网络安全领域进行投资;——鼓励第三方企业发现系统安全漏洞;——对外报告AI社会风险,比如信息偏差和不恰当应用;——把AI的社会风险研究放在更重要位置;——利用最先进的“边缘计算AI系统”,来解决社会面临的急迫问题。对于这些承诺,OpenAI、微软和谷歌并未发表评论。在AI技术方面,全世界许多国家的政府呼吁能够建立全球统一的监管框架。早前在日本的峰会上,西方七国集团表示要协调成员国AI技术监管,另外在年底前,英国将会举办一次AI的国际峰会。但是需要指出,目前AI技术发展十分迅速,厂商你追我赶,全球的AI监管体系建设已经远远落后技术发展。在这样的背景下,各国政府希望AI头部企业能够首先“自己管住自己”。在立法进程上,欧盟的“AI法”领先于美国国会立法,但是在正式发布颁布之前,欧盟国家也意识到需要让AI企业作出自愿性的承诺保证。在过去三个月,欧盟负责内部市场的委员ThierryBreton拜会了多家科技公司,他呼吁AI开发企业达成一个“AI公约”,囊括一些非约束性的规范发展指引。相关文章:白宫宣布成立美国国家AI倡议办公室...PC版:https://www.cnbeta.com.tw/articles/soft/1372169.htm手机版:https://m.cnbeta.com.tw/view/1372169.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人