英国AI安全峰会首日:中美等28国签署宣言 马斯克等谈AI监管

英国AI安全峰会首日:中美等28国签署宣言马斯克等谈AI监管宣言重点关注两个方面,一是识别共同关注的AI安全风险,建立对这些风险的共同科学和基于证据的理解;二是各国制定各自基于风险的政策,以确保此类风险的安全,酌情开展合作。宣言提到,为推进这一议程,各国决定支持一个具有国际包容性的前沿AI安全科学研究网络,该网络包含并补充现有和新的多边、诸边与双边合作,包括通过现有的国际论坛和其他相关举措,为政策制定和公共利益提供最佳的科学支持。会议还确认了下一届峰会的主办方。英国数字部长米歇尔·唐兰(MichelleDonelan)宣布之后将再召开两场AI安全峰会,一场于6个月后由韩国主办,另一场将在一年内由法国主办。据路透社报道,我国科技部副部长吴朝晖在开幕式上称,中国政府愿意加强在AI安全方面的合作,帮助建立一个国际治理框架,秉持相互尊重、平等互利的原则,“国家不分大小,都享有平等开发和利用人工智能的权利……我们呼吁全球合作,分享人工智能知识,并以开源方式向公众提供人工智能技术。”▲我国科技部副部长吴朝晖美国商务部长吉娜·雷蒙多(GinaMarieRaimondo)称,美国将成立一个AI安全研究所,以评估所谓“前沿”AI模型的已知和新出现的风险。她在会上发表演讲时称:“我几乎肯定会呼吁学术界和工业界的许多观众加入这个联盟……我们无法单独做到这一点,私营部门必须挺身而出。”雷蒙多补充说,她还将致力于推动美国研究所与英国安全研究所建立正式的合作伙伴关系,这项新工作将由美国国家标准与技术研究院(NIST)负责。该部门称,此研究所“将促进AI模型安全、保障和测试标准的制定,制定验证AI生成内容的标准,并为研究人员提供测试环境,以评估新兴AI风险并解决已知影响”。▲美国商务部长雷蒙多美国副总统卡玛拉·哈里斯(KamalaHarris)当天在伦敦发表演讲,介绍美国政府对AI的应对措施。她的演讲时机受到一些英国高管和立法者的质疑,他们认为哈里斯似乎抢了AI安全峰会的风头。据两位消息人士透露,哈里斯已邀请多个研究小组与她一起参加周三在伦敦大使馆举行的闭门活动,这意味着一些与会者可能不得不提前离开布莱切利公园的峰会。据报道,哈里斯将在周三晚些时候与苏纳克会面共进晚餐,并将出席周四第二天的峰会。▲美国副总统哈里斯英国政府还在峰会上宣布,将投资3亿英镑(约合3.64亿美元)用于构建新的“AI研究资源”,以支持先进AI模型的研究。资金将主要用于建设两台新的超级计算机,分别位于剑桥和布里斯托尔,为研究人员提供比英国目前最大的公共AI计算工具容量大30倍以上的资源。据称,布里斯托尔的“Isambard-AI”超级计算机将包括来自英伟达的5000个先进AI芯片,由惠普构建;而剑桥的“Dawn”超级计算机将通过与戴尔和英国中小企业StackHPC的合作交付,并由1000多个英特尔芯片提供动力。这些机器将从明年夏天开始运行,将用于分析先进的AI模型以测试安全功能,并推动药物发现和清洁能源方面的突破。英国首相里希·苏纳克(RishiSunak)在社交媒体平台X上称:“前沿AI模型的力量正在呈指数级增长。这项投资将确保英国的科学人才拥有他们所需的工具,以确保最先进的AI模型的安全。”▲苏纳克在社交媒体平台X上评论除了各国政府,一些科技头部企业的高管和研究人员也出席了峰会。埃隆·马斯克(ElonMusk)称,希望建立一个“第三方裁判”,能够监督AI开发公司并在出现问题时发出警报。他在接受记者采访时说:“我不知道公平的规则是什么,但在进行监督之前,你必须从洞察力开始。”GoogleDeepmind联合创始人穆斯塔法·苏莱曼(MustafaSuleyman)告诉记者,他并不认为目前的AI前沿模型会造成任何“重大灾难性危害”,但他谈道,随着AI行业训练出越来越大的模型,提前做好规划是有意义的。结语:28国签署新宣言,推动AI风险管控议程此次峰会是首届全球性质的AI安全峰会,《布莱切利宣言》的签署有助于推动全球AI风险管理的进程。前沿AI模型可能带来的风险是不可忽视的,需要立法者、科技企业和国际社会共同监督与合作,确保这项技术能够负责任地造福于所有人。...PC版:https://www.cnbeta.com.tw/articles/soft/1394071.htm手机版:https://m.cnbeta.com.tw/view/1394071.htm

相关推荐

封面图片

英韩合办AI峰会 16家企业签署AI安全承诺 中国入列

英韩合办AI峰会16家企业签署AI安全承诺中国入列去年11月,英国召开首届全球AI安全峰会,有近30个国家的官方代表,以及超过80个学术研究机构、企业和公民组织与会。今年5月,英国与南韩合办在线峰会,规模较小,下一场实体峰会则由法国主办,明年召开。根据英国科学创新暨科技部(DSIT)释出的资料,峰会尚未正式展开,已有16家AI科技企业签署安全承诺,要点包括不得发展或部署安全风险无法获充分缓解的AI模型或系统、建立可供问责的安全管理架构,以及向大众揭露各企业对前沿AI(frontierAI)科技安全的应处策略。这16家签署“前沿AI安全承诺”(FrontierAISafetyCommitments)的企业包括OpenAI、亚马逊(Amazon)、Google(Google)及其旗下DeepMind、Meta、马斯克(ElonMusk)去年创办的xAI、微软(Microsoft)、IBM。另外还有三星电子(SamsungElectronics)、Anthropic、InflectionAI、MistralAI、Cohere、G42、Naver、智谱AI、阿拉伯联合酋长国的“科技创新研究院”(TechnologyInnovationInstitute)等。英国科技部指出,这16家企业名单包含AI两大强权:美国和中国。科技部表示,这些企业将各自发布AI安全框架,向大众说明未来将如何测算自家前沿AI模型的安全风险,包括遭恶意行为者滥用的风险,以及各家企业对安全风险的最高容忍极限为何、如何确保AI模型的安全风险不会超越此预设门坎。在极端情况下,若企业在采取补救措施后,仍未能将AI模型或系统的安全风险保持在门坎以下,则不得继续发展或进一步部署该模型或系统。英国科技部指出,在订定前沿AI安全风险门坎时,相关企业已承诺将寻求“受信任行为者”的意见,包括本国政府(前提为若情况适当)。根据议程,英国首相苏纳克(RishiSunak)和南韩总统尹锡悦,以及英国科技大臣唐萃兰(MichelleDonelan)和南韩科技部长李宗昊将在21和22日分别共同主持一场高阶会议。...PC版:https://www.cnbeta.com.tw/articles/soft/1431785.htm手机版:https://m.cnbeta.com.tw/view/1431785.htm

封面图片

首届人工智能安全峰会发布《布莱奇利宣言》

首届人工智能安全峰会发布《布莱奇利宣言》在英国布莱奇利园举行的首届人工智能(AI)安全峰会,星期四(11月2日)发布《布莱奇利宣言》(BletchleyDeclaration)。与会28个国家和欧盟一致认为需要在全球范围内做出新的努力,以确保以安全和负责任的方式开发和使用AI。新华社报道,《布莱奇利宣言》(简称《宣言》)说,AI带来巨大机遇,有潜力增强人类福祉、和平和繁荣,并已部署在日常生活的许多领域。但同时AI也带来重大潜在风险。《宣言》认为,对于前沿AI技术有意识滥用或者无意识控制方面的问题,可能会引发巨大风险,尤其是在网络安全、生物技术和加剧传播虚假信息等方面。《宣言》强调,AI的许多风险本质上是国际性的,因此“最好通过国际合作来解决”。与会国家和地区同意协力打造一个“具有国际包容性”的前沿AI安全科学研究网络,以对尚未完全了解的AI风险和能力加深理解。在本届全球AI安全峰会两天会期内,美国、英国、欧盟、中国、印度等多方代表就AI技术快速发展带来的风险与机遇展开讨论。根据英国政府发表的声明,下届AI安全峰会将于一年后在法国举办,韩国将在未来六个月内联合主办一次小型虚拟峰会。2023年11月3日7:46AM

封面图片

AI迎来全球管控时代 但马斯克的“第三方裁判”靠谱吗?

AI迎来全球管控时代但马斯克的“第三方裁判”靠谱吗?根据科技部官网消息,科技部副部长吴朝晖出席人工智能安全峰会,并于1日举行的开幕式全体会议上发言。与会期间,代表团参与人工智能安全等问题讨论,积极宣介中方提出的《全球人工智能治理倡议》,并将与相关国家开展双边会谈。中方指出,此次峰会为各国提供了人工智能安全与国际治理议题的重要对话平台与交流合作机会。人工智能治理攸关全人类命运,是世界各国面临的共同课题。发展人工智能,应当积极倡导以人为本,智能向善,加强技术风险管控,并在相互尊重、平等互利的原则基础上,鼓励各方协同共治,增强发展中国家在人工智能全球治理中的代表性和发言权,不断弥合智能鸿沟和治理能力差距。必要性和迫切性在日内一场公开讲话中,英国科学、创新和技术大臣米歇尔·唐兰(MichelleDonelan)称,《宣言》“是一项具有里程碑意义的成就”,它为围绕人工智能相关风险的全球讨论奠定了基础,也让国际社会意识到,必须加深对人工智能相关风险的理解并采取应对举措,因为“这是安全地利用人工智能带来的机遇的唯一途径”。也有观点认为,从某种意义上讲,这份宣言可以视作国际社会首次就监管人工智能的必要性和迫切性做出正式声明,但就监管力度等问题仍存分歧。总体来看,《宣言》最重要的内容包括两点:一是人工智能风险监管的必要性和迫切性,二是人类应对人工智能风险必须通过国际合作。《宣言》提到,目前较大的安全风险出现在人工智能的“前沿”领域,即前沿AI(FrontierArtificialIntelligence),也就是那些能力强大的通用人工智能模型,包括可以执行各种任务的基础模型,以及特定的弱人工智能(narrowAI),两者都具有给人类社会带来伤害的能力。如果上述前沿AI被故意滥用,或者在正当的使用过程中出现意外失控,都将会带来巨大风险。《宣言》认为,出现这些问题的部分原因是人们对这些前沿AI的能力还不完全了解,因此难以预测。《宣言》尤其关注网络安全和生物技术等领域的风险,以及前沿AI可能放大虚假信息等风险。鉴于人工智能发展速度之快和巨大的不确定性,以及在相关投资加速的背景下,《宣言》强调加深对这些潜在风险的理解,以及应对这些风险的行动尤为迫切。在接受第一财经采访时,伦敦国王学院教授、人工智能研究所所长卡迈恩·文特尔(CarmineVentre)称,弱人工智能解决的是特定任务,如果落入坏人之手,可能会产生极为危险的后果,比如,“为生物工程应用而设计的人工智能模型,可能会被用来制造生物武器”。加大投入应对AI风险“前沿人工智能模型的威力正在呈指数级增长。”英国首相里希·苏纳克在社交媒体发文表示。一年前的11月,当微软支持的人工智能初创公司OpenAI向公众开放ChatGPT聊天机器人应用时,人们开始担心人工智能可能对经济和社会产生的巨大影响。英国在峰会上宣布将增加对两台超级计算机的资助,以支持先进人工智能模型安全的研究。其中一台超级计算机位于剑桥,由戴尔交付,包含超过1000个英特尔芯片;另一台位于布里斯托尔,由HPE制造,包含5000个英伟达先进人工智能芯片。两台机器将从明年夏天开始运行,并推动药物发现和清洁能源方面的突破。英国政府还表示,在人工智能研究方面的资金投入将从之前宣布的1亿英镑增加到3亿英镑(约合27亿元人民币)。美国政府利用此次峰会宣布将成立美国人工智能安全研究所,该研究所将评估AI的潜在风险。美国总统拜登于本周一签署了一项行政命令,赋予美国政府对人工智能系统进行更大监督的权力。新成立的美国人工智能安全研究所将与国际同行机构共享信息并合作研究。马斯克呼吁引入“第三方裁判”参加会议的还有埃隆·马斯克和ChatGPT之父萨姆·奥尔特曼等科技大佬。科技高管和领导人警告称,人工智能的快速发展如果不加以控制,将对世界构成生存威胁,各国政府和国际机构必须采取保障和监督措施。目前针对人工智能大模型的发展主要存在两派观点:一派是以马斯克为代表的“风险警示者”,另一派是以Google、Meta等科技巨头企业为代表的“风险淡化派”。马斯克在会上呼吁,引入“第三方裁判”对人工智能的风险提出警告。他说道:“我不知道公平的规则到底是什么,但在进行监督之前,你必须从洞察风险开始。”马斯克还表示,他不认为政府会在不知道该怎么做之前就匆忙制定人工智能的监管规则。Google旗下人工智能部门Deepmind联合创始人穆斯塔法·苏莱曼则认为,当前的人工智能前沿模型不会造成任何“重大灾难性危害”。但他表示,随着行业训练更大的模型,提前计划风险的应对方式是有意义的。牛津大学互联网研究院(OII)互联网研究教授、贝利奥尔学院研究员威廉·H·达顿(WilliamH.Dutton)11月2日在参加于沙特首都利雅得举办的一场全球网络安全论坛期间接受第一财经专访时表示:“关于人工智能潜在风险的炒作非常多,但人们必须搞清楚到底何为风险、何为机会。这意味着我们需要更多的国际交流来了解人们对AI的想法。”在谈到马斯克提出的在AI治理方面引入“第三方裁判”的措施时,达顿表示:“我认为其中存在的问题是,这个裁判是否能够公平地进行监督。”学者呼吁建立国际监管机构除了监管的必要性,《宣言》也高度强调了国际合作的重要性。《宣言》称,由于人工智能产生的许多风险本身具有国际性,因此最好通过国际合作加以解决。《宣言》建议,各国应考虑采取有利于创新、适度的治理和监管方法,最大限度地发挥人工智能的效益,并考虑到人工智能的相关风险;通过现有国际论坛和其他相关倡议,包括未来的国际人工智能安全峰会,加强和保持合作,并扩大与更多国家的合作,以确定、了解并酌情采取行动。记者在峰会现场了解到,已有多位参加峰会的人工智能领域学者呼吁建立一个国际监管机构,监管人工智能的开发和应用,具体内容包括:对先进的人工智能系统进行强制注册,开发时必须具备快速“关闭”功能,开发者必须将一定比例的研究预算用于确保人工智能安全。此前亦有消息称,英国政府对于本次峰会的目标之一,便是通过为期两天的峰会,呼吁各国合作,成立一个类似于政府间气候变化专门委员会的人工智能专家监测小组。卡迈恩·文特尔对此表示,决策者需要考虑到人工智能的特质,也就是发展方向的不确定性。他认为,目前人工智能发展的速度远超预期,因此,正在讨论的法规和监管方式,应该是面向未来,并充分考虑到该领域的前沿研究。...PC版:https://www.cnbeta.com.tw/articles/soft/1393977.htm手机版:https://m.cnbeta.com.tw/view/1393977.htm

封面图片

【首届人工智能安全峰会发布《布莱奇利宣言》】

【首届人工智能安全峰会发布《布莱奇利宣言》】首届人工智能安全峰会于1日至2日在#英国布莱奇利园举行,峰会发布《布莱奇利宣言》。《宣言》说,人工智能带来巨大机遇,有潜力增强人类福祉、和平和繁荣,并已部署在日常生活的许多领域。但同时人工智能也带来重大潜在#风险。《宣言》认为,对于前沿人工智能技术有意识滥用或者无意识控制方面的问题,可能会引发巨大风险,尤其是在网络安全、生物技术和加剧传播虚假信息等方面。《宣言》强调,人工智能的许多风险本质上是国际性的,因此“最好通过国际合作来解决”。与会国家和地区同意协力打造一个“具有国际包容性”的前沿人工智能安全科学研究网络,以对尚未完全了解的人工智能风险和能力加深理解。(新华社)

封面图片

马斯克将出席英国峰会 与苏纳克讨论AI失控风险

马斯克将出席英国峰会与苏纳克讨论AI失控风险目前,英国正努力争取全球AI公司、政治领袖以及专家参加这次峰会。峰会议程显示,大约100名与会者将讨论AI可能出现的不可预测的发展以及人类可能失去对AI控制等话题。美国副总统哈里斯、欧盟委员会主席冯德莱恩等政要将出席这此次峰会。知情人士称,马斯克在过去几天开始与英国进行接触。目前,马斯克尚未公开确认他的出席计划。今年7月,马斯克已经成立了自己的AI公司xAI。马斯克以及旗下特斯拉、X代表尚未就此置评。除马斯克外,其他出席峰会的科技领袖还可能包括微软公司总裁布拉德·史密斯(BradSmith)、Meta全球事务总裁尼克·克莱格(NickClegg)、Google高管詹姆斯·马尼卡(JamesManyika)、DeepMindCEO戴米斯·哈萨比斯(DemisHassabis)。苏纳克宣布将与马斯克对话与此同时,英国首相苏纳克宣布,他将在周四的AI峰会结束后与马斯克在X上进行直播对话。“在AI安全峰会结束后,周四晚上将在X上与马斯克进行对话。”苏纳克在X上表示。苏纳克试图把英国打造成AI领导者角色,他与马斯克的对话则会为这次峰会带来一些名人效应。苏纳克呼吁召开此次峰会,以便开始制定一套监管AI的国际方法,防止AI被用于一些最恶劣的潜在用途中,包括操纵选举,帮助恐怖分子制造破坏,使化学和生物武器的制造变得更容易等。苏纳克在上周四的一次演讲中还警告说,如果人类失去对AI的控制,就可能面临生存威胁,尽管这个可能性不是很大。马斯克已经发表了类似观点。今年9月,他在华盛顿举行的一次会议上表示,有一个“裁判”监管AI很重要。今年3月,他还加入了数百名科技领袖的行列,呼吁暂停开发AI。...PC版:https://www.cnbeta.com.tw/articles/soft/1393313.htm手机版:https://m.cnbeta.com.tw/view/1393313.htm

封面图片

马斯克出席英国AI安全峰会 公布了一个目标

马斯克出席英国AI安全峰会公布了一个目标此次峰会在英格兰中部的布莱切利园举行。马斯克周三对记者表示:“我们来这里的真正目标是建立一个洞察框架,这样至少会有一个第三方裁判,一个独立的裁判,可以观察领先的AI公司在做什么,至少在他们有担忧时发出警报。”马斯克指出,在政府采取监管行动之前,他们需要先了解AI的发展情况。“我不知道公平的规则是什么,但是在(政府)监管之前,你必须先洞察。我认为AI领域的很多人都担心,政府在知道该怎么做之前会过早地制定规则。我认为这不太可能发生。”马斯克表示。在马斯克发表上述言论之前,英国发表了一份由28个国家和欧盟签署的声明,制定了一个双管齐下的议程,重点是确定共同关注的AI相关风险,建立对这些风险的科学理解,并制定跨国政策来缓解这些风险。...PC版:https://www.cnbeta.com.tw/articles/soft/1393759.htm手机版:https://m.cnbeta.com.tw/view/1393759.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人