AI监管立法在望?美参院峰会召集大佬热议

AI监管立法在望?美参院峰会召集大佬热议马斯克在出席峰会后表示,该峰会的强烈共识是,应当针对AI出台一定程度的监管措施。舒默会后称,国会立法监管AI只需要数月时间,而不是长达数年之久。媒体称,舒默试图让国会对AI的未来有更大的影响力,本周三的闭门峰会是他践行这一策略的部分行动。本次到会的大多数科技业领导者都曾敦促政府,专注于为AI的使用方式制定法规,而不是规管AI技术的实际开发。媒体指出,这场峰会将影响未来如何监管AI,出席的科技业大佬合计身家约有5500亿美元。其中包括,个人资产净值2421亿美元的特斯拉CEO马斯克、个人资产1286亿美元的微软联合创始人比尔•盖茨、个人资产1.097亿美元的MetaCEO扎克伯格、个人财富400亿美元的英伟达CEO黄仁勋、个人财富266亿美元的前GoogleCEO施密特。周三当天,AI概念股涨跌各异。到收盘时,亚马逊涨近2.6%,微软涨1.3%,Meta涨1.1%,Google母公司Alphabet涨1%,Palantir涨不足0.1%,而BigBear.ai跌超6%,GuardforceAI跌3%,BullfrogAI跌2.2%,赛富时跌近1.3%,C3.ai跌近1.2%,百度跌0.4%,SoundHound.ai收平。周三召开AI峰会前,多家科技巨头已经发出了自愿管控AI风险的承诺。7月,在白宫“指示”下,美国AI巨头“自我管控”的条例浮出水面。白宫宣布,拜登政府得到了亚马逊、Anthropic、Google、Inflection、Meta、微软和OpenAI七家公司自愿的承诺,管控AI带来的风险。他们承诺,将帮助推动AI技术安全且透明地发展。拜登曾指出,这些企业的承诺将立即实行,体现了安全、保障和信任这三个基本原则,但他们的承诺只是第一步,“我们必须对(AI的)威胁保持清醒和警惕。”拜登承诺,要采取行政行动,同时与国会合作,出台针对AI的法规。他说,新兴的技术需要一些新的法律、监管法规和监督。本周二白宫发布声明称,Adobe、Cohere、IBM、英伟达、Palantir、赛富时、ScaleAI和Stability八家公司承诺,采取自愿监管措施管理AI技术开发风险。这些企业的具体承诺如下:确保AI产品在发布之前是安全的公司承诺在发布AI系统前进行内部和外部的安全测试。测试部分由独立专家进行,防范存在的重大AI风险,如生物安全和网络安全,以及其更广泛的社会影响。公司承诺与行业内外以及政府、社会和学术界分享管理AI风险的信息,包括:保障安全的最佳实践方法、试图规避保障措施的信息以及技术合作。构建把安全放在首位的系统公司承诺投资于网络安全和内部威胁保障措施,保护专有和未发布的模型权重。这些模型的权重是AI系统最重要的部分。公司一致认为,只有在认真考虑到安全风险的情况下,才能发布模型权重,这一点至关重要。公司承诺推进第三方发现和报告其AI系统存在的漏洞。有些问题可能在AI系统发布后仍然存在,而一个强大的报告机制能使这些问题被迅速发现并修复。赢得公众的信任公司承诺开发出强大的技术,确保用户知道内容是人工智能生成的,例如添加数字水印。这一行动既能充分发挥人工智能的创造力和生产力,又能减少网络诈骗的危险。公司承诺公开报告其AI系统的能力、限制以及适用和不适用的领域。报告将涵盖AI系统的安全风险和社会风险,如公平公正性以及偏见的影响。公司承诺优先研究AI系统可能带来的社会风险,包括避免极端的偏见和歧视,并保护用户隐私。AI的历史记录可以看出这些危险的潜在规模和普及程度,这些公司承诺推出可以减轻这些危险的AI。公司承诺开发和部署先进的AI系统,以帮助解决社会面临的最大挑战。从癌症到减缓气候变化,以及许多其他领域,如果AI风险得到管理,AI可以为所有人做出巨大贡献。白宫称,承诺仅为政府制定AI风险管理办法的一部分,政府将采取行政行动,并同国会合作出台针对AI的法规。帮助引导AI负责任的发展。...PC版:https://www.cnbeta.com.tw/articles/soft/1383795.htm手机版:https://m.cnbeta.com.tw/view/1383795.htm

相关推荐

封面图片

美参院AI计划 拟每年投入数百亿美元实施监管

美参院AI计划拟每年投入数百亿美元实施监管美国国会两党参议员组成的小组要求国会每年批准投入至少320亿美元(约430亿新元)的政府开支,以促进人工智能(AI)这项新兴技术的发展,保护美国人免受AI带来的风险,并在与中国等竞争对手竞争中保持领先。美国参议院多数党领袖舒默星期三(5月15日)发布计划,提出国会应推动立法,为AI研究提供资金,减轻AI对美国的潜在危害,保障美国的经济和国家安全。舒默在公布这份长达30页的计划时说:“这笔资金将使我们的公司、大学和工人保持处于该领域的最前沿,巩固美国在AI领域的主导地位,包括超越中国政府。我们知道中国政府已经在这一领域投入了大量资金。”尽管目前包括OpenAI、Alphabet旗下的谷歌和MetaPlatforms在内的美国公司在全球处于领先地位,但中国竞相开发高度先进的系统,这给美国立法者带来了压力,要求他们制定更持久的方法。美国参议院的议案,尤其是关于资金的建议,要在分歧严重的国会获得通过将是一项艰巨任务。目前,众议院议长约翰逊正面临来自保守派共和党人削减开支的压力。此外,立法者们在监管新技术方面历来记录不佳,取得成果的前景似乎黯淡,尤其是在选举年。不过,来自中共日渐明显的危险客观上给立法者带来了希望。他们强调该议案是应对中共威胁的重要方式,毕竟在经济和国家安全问题上防范中国一直是国会立法者们难得的共识。2024年5月16日8:14AM

封面图片

16家AI巨头在韩国举行峰会 将做出新的安全承诺

16家AI巨头在韩国举行峰会将做出新的安全承诺16家AI巨头在韩国首尔举行全球峰会,将共同做出新的安全承诺,提供开发AI的透明度和问责制。法新社报道,为期两天的峰会在星期二(5月21日)开展,韩国总统尹锡悦和英国首相苏纳克将于星期二晚些时候共同主持线上会议。苏纳克与会前发声明说,AI公司将承诺为开发安全的人工智能方面,提供透明度和问责制。与会的公司包括美国科技巨头微软、亚马逊、IBM和脸书母公司Meta、法国的MistralAI和来自中国的Zhipu.ai。这些公司将达成安全协议,包括将制定框架,用以评估技术风险。当中涵盖哪些风险被“视为无法接受”,以及公司将采取哪些措施来确保不跨越这些门槛。在最极端的情况下,如果公司不能将风险保持在门槛以下,将无法开发新模型或系统。除了AI的安全之外,首尔峰会将讨论政府如何帮助刺激创新,包括大学的人工智能研究。另外,参与者也将考虑如何确保AI技术向所有人开放,并有助于解决气候变化和贫困等问题。2024年5月21日7:51PM

封面图片

英韩合办AI峰会 16家企业签署AI安全承诺 中国入列

英韩合办AI峰会16家企业签署AI安全承诺中国入列去年11月,英国召开首届全球AI安全峰会,有近30个国家的官方代表,以及超过80个学术研究机构、企业和公民组织与会。今年5月,英国与南韩合办在线峰会,规模较小,下一场实体峰会则由法国主办,明年召开。根据英国科学创新暨科技部(DSIT)释出的资料,峰会尚未正式展开,已有16家AI科技企业签署安全承诺,要点包括不得发展或部署安全风险无法获充分缓解的AI模型或系统、建立可供问责的安全管理架构,以及向大众揭露各企业对前沿AI(frontierAI)科技安全的应处策略。这16家签署“前沿AI安全承诺”(FrontierAISafetyCommitments)的企业包括OpenAI、亚马逊(Amazon)、Google(Google)及其旗下DeepMind、Meta、马斯克(ElonMusk)去年创办的xAI、微软(Microsoft)、IBM。另外还有三星电子(SamsungElectronics)、Anthropic、InflectionAI、MistralAI、Cohere、G42、Naver、智谱AI、阿拉伯联合酋长国的“科技创新研究院”(TechnologyInnovationInstitute)等。英国科技部指出,这16家企业名单包含AI两大强权:美国和中国。科技部表示,这些企业将各自发布AI安全框架,向大众说明未来将如何测算自家前沿AI模型的安全风险,包括遭恶意行为者滥用的风险,以及各家企业对安全风险的最高容忍极限为何、如何确保AI模型的安全风险不会超越此预设门坎。在极端情况下,若企业在采取补救措施后,仍未能将AI模型或系统的安全风险保持在门坎以下,则不得继续发展或进一步部署该模型或系统。英国科技部指出,在订定前沿AI安全风险门坎时,相关企业已承诺将寻求“受信任行为者”的意见,包括本国政府(前提为若情况适当)。根据议程,英国首相苏纳克(RishiSunak)和南韩总统尹锡悦,以及英国科技大臣唐萃兰(MichelleDonelan)和南韩科技部长李宗昊将在21和22日分别共同主持一场高阶会议。...PC版:https://www.cnbeta.com.tw/articles/soft/1431785.htm手机版:https://m.cnbeta.com.tw/view/1431785.htm

封面图片

领先科技公司签署新一轮AI安全承诺

领先科技公司签署新一轮AI安全承诺英国和韩国政府宣布,领先的人工智能公司签署了有关人工智能安全的新一轮自愿承诺。包括科技巨头亚马逊、谷歌、Meta、微软、萨姆•奥尔特曼领导的OpenAI和马斯克的xAI以及中国开发商智谱AI,这些公司将发布框架,概述他们将如何衡量其“前沿”人工智能模型的风险。全球人工智能峰会周二在首尔开幕,两国政府在峰会开幕前表示,这些公司承诺,如果无法缓解严重风险,他们将“根本不开发或部署相关模型”。这些人工智能公司将“评估自己的前沿模型或系统构成的风险……包括在部署该模型或系统之前,以及在训练之前和期间。”——

封面图片

马斯克会见美参院民主党领袖舒默 讨论AI监管问题

马斯克会见美参院民主党领袖舒默讨论AI监管问题马斯克曾警告称,人工智能可能导致“文明毁灭”,他最近成立了一家名为X.AI的新人工智能公司。他还表示,将启动他自己版本的人工智能聊天机器人“TruthGPT”,并阻止人类文明毁灭。自去年AI聊天机器人ChatGPT推出以来,AI成为很多立法者最关心的问题。ChatGPT是由OpenAI公司开发的一款风靡全球的语言模型聊天机器人,已经吸引了数十亿美元的投资,并可能改变经济。近几个月来,舒默一直致力于制定一个“概述人工智能新监管制度的高级框架”。本月早些时候,舒默表示,随着ChatGPT等程序的广泛使用,他已开始建立人工智能(AI)监管规则。他表示,他已经起草并分发了一份框架,概述了一套新的监管制度,该制度将防止AI对国家造成潜在的灾难性损害,同时确保美国在这项变革性技术方面取得进步,并处于领先地位。在华盛顿,越来越多的人正在推动人工智能监管。参议院情报委员会主席、民主党人马克·华纳(MarkWarner)周三致信主要人工智能公司的首席执行官,要求他们采取措施解决人们的担忧。舒默在近一个小时的会面后告诉记者,他们还讨论了马斯克的电动汽车公司特斯拉。“听着,我们进行了一次很好的会谈。我们谈到了布法罗。特斯拉在布法罗有一家大型工厂,我们讨论了人工智能,”舒默表示。位于布法罗的特斯拉超级工厂占地120万平方英尺,于2017年开始生产太阳能电池和模块,随后于2019年开始生产电动汽车充电器的电子元件。今年1月,马斯克在华盛顿会见了两位白宫高级官员,讨论了特斯拉和拜登政府如何共同推动电动汽车生产。今年早些时候,他还会见了众议院议长、共和党人凯文·麦卡锡。...PC版:https://www.cnbeta.com.tw/articles/soft/1357005.htm手机版:https://m.cnbeta.com.tw/view/1357005.htm

封面图片

英国AI安全峰会首日:中美等28国签署宣言 马斯克等谈AI监管

英国AI安全峰会首日:中美等28国签署宣言马斯克等谈AI监管宣言重点关注两个方面,一是识别共同关注的AI安全风险,建立对这些风险的共同科学和基于证据的理解;二是各国制定各自基于风险的政策,以确保此类风险的安全,酌情开展合作。宣言提到,为推进这一议程,各国决定支持一个具有国际包容性的前沿AI安全科学研究网络,该网络包含并补充现有和新的多边、诸边与双边合作,包括通过现有的国际论坛和其他相关举措,为政策制定和公共利益提供最佳的科学支持。会议还确认了下一届峰会的主办方。英国数字部长米歇尔·唐兰(MichelleDonelan)宣布之后将再召开两场AI安全峰会,一场于6个月后由韩国主办,另一场将在一年内由法国主办。据路透社报道,我国科技部副部长吴朝晖在开幕式上称,中国政府愿意加强在AI安全方面的合作,帮助建立一个国际治理框架,秉持相互尊重、平等互利的原则,“国家不分大小,都享有平等开发和利用人工智能的权利……我们呼吁全球合作,分享人工智能知识,并以开源方式向公众提供人工智能技术。”▲我国科技部副部长吴朝晖美国商务部长吉娜·雷蒙多(GinaMarieRaimondo)称,美国将成立一个AI安全研究所,以评估所谓“前沿”AI模型的已知和新出现的风险。她在会上发表演讲时称:“我几乎肯定会呼吁学术界和工业界的许多观众加入这个联盟……我们无法单独做到这一点,私营部门必须挺身而出。”雷蒙多补充说,她还将致力于推动美国研究所与英国安全研究所建立正式的合作伙伴关系,这项新工作将由美国国家标准与技术研究院(NIST)负责。该部门称,此研究所“将促进AI模型安全、保障和测试标准的制定,制定验证AI生成内容的标准,并为研究人员提供测试环境,以评估新兴AI风险并解决已知影响”。▲美国商务部长雷蒙多美国副总统卡玛拉·哈里斯(KamalaHarris)当天在伦敦发表演讲,介绍美国政府对AI的应对措施。她的演讲时机受到一些英国高管和立法者的质疑,他们认为哈里斯似乎抢了AI安全峰会的风头。据两位消息人士透露,哈里斯已邀请多个研究小组与她一起参加周三在伦敦大使馆举行的闭门活动,这意味着一些与会者可能不得不提前离开布莱切利公园的峰会。据报道,哈里斯将在周三晚些时候与苏纳克会面共进晚餐,并将出席周四第二天的峰会。▲美国副总统哈里斯英国政府还在峰会上宣布,将投资3亿英镑(约合3.64亿美元)用于构建新的“AI研究资源”,以支持先进AI模型的研究。资金将主要用于建设两台新的超级计算机,分别位于剑桥和布里斯托尔,为研究人员提供比英国目前最大的公共AI计算工具容量大30倍以上的资源。据称,布里斯托尔的“Isambard-AI”超级计算机将包括来自英伟达的5000个先进AI芯片,由惠普构建;而剑桥的“Dawn”超级计算机将通过与戴尔和英国中小企业StackHPC的合作交付,并由1000多个英特尔芯片提供动力。这些机器将从明年夏天开始运行,将用于分析先进的AI模型以测试安全功能,并推动药物发现和清洁能源方面的突破。英国首相里希·苏纳克(RishiSunak)在社交媒体平台X上称:“前沿AI模型的力量正在呈指数级增长。这项投资将确保英国的科学人才拥有他们所需的工具,以确保最先进的AI模型的安全。”▲苏纳克在社交媒体平台X上评论除了各国政府,一些科技头部企业的高管和研究人员也出席了峰会。埃隆·马斯克(ElonMusk)称,希望建立一个“第三方裁判”,能够监督AI开发公司并在出现问题时发出警报。他在接受记者采访时说:“我不知道公平的规则是什么,但在进行监督之前,你必须从洞察力开始。”GoogleDeepmind联合创始人穆斯塔法·苏莱曼(MustafaSuleyman)告诉记者,他并不认为目前的AI前沿模型会造成任何“重大灾难性危害”,但他谈道,随着AI行业训练出越来越大的模型,提前做好规划是有意义的。结语:28国签署新宣言,推动AI风险管控议程此次峰会是首届全球性质的AI安全峰会,《布莱切利宣言》的签署有助于推动全球AI风险管理的进程。前沿AI模型可能带来的风险是不可忽视的,需要立法者、科技企业和国际社会共同监督与合作,确保这项技术能够负责任地造福于所有人。...PC版:https://www.cnbeta.com.tw/articles/soft/1394071.htm手机版:https://m.cnbeta.com.tw/view/1394071.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人