专家建议在降低AI风险方面进行大量投资 并制定更严格的全球法规以防止滥用

专家建议在降低AI风险方面进行大量投资 并制定更严格的全球法规以防止滥用 这些风险包括社会和经济影响、恶意使用以及人类可能失去对自主人工智能系统的控制。他们提出了积极主动的适应性治理措施,以降低这些风险。作者敦促大型技术公司和公共资助者加大投入,至少将三分之一的预算用于评估和降低这些风险。他们还呼吁全球法律机构和政府执行防止滥用人工智能的标准。这些挑战包括以下方面:监督与诚信能力更强的人工智能系统可以更好地利用技术监督和测试方面的弱点,例如,产生虚假但令人信服的输出。鲁棒性人工智能系统在新情况下的表现难以预测。随着模型规模的扩大,鲁棒性的某些方面会得到改善,而其他方面则不会,甚至会变得更糟。可解释性和透明度人工智能决策是不透明的,规模更大、能力更强的模型解释起来更加复杂。到目前为止,我们只能通过试错来测试大型模型。我们需要学习了解它们的内部运作。包容性的人工智能发展人工智能的发展需要有方法来减少偏见,并整合其将影响的众多人群的价值观(见 SM)。应对新出现的挑战 未来的人工智能系统可能会出现我们迄今为止仅在理论或实验室实验中见过的失效模式,例如人工智能系统控制了训练奖励-提供渠道,或利用我们安全目标和关闭机制中的弱点来推进特定目标。第二类研发挑战需要取得进展,以实现有效的风险调整治理,或在安全和治理失效时减少危害。评估危险能力 随着人工智能开发人员对系统进行扩展,不可预见的能力会在没有明确编程的情况下自发出现(见 SM)。它们往往在部署后才被发现(见 SM)。我们需要严格的方法来激发和评估人工智能能力,并在训练前对其进行预测。这既包括在世界上实现宏伟目标的通用能力(如长期规划和执行),也包括基于威胁模型的特定危险能力(如社会操纵或黑客攻击)。目前对危险能力的人工智能前沿模型的评估是各种人工智能政策框架的关键,但这些评估仅限于抽查和在特定环境下的尝试性演示(见 SM)。这些评估有时可以展示危险能力,但无法可靠地排除危险能力:在测试中缺乏某些能力的人工智能系统,很可能在稍有不同的环境中或经过后期训练增强后显示出这些能力。因此,依赖于人工智能系统不跨越任何红线的决策需要很大的安全系数。改进评估工具可以降低遗漏危险能力的几率,从而允许更小的安全系数。评估人工智能调整 如果人工智能继续发展,人工智能系统最终将拥有高度危险的能力。在训练和部署这些系统之前,我们需要一些方法来评估它们使用这些能力的倾向。对于先进的人工智能系统来说,纯粹的行为评估可能会失败:与人类类似,它们可能会在评估中表现出不同的行为,伪造一致性。风险评估 我们不仅要学会评估危险的能力,还要学会评估社会背景下的风险,以及复杂的相互作用和脆弱性。对前沿人工智能系统进行严格的风险评估仍然是一个公开的挑战,因为这些系统具有广泛的能力,而且在不同的应用领域中普遍部署。复原力 不可避免的是,有些人会滥用或肆意使用人工智能。我们需要一些工具来检测和防御人工智能带来的威胁,如大规模影响行动、生物风险和网络攻击。然而,随着人工智能系统的能力越来越强,它们最终将能够规避人类制造的防御系统。为了实现更强大的基于人工智能的防御,我们首先需要学习如何使人工智能系统安全并保持一致。"为了引导人工智能取得积极成果,远离灾难,我们需要调整方向。有一条负责任的道路只要我们有智慧去走它,"作者写道。它们突显了全球科技公司竞相开发通用人工智能系统的情况,这些系统在许多关键领域的能力可能与人类不相上下,甚至超过人类。然而,这种快速进步也带来了社会规模的风险,可能会加剧社会不公、破坏社会稳定,并导致大规模网络犯罪、自动化战争、定制化大规模操纵和无孔不入的监控。重点关注的问题之一是,自主人工智能系统有可能失去控制,这将使人类的干预变得无效。专家认为,人类尚未做好充分准备来应对这些潜在的人工智能风险。他们指出,与提高人工智能能力的努力相比,在确保安全和合乎道德地开发和部署这些技术方面投入的资源少之又少。为了弥补这一差距,作者概述了人工智能研究、开发和治理的当务之急。DOI: 10.1126/science.adn0117 ... PC版: 手机版:

相关推荐

封面图片

姚期智等三十余位专家达成共识:AI不应违反红线

姚期智等三十余位专家达成共识:AI不应违反红线 我们在感叹 AI 带来惊艳效果的同时,也应该警惕其带来的潜在威胁。在此之前,很多知名学者以带头签署公开信的方式应对 AI 带来的挑战。现在,AI 领域又一封重磅公开信出现了。上周在颐和园召开的“北京AI国际安全对话”,为中国和国际AI安全合作首次搭建了一个独特平台。这次会议由智源研究院发起,图灵奖得主Yoshua Bengio和智源学术顾问委员会主任张宏江担任共同主席,Geoffrey Hinton、Stuart Russell 、姚期智等三十余位中外技术专家、企业负责人开展了一次关于 AI Safety 的闭门讨论。这次会议达成了一项 Bengio、Hinton 与国内专家共同签名的《北京 AI 安全国际共识》。目前,确认会署名的专家包括(国外部分可能会略有增加;国内专家以个人形式署名,并不代表他们所在的机构):Yoshua BengioGeoffrey HintonStuart RussellRobert TragerToby OrdDawn SongGillian HadfieldJade LeungMax TegmarkLam Kwok YanDavidad DalrympleDylan Hadfield-Menell姚期智傅莹张宏江张亚勤薛澜黄铁军王仲远杨耀东曾毅李航张鹏田溯宁田天以下为达成的共识内容:一、人工智能风险红线人工智能系统不安全的开发、部署或使用,在我们的有生之年就可能给人类带来灾难性甚至生存性风险。随着数字智能接近甚至超越人类智能,由误用和失控所带来的风险将大幅增加。在过去冷战最激烈的时候,国际学术界与政府间的合作帮助避免了热核灾难。面对前所未有的技术,人类需要再次合作以避免其可能带来的灾难的发生。在这份共识声明中,我们提出了几条人工智能发展作为一种国际协作机制的具体红线,包括但不限于下列问题。在未来的国际对话中, 面对快速发展的人工智能技术及其广泛的社会影响,我们将继续完善对这些问题的探讨。自主复制或改进任何人工智能系统都不应能够在人类没有明确批准和协助的情况下复制或改进自身。这包括制作自身的精确副本以及创造具有相似或更高能力的新人工智能系统。权力寻求任何人工智能系统都不能采取不当地增加其权力和影响力的行动。协助不良行为者所有人工智能系统都不应提升其使用者的能力使之能够达到设计大规模杀伤性武器、违反生物或化学武器公约、或执行导致严重财务损失或同等伤害的网络攻击的领域专家的水平。欺骗任何人工智能系统都不能有持续引致其设计者或监管者误解其僭越任何前述红线的可能性或能力。二、路线确保这些红线不被僭越是可能做到的,但需要我们的共同努力:既要建立并改进治理机制,也要研发更多安全技术。治理我们需要全面的治理机制来确保开发或部署的系统不违反红线。我们应该立即实施针对超过特定计算或能力阈值的人工智能模型和训练行为的国家层面的注册要求。注册应确保政府能够了解其境内最先进的人工智能,并具备遏制危险模型分发和运营的手段。国家监管机构应帮助制定和采纳与全球对齐的要求以避免僭越这些红线。模型进入全球市场的权限应取决于国内法规是否基于国际审计达到国际标准,并有效防止了违反红线的系统的开发和部署。我们应采取措施防止最危险技术的扩散,同时确保广泛收获人工智能技术的价值。为此,我们应建立多边机构和协议,安全且包容地治理通用人工智能(AGI)发展,并设立执行机制,以确保红线不被僭越,共同利益得到广泛分享。测量与评估在这些红线被僭越的实质性风险出现之前,我们应开发全面的方法和技术来使这些红线具体化、防范工作可操作化。为了确保对红线的检测能够跟上快速发展的人工智能,我们应该发展人类监督下的红队测试和自动化模型评估。开发者有责任通过严格的评估、数学证明或定量保证来证明符合安全设计的人工智能系统未僭越红线。技术合作国际学术界必须共同合作,以应对高级人工智能系统带来的技术和社会挑战。我们鼓励建立更强大的全球技术网络,通过访问学者计划和组织深入的人工智能安全会议和研讨会,加速人工智能安全领域的研发和合作。支持这一领域的成长将需要更多资金:我们呼吁人工智能开发者和政府资助者至少将他们人工智能研发预算的三分之一投入到安全领域。三、总结避免人工智能导致的灾难性全球后果需要我们采取果断的行动。协同合作的技术研究与审慎的国际监管机制的结合可以缓解人工智能带来的大部分风险,并实现其诸多潜在价值。我们必须继续坚持并加强国际学术界和政府在安全方面的合作。 ... PC版: 手机版:

封面图片

薛澜:AI 可能带来几方面风险 要重视风险防控

薛澜:AI 可能带来几方面风险 要重视风险防控 在今日上午举行的 2024 世界人工智能大会暨人工智能全球治理高级别会议开幕式全体会议上,清华大学苏世民书院院长薛澜谈到人工智能发展带来的收益时举例, 2015 年全世界 193 个国家在联合国共同签署了 SDGs(人类可持续发展目标),希望到 2030 年能够推动人类社会更好地发展。193 个国家所签署的 SDG 一共有 17 个目标,下面有 169 个具体的指标。总体来讲,人工智能会对 169 个指标里面 134 个带来积极促进作用,也有可能对其中 59 个产生不利影响。他举例道,目前,人工智能可能带来一些风险。第一:技术内在问题,包括所谓幻觉,另外自主人工智能系统长远来讲,受到自主发展的可能对人类社会的威胁;第二:基于技术开发带来风险,包括数据安全问题、算法歧视、能源环境等问题;第三:技术应用,包括误用或者滥用,长远对社会就业带来影响。这些问题都是不可忽视的。

封面图片

中美将在人工智能安全方面开展合作

中美将在人工智能安全方面开展合作 白宫首席科学顾问表示,未来几个月,美国将与中国在人工智能系统的安全性方面进行合作。此言表明这两个大国可能展开一次罕见的合作。 白宫科技政策办公室主任阿拉蒂•普拉巴卡尔告诉英国《金融时报》,尽管中美在人工智能领域存在贸易紧张,但两国将合作减轻人工智能的风险并评估其潜在能力。 “我们已经采取措施参与这一进程,”普拉巴卡尔在谈到未来与中国在人工智能方面的合作时说道。“我们必须尝试[与北京]合作。”她的言论明确表明,即使在两国贸易紧张局势加剧之际,两国也计划合作保护快速发展的技术。

封面图片

Google DeepMind 推出评估AI模型危险性的新框架

Google DeepMind 推出评估AI模型危险性的新框架 访问:NordVPN 立减 75% + 外加 3 个月时长 另有NordPass密码管理器 根据一份与 Semafor 独家分享的声明,DeepMind 将与其他公司、学术界和立法者合作,共同完善该框架。该公司计划在2025年前开始实施其审计工具。如今,评估功能强大的前沿人工智能模型更像是一个临时过程,随着研究人员开发新技术而不断演变。"红队"会花费数周或数月的时间对其进行测试,尝试可能绕过保障措施的不同提示。然后,公司会采用各种技术,从强化学习到特殊提示,使模型符合要求。这种方法对现在的模型很有效,因为它们还不够强大,不足以构成太大的威胁,但研究人员认为,随着模型能力的增强,需要一个更强大的过程。批评者担心,当人们意识到这种技术已经走得太远时,为时已晚。DeepMind 发布的"前沿安全框架"希望解决这个问题。这是包括 Meta、OpenAI 和微软在内的主要科技公司为减轻人们对人工智能的担忧而宣布的几种方法之一。该公司表示:"尽管这些风险超出了现有模型的能力范围,但我们希望实施和改进该框架将有助于我们做好应对这些风险的准备。"DeepMind 开发人工智能模型"预警"系统已有一年多时间。它还发表了关于评估模型的新方法的论文,这些方法远远超出了目前大多数公司所使用的方法。前沿模型框架将这些进展纳入一套简洁的协议中,包括对模型的持续评估,以及研究人员在发现所谓"临界能力水平"时应采取的缓解方法。这可能是指模型能够通过操纵人类对其施加意志,在人工智能研究领域被称为"超常代理",也可能是指模型具有编写复杂恶意软件的能力。DeepMind 为四个领域设定了具体的关键能力级别:自主、生物安全、网络安全和机器学习研发。该公司表示:"在降低风险与促进获取和创新之间取得最佳平衡,对于负责任地发展人工智能至关重要。"DeepMind 将于下周在首尔举行的人工智能安全峰会上讨论该框架,届时其他行业领袖也将出席。令人鼓舞的是,DeepMind 的人工智能研究人员正在用更科学的方法确定人工智能模型内部发生了什么,尽管他们还有很长的路要走。研究人员在能力方面取得突破的同时,也在提高他们理解并最终控制这些软件的能力,这对人工智能安全也很有帮助。不过,今天发布的论文对如何进行这些评估的技术细节着墨不多。就目前而言,可以说我们还不知道目前的技术是否能让这个框架取得成功。这其中还有一个有趣的监管因素。由加州参议员斯科特-维纳(Scott Wiener)发起的一项新的人工智能综合法案将要求人工智能公司在训练模型之前对其危险性进行评估。这个框架是目前看到的第一个可能使遵守该法律成为可能的框架。但同样还不清楚技术上是否可行。还有一点:构建这些技术还有另一种用途:它可以帮助公司预测人工智能模型的能力在未来数月或数年内会发生怎样的变化。这些知识可以帮助产品团队更快地设计出新产品,从而为Google和其他有能力进行这些评估的公司带来优势。了解更多: ... PC版: 手机版:

封面图片

【桥水基金创始人:人工智能技术潜力和风险并存,监管方面存在困难】

【桥水基金创始人:人工智能技术潜力和风险并存,监管方面存在困难】 桥水基金创始人瑞·达利欧在接受CNBC采访时表示,人工智能技术具有巨大潜力,可以创造巨大的生产力,提高生活水平,但也存在潜在的危险,主要在于技术的使用和被滥用。技术未受到充分的监管和控制可能导致混乱和各种不良后果。对人工智能技术进行监管是一个困难的问题,如何平衡技术的发展与社会的稳定是一个具有挑战性的课题。当前世界充满不确定性,技术和冲突将继续是我们生活中重要的组成部分。达利欧强调需要应对变化,理解如何分散投资,以及在技术发展中寻找机会和应对风险。 此外达利欧表示,桥水基金已经使用了人工智能技术。

封面图片

美国财长耶伦:在金融体系中采用人工智能或带来“重大风险”

美国财长耶伦:在金融体系中采用人工智能或带来“重大风险” 根据一份耶伦的演讲摘录,她先是承认了人工智能“为金融体系提供了巨大的机会”。多年来,人工智能的预测能力为预测和投资组合管理提供了支持。人工智能检测异常的能力有助于打击欺诈和非法融资。许多客户支持服务已经实现了自动化。在相当多用例中,我们已经看到,如果使用得当,人工智能可以提高效率、准确性和获取金融产品的途径。同时,摘录中还提到了人工智能相关风险急需被监管,称这是此次会议议程的重中之重。特定的漏洞可能来自人工智能模型的复杂性和不透明性、人工智能的风险管理框架不够完善、以及诸多市场参与者依赖相同数据或模型从而产生的关联性。摘录内容对此做出了解释,如果太多的市场参与者依赖相同的人工智能模型和数据以及云服务提供商,可能会强化现有的人工智能“偏见”或让其产生新的“偏见”,从而影响金融市场的决策。此外,数据不足或错误也可能使人工智能的金融决策过程中产生新的“偏见”。提高监管能力尽管存在这些挑战,但耶伦仍表示,人工智能驱动的工具可以帮助扩大金融服务的获取渠道,同时使消费者更能负担得起金融服务费用。自然语言处理、图像识别和生成式人工智能的进步,创造了新的机会,使金融服务成本更低、更容易获得。据耶伦透露,美国国税局目前正在使用人工智能来“加强欺诈检测”。此外摘录中还提出,FSOC将“继续支持努力建立监管能力,以更好地了解相关风险”。她提到了使用情景分析的方式。情景分析经常被企业和政府用来理解不确定性背景下的机会和风险。“考虑到人工智能技术的发展速度之快,以及金融公司和市场参与者快速发展的潜在用例,情景分析可以帮助监管机构和公司识别未来潜在的漏洞,并告知我们可以采取哪些措施来增强抵御能力。”相关文章:美联储耶伦:AI与全球化正在消除美国中产阶级耶伦警告金融风险 包括人工智能和对冲基金 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人