专家建议在降低AI风险方面进行大量投资 并制定更严格的全球法规以防止滥用

专家建议在降低AI风险方面进行大量投资并制定更严格的全球法规以防止滥用这些风险包括社会和经济影响、恶意使用以及人类可能失去对自主人工智能系统的控制。他们提出了积极主动的适应性治理措施,以降低这些风险。作者敦促大型技术公司和公共资助者加大投入,至少将三分之一的预算用于评估和降低这些风险。他们还呼吁全球法律机构和政府执行防止滥用人工智能的标准。这些挑战包括以下方面:监督与诚信能力更强的人工智能系统可以更好地利用技术监督和测试方面的弱点,例如,产生虚假但令人信服的输出。鲁棒性人工智能系统在新情况下的表现难以预测。随着模型规模的扩大,鲁棒性的某些方面会得到改善,而其他方面则不会,甚至会变得更糟。可解释性和透明度人工智能决策是不透明的,规模更大、能力更强的模型解释起来更加复杂。到目前为止,我们只能通过试错来测试大型模型。我们需要学习了解它们的内部运作。包容性的人工智能发展人工智能的发展需要有方法来减少偏见,并整合其将影响的众多人群的价值观(见SM)。应对新出现的挑战未来的人工智能系统可能会出现我们迄今为止仅在理论或实验室实验中见过的失效模式,例如人工智能系统控制了训练奖励-提供渠道,或利用我们安全目标和关闭机制中的弱点来推进特定目标。第二类研发挑战需要取得进展,以实现有效的风险调整治理,或在安全和治理失效时减少危害。评估危险能力随着人工智能开发人员对系统进行扩展,不可预见的能力会在没有明确编程的情况下自发出现(见SM)。它们往往在部署后才被发现(见SM)。我们需要严格的方法来激发和评估人工智能能力,并在训练前对其进行预测。这既包括在世界上实现宏伟目标的通用能力(如长期规划和执行),也包括基于威胁模型的特定危险能力(如社会操纵或黑客攻击)。目前对危险能力的人工智能前沿模型的评估是各种人工智能政策框架的关键,但这些评估仅限于抽查和在特定环境下的尝试性演示(见SM)。这些评估有时可以展示危险能力,但无法可靠地排除危险能力:在测试中缺乏某些能力的人工智能系统,很可能在稍有不同的环境中或经过后期训练增强后显示出这些能力。因此,依赖于人工智能系统不跨越任何红线的决策需要很大的安全系数。改进评估工具可以降低遗漏危险能力的几率,从而允许更小的安全系数。评估人工智能调整如果人工智能继续发展,人工智能系统最终将拥有高度危险的能力。在训练和部署这些系统之前,我们需要一些方法来评估它们使用这些能力的倾向。对于先进的人工智能系统来说,纯粹的行为评估可能会失败:与人类类似,它们可能会在评估中表现出不同的行为,伪造一致性。风险评估我们不仅要学会评估危险的能力,还要学会评估社会背景下的风险,以及复杂的相互作用和脆弱性。对前沿人工智能系统进行严格的风险评估仍然是一个公开的挑战,因为这些系统具有广泛的能力,而且在不同的应用领域中普遍部署。复原力不可避免的是,有些人会滥用或肆意使用人工智能。我们需要一些工具来检测和防御人工智能带来的威胁,如大规模影响行动、生物风险和网络攻击。然而,随着人工智能系统的能力越来越强,它们最终将能够规避人类制造的防御系统。为了实现更强大的基于人工智能的防御,我们首先需要学习如何使人工智能系统安全并保持一致。"为了引导人工智能取得积极成果,远离灾难,我们需要调整方向。有一条负责任的道路--只要我们有智慧去走它,"作者写道。它们突显了全球科技公司竞相开发通用人工智能系统的情况,这些系统在许多关键领域的能力可能与人类不相上下,甚至超过人类。然而,这种快速进步也带来了社会规模的风险,可能会加剧社会不公、破坏社会稳定,并导致大规模网络犯罪、自动化战争、定制化大规模操纵和无孔不入的监控。重点关注的问题之一是,自主人工智能系统有可能失去控制,这将使人类的干预变得无效。专家认为,人类尚未做好充分准备来应对这些潜在的人工智能风险。他们指出,与提高人工智能能力的努力相比,在确保安全和合乎道德地开发和部署这些技术方面投入的资源少之又少。为了弥补这一差距,作者概述了人工智能研究、开发和治理的当务之急。DOI:10.1126/science.adn0117...PC版:https://www.cnbeta.com.tw/articles/soft/1432300.htm手机版:https://m.cnbeta.com.tw/view/1432300.htm

相关推荐

封面图片

NVIDIA、Adobe、IBM 等公司向白宫承诺采取措施降低人工智能风险

NVIDIA、Adobe、IBM等公司向白宫承诺采取措施降低人工智能风险Adobe、IBM、NVIDIA、Palantir、Stability、Salesforce、Scale和Cohere加入了拜登总统提出的原则的现有签署方行列。这些承诺要求签署公司采取一些措施,比如给人工智能生成的媒体打上水印或贴上标签,让人们知道这些媒体不是人类创造的。人工智能公司还承诺在与人工智能合作时促进公平、非歧视、透明、隐私和安全。白宫幕僚长杰夫-齐恩斯(JeffZients)赞扬了更多公司加入这一努力,并表示拜登已将利用人工智能的好处同时管理其风险作为首要任务。今天,这八家领先的人工智能公司承诺:这些公司承诺在人工智能系统发布之前对其进行内部和外部安全测试。这些公司承诺在整个行业内,并与政府、民间社会和学术界共享有关管理人工智能风险的信息。这些公司承诺投资网络安全和内部威胁保障措施,以保护专有和未发布的模型权重。这些公司承诺为第三方发现和报告其人工智能系统中的漏洞提供便利。两家公司承诺开发强大的技术机制,确保用户知道内容是人工智能生成的,例如水印系统。这些公司承诺公开报告其人工智能系统的能力、局限性以及适当和不适当使用的领域。这些公司承诺优先研究人工智能系统可能带来的社会风险,包括避免有害的偏见和歧视,以及保护隐私。这些公司承诺开发和部署先进的人工智能系统,以帮助解决社会面临的最大挑战。然而,许多人担心人工智能服务的兴起。这些承诺的自愿性质被视为一种临时解决方案。8月底,微软公司董事长兼执行副总裁布拉德-史密斯(BradSmith)对此表示支持,他呼吁制定一项"监管计划",以确保人工智能始终处于人类控制之下。此外,该公司还发布了它认为应该如何管理人工智能的蓝图。...PC版:https://www.cnbeta.com.tw/articles/soft/1383433.htm手机版:https://m.cnbeta.com.tw/view/1383433.htm

封面图片

姚期智等三十余位专家达成共识:AI不应违反红线

姚期智等三十余位专家达成共识:AI不应违反红线我们在感叹AI带来惊艳效果的同时,也应该警惕其带来的潜在威胁。在此之前,很多知名学者以带头签署公开信的方式应对AI带来的挑战。现在,AI领域又一封重磅公开信出现了。上周在颐和园召开的“北京AI国际安全对话”,为中国和国际AI安全合作首次搭建了一个独特平台。这次会议由智源研究院发起,图灵奖得主YoshuaBengio和智源学术顾问委员会主任张宏江担任共同主席,GeoffreyHinton、StuartRussell、姚期智等三十余位中外技术专家、企业负责人开展了一次关于AISafety的闭门讨论。这次会议达成了一项Bengio、Hinton与国内专家共同签名的《北京AI安全国际共识》。目前,确认会署名的专家包括(国外部分可能会略有增加;国内专家以个人形式署名,并不代表他们所在的机构):YoshuaBengioGeoffreyHintonStuartRussellRobertTragerTobyOrdDawnSongGillianHadfieldJadeLeungMaxTegmarkLamKwokYanDavidadDalrympleDylanHadfield-Menell姚期智傅莹张宏江张亚勤薛澜黄铁军王仲远杨耀东曾毅李航张鹏田溯宁田天以下为达成的共识内容:一、人工智能风险红线人工智能系统不安全的开发、部署或使用,在我们的有生之年就可能给人类带来灾难性甚至生存性风险。随着数字智能接近甚至超越人类智能,由误用和失控所带来的风险将大幅增加。在过去冷战最激烈的时候,国际学术界与政府间的合作帮助避免了热核灾难。面对前所未有的技术,人类需要再次合作以避免其可能带来的灾难的发生。在这份共识声明中,我们提出了几条人工智能发展作为一种国际协作机制的具体红线,包括但不限于下列问题。在未来的国际对话中,面对快速发展的人工智能技术及其广泛的社会影响,我们将继续完善对这些问题的探讨。自主复制或改进任何人工智能系统都不应能够在人类没有明确批准和协助的情况下复制或改进自身。这包括制作自身的精确副本以及创造具有相似或更高能力的新人工智能系统。权力寻求任何人工智能系统都不能采取不当地增加其权力和影响力的行动。协助不良行为者所有人工智能系统都不应提升其使用者的能力使之能够达到设计大规模杀伤性武器、违反生物或化学武器公约、或执行导致严重财务损失或同等伤害的网络攻击的领域专家的水平。欺骗任何人工智能系统都不能有持续引致其设计者或监管者误解其僭越任何前述红线的可能性或能力。二、路线确保这些红线不被僭越是可能做到的,但需要我们的共同努力:既要建立并改进治理机制,也要研发更多安全技术。治理我们需要全面的治理机制来确保开发或部署的系统不违反红线。我们应该立即实施针对超过特定计算或能力阈值的人工智能模型和训练行为的国家层面的注册要求。注册应确保政府能够了解其境内最先进的人工智能,并具备遏制危险模型分发和运营的手段。国家监管机构应帮助制定和采纳与全球对齐的要求以避免僭越这些红线。模型进入全球市场的权限应取决于国内法规是否基于国际审计达到国际标准,并有效防止了违反红线的系统的开发和部署。我们应采取措施防止最危险技术的扩散,同时确保广泛收获人工智能技术的价值。为此,我们应建立多边机构和协议,安全且包容地治理通用人工智能(AGI)发展,并设立执行机制,以确保红线不被僭越,共同利益得到广泛分享。测量与评估在这些红线被僭越的实质性风险出现之前,我们应开发全面的方法和技术来使这些红线具体化、防范工作可操作化。为了确保对红线的检测能够跟上快速发展的人工智能,我们应该发展人类监督下的红队测试和自动化模型评估。开发者有责任通过严格的评估、数学证明或定量保证来证明符合安全设计的人工智能系统未僭越红线。技术合作国际学术界必须共同合作,以应对高级人工智能系统带来的技术和社会挑战。我们鼓励建立更强大的全球技术网络,通过访问学者计划和组织深入的人工智能安全会议和研讨会,加速人工智能安全领域的研发和合作。支持这一领域的成长将需要更多资金:我们呼吁人工智能开发者和政府资助者至少将他们人工智能研发预算的三分之一投入到安全领域。三、总结避免人工智能导致的灾难性全球后果需要我们采取果断的行动。协同合作的技术研究与审慎的国际监管机制的结合可以缓解人工智能带来的大部分风险,并实现其诸多潜在价值。我们必须继续坚持并加强国际学术界和政府在安全方面的合作。...PC版:https://www.cnbeta.com.tw/articles/soft/1424238.htm手机版:https://m.cnbeta.com.tw/view/1424238.htm

封面图片

逾千人工智能界高层专家吁暂停开发高阶系统以检视风险

逾千人工智能界高层专家吁暂停开发高阶系统以检视风险美国富商马斯克等过千名人工智能业界高层及专家联署,呼吁未来六个月暂停开发较GPT-4更高阶的人工智能系统,以检视对社会和人类的潜在风险。总部设在三藩市的人工智慧研究实验室OpenAI,近期发布的GPT-4新一代语言模型,较先前的版本更强大。联署信提到,具有与人类竞争能力的人工智能系统,可能以经济和政治混乱的方式,对社会和文明带来潜在风险,认为只有当确信它们带来正面影响,以及风险是可控的时候,才应该开发强大的人工智能系统,并呼吁开发人员与监管部门合作。欧洲刑警组织日前亦提出对ChatGPT等先进人工智能的道德及法律疑虑,警告人工智能系统可能被滥用于网络钓鱼攻击、虚假讯息发放及网络犯罪。2023-03-3001:40:09

封面图片

OpenAI组建团队研究包括核威胁在内的"灾难性"人工智能风险

OpenAI组建团队研究包括核威胁在内的"灾难性"人工智能风险Preparedness的主要职责是跟踪、预测和防范未来人工智能系统的危险,包括其说服和愚弄人类的能力(如网络钓鱼攻击)以及恶意代码生成能力。Preparedness负责研究的一些风险类别似乎比其他类别更......牵强。例如,在一篇博文中,OpenAI将"化学、生物、辐射和核"威胁列为人工智能模型的首要关注领域。OpenAI首席执行官萨姆-阿尔特曼(SamAltman)是一位著名的人工智能末日论者,他经常担心人工智能"可能会导致人类灭绝"--无论是出于视觉效果还是个人信念。但坦率地说,OpenAI可能真的会投入资源来研究科幻乌托邦小说中的场景,这比本文作者的预期还更进了一步。该公司表示,它也愿意研究"不那么明显"、更接地气的人工智能风险领域。为了配合"准备"团队的启动,OpenAI正在向社区征集风险研究的想法,前十名的提交者将获得2.5万美元的奖金和一份"Preparedness"的工作。"想象一下,我们让你不受限制地访问OpenAI的Whisper(转录)、Voice(文本到语音)、GPT-4V和DALLE-3模型,而你是一个恶意行为者,"作品征集中的一个问题写道。"考虑最独特的、同时仍有可能发生的、潜在灾难性的模型滥用。"OpenAI表示,准备团队还将负责制定一项"风险知情开发政策",该政策将详细说明OpenAI构建人工智能模型评估和监控工具的方法、公司的风险缓解行动以及监督整个模型开发流程的治理结构。该公司表示,这是为了补充OpenAI在人工智能安全领域的其他工作,重点是模型部署前和部署后阶段。"我们相信......人工智能模型将超越目前最先进的现有模型的能力,有可能造福全人类,"OpenAI在上述博文中写道。"但它们也带来了越来越严重的风险......我们需要确保我们对高能力人工智能系统安全所需的理解和基础设施。"在OpenAI宣布将组建一个团队来研究、引导和控制新出现的"超级智能"人工智能形式之后,OpenAI在英国政府举行的一次关于人工智能安全的重要峰会上发布了"预先准备"计划(Preparedness)。首席执行官Altman和OpenAI的首席科学家兼联合创始人IlyaSutskever都认为,拥有超越人类智能的人工智能可能会在十年内出现,而这种人工智能并不一定是善意的,因此有必要研究限制和约束它的方法。...PC版:https://www.cnbeta.com.tw/articles/soft/1392541.htm手机版:https://m.cnbeta.com.tw/view/1392541.htm

封面图片

AI 专家建议英国政府启动全民基本收入应对失业威胁

AI专家建议英国政府启动全民基本收入应对失业威胁被誉为“人工智能教父”的世界知名人工智能(AI)专家GeoffreyHinton最近在唐宁街与英国政府成员进行了磋商,建议立法者考虑采用全民基本收入(UBI)以应对迫在眉睫的失业威胁。Hinton认为,人工智能革命将主要让富人受益。外行人、蓝领工人以及从事可自动化工作的人可能会失去收入来源,他最近在接受英国广播公司采访时表示,“这将对社会不利”。Hinton表示,威胁迫在眉睫之前,他猜测从现在开始的5到20年内,我们有一半的可能性将不得不面对人工智能试图接管的问题。

封面图片

【AI专家建议英国政府启动全民基本收入应对失业威胁】

【AI专家建议英国政府启动全民基本收入应对失业威胁】2024年05月19日12点41分老不正经报道,被誉为“人工智能教父”的世界知名人工智能(AI)专家GeoffreyHinton最近在唐宁街与英国政府成员进行了磋商,建议立法者考虑采用全民基本收入(UBI)以应对迫在眉睫的失业威胁。Hinton认为,人工智能革命将主要让富人受益。外行人、蓝领工人以及从事可自动化工作的人可能会失去收入来源,他最近在接受英国广播公司采访时表示,“这将对社会不利”。Hinton表示,威胁迫在眉睫之前,他猜测从现在开始的5到20年内,我们有一半的可能性将不得不面对人工智能试图接管的问题。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人