科学家们为照亮人工智能的"黑匣子"而创造了一套决策评估方法

科学家们为照亮人工智能的"黑匣子"而创造了一套决策评估方法这种新方法揭示了所谓的"黑匣子"人工智能算法的神秘工作原理,帮助用户了解什么会影响人工智能产生的结果,以及这些结果是否可以信任。这在对人类健康和福祉有重大影响的情况下尤其重要,例如在医疗应用中使用人工智能。这项研究在即将出台的欧盟人工智能法案的背景下具有特别的意义,该法案旨在规范欧盟内部人工智能的发展和使用。这些研究结果最近发表在《自然-机器智能》杂志上。时间序列数据--代表信息随时间的演变无处不在:例如在医学上,用心电图记录心脏活动;在地震研究中;跟踪天气模式;或在经济学上监测金融市场。这些数据可以通过人工智能技术进行建模,以建立诊断或预测工具。人工智能的进步,特别是深度学习--包括使用这些非常大量的数据训练机器,目的是解释它并学习有用的模式为越来越准确的诊断和预测工具开辟了道路。然而,由于没有深入了解人工智能算法的工作方式或影响其结果的因素,人工智能技术的"黑匣子"性质提出了关于可信度的重要问题。"这些算法的工作方式至少可以说是不透明的,"共同指导这项工作的UNIGE医学院放射学和医学信息学系主任兼HUG医学信息科学部主任ChristianLovis教授说。''当然,赌注,特别是经济上的赌注是非常高的。但是,如果不了解机器的推理基础,我们怎么能相信它?这些问题是至关重要的,特别是在医学等部门,人工智能驱动的决策可以影响人们的健康甚至生命;在金融领域,它们可以导致巨大的资本损失。"可解释性方法旨在通过破译人工智能为什么和如何达成一个特定的决定以及其背后的原因来回答这些问题。''知道在特定情况下哪些因素使天平倾向于支持或反对一个解决方案,从而允许一些透明度,增加对它们的信任,''新加坡国立大学设计与工程学院MathEXLab主任GianmarcoMengaldo助理教授说,他共同指导了这项工作。"然而,目前在实际应用和工业工作流程中广泛使用的可解释性方法在应用于同一任务时提供了明显不同的结果。这就提出了一个重要的问题:既然应该有一个唯一的、正确的答案,那么什么可解释性方法是正确的?因此,对可解释性方法的评价变得和可解释性本身一样重要"。区分重要的和不重要的辨别数据在开发可解释性人工智能技术方面至关重要。例如,当人工智能分析图像时,它专注于一些特征属性。洛维斯教授实验室的博士生和该研究的第一作者HuguesTurbé解释说:''例如,人工智能可以区分狗的图像和猫的图像。同样的原则适用于分析时间序列:机器需要能够选择一些元素--例如比其他元素更明显的峰值--来作为其推理的基础。对于心电图信号,这意味着调和来自不同电极的信号,以评估可能的不协调,这将是特定心脏疾病的标志。"在所有可用于特定目的的方法中选择一种可解释性方法并不容易。不同的人工智能可解释性方法往往产生非常不同的结果,即使是应用于相同的数据集和任务。为了应对这一挑战,研究人员开发了两种新的评估方法,以帮助了解人工智能如何做出决定:一种用于识别信号中最相关的部分,另一种用于评估它们对最终预测的相对重要性。为了评估可解释性,他们隐藏了一部分数据以验证它是否与人工智能的决策有关。然而,这种方法有时会在结果中造成错误。为了纠正这一点,他们在一个包括隐藏数据的增强型数据集上训练人工智能,这有助于保持数据的平衡和准确。然后,该团队创建了两种方法来衡量可解释性方法的工作情况,显示人工智能是否使用正确的数据进行决策,以及所有数据是否被公平考虑。"总的来说,我们的方法旨在评估将在其操作领域内实际使用的模型,从而确保其可靠性,"HuguesTurbé解释说。为了进一步研究,该团队已经开发了一个合成数据集,他们已经向科学界提供了该数据集,以轻松评估任何旨在解释时间序列的新人工智能。在医学应用的未来展望未来,该团队现在计划在临床环境中测试他们的方法,那里对人工智能的忧虑仍然很普遍。MinaBjelogrlic博士解释说,他是Lovis教授部门的机器学习团队的负责人,也是这项研究的第二作者,"建立对人工智能评估的信心是在临床环境中采用它们的关键步骤。我们的研究侧重于对基于时间序列的AI的评估,但同样的方法可以应用于基于医学中使用的其他模式的AI,如图像或文本。"...PC版:https://www.cnbeta.com.tw/articles/soft/1358077.htm手机版:https://m.cnbeta.com.tw/view/1358077.htm

相关推荐

封面图片

国家自然科学基金委员会关于发布可解释、可通用的下一代人工智能方法重大研究计划 2024 年度项目指南

国家自然科学基金委员会关于发布可解释、可通用的下一代人工智能方法重大研究计划2024年度项目指南可解释、可通用的下一代人工智能方法重大研究计划面向人工智能发展国家重大战略需求,以人工智能的基础科学问题为核心,发展人工智能新方法体系,促进我国人工智能基础研究和人才培养,支撑我国在新一轮国际科技竞争中的主导地位。本重大研究计划面向以深度学习为代表的人工智能方法鲁棒性差、可解释性差、对数据的依赖性强等基础科学问题,挖掘机器学习的基本原理,发展可解释、可通用的下一代人工智能方法,并推动人工智能方法在科学领域的创新应用。(国家自然科学基金委员会)

封面图片

苹果AI计划新进展:将为云端数据创造"黑匣子"来保护用户隐私

苹果AI计划新进展:将为云端数据创造"黑匣子"来保护用户隐私不过,由于隐私是苹果工作的核心原则,它正在尽其所能保护用户。根据TheInformation的消息来源,苹果打算在一个虚拟黑盒中处理来自人工智能应用的数据。这一概念在内部被称为"数据中心中的苹果芯片"(AppleChipsinDataCenters),它将只使用苹果的硬件在云中执行人工智能处理。其目的是控制服务器上的硬件和软件,从而设计出更安全的系统。虽然设备上的人工智能处理具有很高的私密性,但这一举措可以使苹果客户的云处理同样安全。由于无需将数据传输到云端,因此设备上的处理本质上是私有的。问题是,与云处理相比,它可能要慢得多。不过,云处理的功能可以强大得多,尽管需要牺牲隐私。这正是苹果想要避免的。...PC版:https://www.cnbeta.com.tw/articles/soft/1432826.htm手机版:https://m.cnbeta.com.tw/view/1432826.htm

封面图片

OpenAI首席科学家有个计划 寻找方法控制超级人工智能

OpenAI首席科学家有个计划寻找方法控制超级人工智能OpenAI的研究人员利奥波德·阿森布伦纳(LeopoldAschenbrenner)指出:“通用人工智能(AGI)正在迅速接近,我们将看到具有巨大能力但也可能非常危险的超智能模型,而我们还没有找到控制它们的方法。”他参与了今年7月成立的“超级对齐”(Superalignment)研究团队。OpenAI表示,将把其可用算力的五分之一用于“超级对齐”项目,以探索如何确保超级人工智能的安全性和可控性。OpenAI最近发布了一篇研究论文,介绍了一项实验结果。该实验旨在测试一种方法,让一个较差的人工智能模型在不降低智能的情况下指导一个更聪明的人工智能模型。尽管所涉及的技术还没有超过人类的灵活性,但该实验是为了应对未来人类必须与比自己更聪明的人工智能系统合作的时代而设计的。在实验中,OpenAI的研究人员检查了一种被称为监督的过程,它被用来调整像GPT-4这样的系统,使其更有帮助、更少伤害。GPT是ChatGPT背后的大语言模型。目前,这涉及到人类向人工智能系统反馈哪些答案是好的,哪些是坏的。随着人工智能的进步,研究人员正在探索如何将这一过程自动化以节省时间。此外,这也是因为他们认为,随着人工智能变得越来越强大,人类可能无法提供有用的反馈。在对照实验中,研究人员使用OpenAI于2019年首次发布的GPT-2文本生成器来教授GPT-4,并测试了两种解决方法。其中一种方法是逐步训练更大的模型,以减少每一步的性能损失;另一种方法是对GPT-4进行了算法调整,允许较强的模型遵循较弱模型的指导,而不会削弱其性能。第二种方法被证明更有效,尽管研究人员承认这些方法并不能保证更强的模型会完美运行,但可以将其作为进一步研究的起点。人工智能安全中心主任丹·亨德里克斯(DanHendryks)表示:“很高兴看到OpenAI主动解决控制超级人工智能的问题,我们需要多年的努力来应对这一挑战。”人工智能安全中心是旧金山一家致力于管理人工智能风险的非营利组织。阿森布伦纳与“超级对齐”团队的其他两名成员科林·伯恩斯(CollinBurns)和帕维尔·伊兹梅洛夫(PavelIzmailov)在接受采访时均表示,他们为迈出重要的第一步感到鼓舞,认为这有助于驯服潜在的超级人工智能。伊兹梅洛夫打了个比方:“就像一个六年级的学生,尽管他们比大学数学专业的学生所掌握的数学知识要少,但他们仍然能够向大学生传达他们想要达到的目标,而这正是我们所追求的效果。”“超级对齐”团队由OpenAI的首席科学家和联合创始人伊利亚·苏茨凯弗(IlyaSutskever)共同领导。苏茨凯弗也是上个月投票解雇首席执行官萨姆·奥特曼(SamAltman)的原董事会成员之一。不过后来他撤回了这一决定,并威胁说如果不让奥特曼复职,他就辞职。苏茨凯弗是这篇最新论文的合著者,但OpenAI拒绝让他讨论这个项目。上个月,奥特曼与OpenAI达成了协议,董事会的大部分成员都已经辞职,苏茨凯弗在OpenAI的未来也充满了不确定性。尽管如此,阿森布伦纳表示:“我们非常感谢苏茨凯弗,他是这个项目的推动者。”在人工智能领域,OpenAI的研究人员并不是第一个尝试使用现有技术来测试有助于驯服未来人工智能系统的团队。然而,与之前的企业和学术实验室的研究一样,我们无法确定在精心设计的实验中有效的想法在未来是否实用。研究人员将让一个较弱的人工智能模型训练一个更强的人工智能模型,他们称这种能力为“解决更广泛的‘超级对齐’问题的关键组成部分”。这种人工智能对齐实验也引发了一个关键问题:控制系统的可信度有多高?OpenAI新技术的核心在于,更强大的人工智能系统能够自己决定可以忽略较弱系统的哪些指导,这种选择可能会使其忽略可能阻止其未来以不安全方式行事的重要信息。为了使这样的系统有效,需要在提供一致性方面取得进展。伯恩斯强调:“你最终需要高度的信任。”加州大学伯克利分校研究人工智能安全的教授斯图尔特·拉塞尔(StuartRussell)表示,使用不那么强大的人工智能模型来控制更强大人工智能模型的想法已经存在了一段时间。但他也指出,到目前为止,我们还不清楚用于教授人工智能行为的方法是否可行,因为它们尚未能使当前的模型可靠地运行。尽管OpenAI正在迈出控制更先进人工智能的第一步,但该公司也渴望获得外界的帮助。OpenAI宣布将与谷歌前首席执行官埃里克·施密特(EricSchmidt)合作,向外部研究人员提供1000万美元的资助,以鼓励他们在从弱到强的监管、高级模型的可解释性以及针对旨在打破限制的提示下加强模型等领域取得进展。参与撰写这篇新论文的研究人员表示,OpenAI明年还将举行一次关于“超级对齐”的会议。作为OpenAI的联合创始人,也是“超级对齐”团队的联合负责人,他领导了该公司许多最重要的技术工作。同时,他也是越来越担心如何控制人工智能的知名专家之一,因为人工智能变得越来越强大。今年以来,如何控制未来人工智能技术的问题获得了新的关注,这在很大程度上归功于ChatGPT的影响。苏茨凯弗曾在深度神经网络先驱杰弗里·辛顿(GeoffreyHinton)的指导下攻读博士学位。后者于今年5月离开谷歌,以警告人们人工智能在某些任务中似乎正在接近人类的水平。(小小)...PC版:https://www.cnbeta.com.tw/articles/soft/1404653.htm手机版:https://m.cnbeta.com.tw/view/1404653.htm

封面图片

苹果的隐私保护计划:将云数据置于“黑匣子”中

苹果的隐私保护计划:将云数据置于“黑匣子”中在6月中旬举行的年度开发者大会上,苹果公司高管将公布如何将人工智能整合到Siri虚拟助手和其他产品中的细节。其中一个最大的问题是,苹果将如何在实现这一目标的同时履行保护用户个人数据的承诺。答案是什么?据参与该项目的四名前苹果员工称,苹果计划在一个虚拟黑盒中处理来自人工智能应用的数据,使其员工无法访问这些数据。过去三年来,苹果公司一直在开发一个秘密项目,内部称为"数据中心苹果芯片"(AppleChipsinDataCenters)或"ACDC"(AppleChipsinDataCentersorACDC)。它的方法在概念上与保密计算类似,保密计算是一个行业术语,意思是即使在数据处理过程中,数据也是保密的。关注频道@ZaiHuaPd频道投稿@ZaiHuabot

封面图片

【英国发布人工智能监管白皮书,概述针对ChatGPT等人工智能治理的五项原则】

【英国发布人工智能监管白皮书,概述针对ChatGPT等人工智能治理的五项原则】2023年03月29日08点35分老不正经报道,英国政府发布了针对人工智能产业监管的白皮书,概述了针对ChatGPT等人工智能治理的五项原则。它们分别是:安全性和稳健性、透明度和可解释性、公平性、问责制和管理,以及可竞争性。在接下来的12个月里,监管机构将向相关组织发布实用指南,以及风险评估模板等其他工具,制定基于五项原则的一些具体规则。也将在议会推动立法,制定具体的人工智能法案。

封面图片

OpenAI发表研究论文 介绍了一种逆向工程AI模型工作原理的方法

OpenAI发表研究论文介绍了一种逆向工程AI模型工作原理的方法在论文中,该公司的研究人员提出了一种窥探为ChatGPT提供动力的人工智能模型内部的方法。他们设计了一种方法来识别模型如何存储某些概念--包括那些可能导致人工智能系统行为失常的概念。虽然这项研究使OpenAI在控制人工智能方面的工作更加引人注目,但也凸显了该公司最近的动荡。新研究由OpenAI最近解散的"超对齐"团队完成,该团队致力于研究技术的长期风险。前小组的共同负责人伊利亚-苏茨克沃(IlyaSutskever)和扬-莱克(JanLeike)均已离开OpenAI,并被列为共同作者。苏茨克沃是OpenAI的创始人之一,曾任首席科学家,去年11月,董事会成员投票解雇了首席执行官山姆-奥特曼(SamAltman),引发了几天的混乱,最终奥特曼重返领导岗位。ChatGPT由一个名为GPT的大型语言模型系列提供支持,该模型基于一种被称为人工神经网络的机器学习方法。这些数学网络通过分析示例数据显示出了学习有用任务的强大能力,但它们的工作原理无法像传统计算机程序那样被轻易检查。人工神经网络中各层"神经元"之间复杂的相互作用,使得逆向分析ChatGPT这样的系统为何会得出特定的反应极具挑战性。这项工作背后的研究人员在一篇随附的博文中写道:"与大多数人类创造物不同,我们并不真正了解神经网络的内部运作。一些著名的人工智能研究人员认为,包括ChatGPT在内的最强大的人工智能模型或许可以用来设计生化武器和协调网络攻击。一个更长期的担忧是,人工智能模型可能会选择隐藏信息或以有害的方式行事,以实现它们的目标。"OpenAI的这篇新论文概述了一种技术,该技术借助额外的机器学习模型,识别代表机器学习系统内部特定概念的模式,从而稍稍降低了神秘感。创新的关键在于通过识别概念来完善用于窥探系统内部的网络,从而提高效率。OpenAI通过在其最大的人工智能模型之一GPT-4中识别代表概念的模式证明了这种方法。该公司发布了与可解释性工作相关的代码,以及一个可视化工具,用于查看不同句子中的单词如何激活GPT-4和另一个模型中的概念,包括亵渎和色情内容。了解一个模型是如何表现某些概念的,这将有助于减少与不受欢迎的行为相关的概念,使人工智能系统保持正常运行。它还可以调整人工智能系统,使其偏向于某些主题或想法。尽管LLM无法被轻易解读,但越来越多的研究表明,它们可以被穿透,从而揭示出有用的信息。由亚马逊和Google支持的OpenAI竞争对手Anthropic上个月也发表了类似的人工智能可解释性研究成果。为了演示如何调整人工智能系统的行为,该公司的研究人员创造了一个痴迷于旧金山金门大桥的聊天机器人。有时,只需让人工只能机器人解释其推理过程,就能获得深刻的见解。东北大学从事人工智能可解释性研究的教授大卫-鲍(DavidBau)在谈到OpenAI的新研究时说:"这是令人兴奋的进展。"作为一个领域,我们需要学习如何更好地理解和审视这些大型模型。"鲍说,OpenAI团队的主要创新在于展示了一种配置小型神经网络的更有效方法,该网络可用于理解大型神经网络的组成部分。但他也指出,这项技术还需要改进,以使其更加可靠。要利用这些方法创造出完全可以理解的解释,还有很多工作要做。"鲍是美国政府资助的一项名为"国家深度推理结构"(NationalDeepInferenceFabric)的工作的一部分,这项工作将向学术研究人员提供云计算资源,以便他们也能探索特别强大的人工智能模型。他说:"我们需要想办法让科学家即使不在这些大公司工作,也能从事这项工作。"OpenAI的研究人员在论文中承认,要改进他们的方法还需要进一步的工作,但他们也表示,希望这种方法能带来控制人工智能模型的实用方法。他们写道:"我们希望有一天,可解释性能为我们提供推理模型安全性和鲁棒性的新方法,并通过为强大的人工智能模型的行为提供强有力的保证,大大增加我们对它们的信任。"阅读论文全文:https://cdn.openai.com/papers/sparse-autoencoders.pdf...PC版:https://www.cnbeta.com.tw/articles/soft/1433886.htm手机版:https://m.cnbeta.com.tw/view/1433886.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人