最新研究指出人工智能的根本性弱点:不可能开发出始终稳定的算法

最新研究指出人工智能的根本性弱点:不可能开发出始终稳定的算法 哥本哈根大学的研究人员有了一个突破性的发现,他们用数学方法证明,除了基本问题之外,不可能开发出始终稳定的人工智能算法。这项研究可以为改进算法测试协议铺平道路,凸显机器处理与人类智能之间的内在差异。描述该成果的科学文章已获准在国际领先的理论计算机科学会议上发表。机器能比医生更准确地解读医学扫描图像,翻译外语,不久还能比人类更安全地驾驶汽车。然而,再好的算法也有弱点。哥本哈根大学计算机科学系的一个研究小组试图揭示这些弱点。以自动驾驶汽车读取路标为例。如果有人在路标上贴了标签,这不会分散人类驾驶员的注意力。但机器可能会很容易分心,因为现在的路标与它接受过训练的路标不同。"我们希望算法是稳定的,即输入稍有变化,输出几乎保持不变。"该小组负责人阿米尔-耶胡达约夫(Amir Yehudayoff)教授说:"现实生活中存在着各种各样的噪音,人类习惯于忽略这些噪音,而机器却会感到困惑。"讨论弱点的语言作为世界首例,该研究小组与其他国家的研究人员一起用数学方法证明,除了简单的问题外,不可能创建始终稳定的机器学习算法。描述这一成果的科学文章已被批准在计算机科学理论的主要国际会议之一《计算机科学基础》(FOCS)上发表。"我想指出的是,我们并没有直接研究过自动驾驶汽车的应用。不过,这似乎是一个过于复杂的问题,算法不可能始终保持稳定性。"阿米尔-耶胡达约夫说,并补充说,这并不一定意味着会对自动驾驶汽车的发展造成重大影响:如果算法只在极少数情况下出错,这很可能是可以接受的。但如果它在大量情况下都出错,那就是坏消息了"。业界无法利用这篇科学文章来识别其算法中的漏洞。教授解释说,这并不是他的本意:"我们正在开发一种讨论机器学习算法弱点的语言。这可能会导致制定描述如何测试算法的指南。从长远来看,这可能会再次促进更好、更稳定算法的开发。"从直觉到数学一个可能的应用是测试保护数字隐私的算法。"有些公司可能声称已经开发出绝对安全的隐私保护解决方案。首先,我们的方法可能有助于确定解决方案不可能绝对安全。其次,它还能找出弱点,"Amir Yehudayoff 说。不过,科学文章首先要对理论有所贡献。他补充说,尤其是数学内容具有开创性:"我们凭直觉就能理解,一个稳定的算法在受到少量输入噪声影响时,应该能像以前一样正常工作。就像贴了贴纸的路标一样。但作为理论计算机科学家,我们需要一个确定的定义。我们必须能够用数学语言来描述这个问题。如果我们要承认算法是稳定的,那么算法究竟必须能够承受多少噪音,输出又应该有多接近原始输出?这就是我们提出的答案"。牢记局限性很重要这篇科学文章引起了理论计算机科学领域同行的极大兴趣,但科技行业却没有。至少目前还没有。阿米尔-耶胡达约夫笑着补充说:"你总是应该预料到,在新的理论发展和应用人员的兴趣之间会有一些延迟:而有些理论发展将永远不被关注"。不过,他认为这种情况不会发生:"机器学习的发展日新月异,但重要的是要记住,即使是在现实世界中非常成功的解决方案也有其局限性。机器有时看似能够思考,但毕竟不具备人类的智慧。这一点必须牢记。"编译自/scitechdaily ... PC版: 手机版:

相关推荐

封面图片

斯坦福的教科书,本书全面而详细地阐述了计算机科学的理论基础,从抽象概念的机械化到各种数据模型的建立,用算法、数据抽象等核心思想贯

斯坦福的教科书,本书全面而详细地阐述了计算机科学的理论基础,从抽象概念的机械化到各种数据模型的建立,用算法、数据抽象等核心思想贯穿各个主题,很好地兼顾了学科广度和主题深度,帮助读者培养计算机领域的大局观,学习真正的计算机科学 || #电子书

封面图片

有人工智能“教父”之称的杰弗里·辛顿(Geoffrey Hinton)早前辞去在Google的职务。他警告称,人工智能领域的发展

有人工智能“教父”之称的杰弗里·辛顿(Geoffrey Hinton)早前辞去在Google的职务。他警告称,人工智能领域的发展带来越来越大的危险。这位认知心理学家及计算机科学家告诉BBC,聊天机器人可能很快就会比人类更聪明。

封面图片

密码学家警告称美国谍报机关故意削弱旨在防止量子计算机破解的加密算法

密码学家警告称美国谍报机关故意削弱旨在防止量子计算机破解的加密算法 一位著名密码学专家告诉《新科学家》杂志,美国间谍机构可能正在削弱新一代算法,而这些算法旨在防范配备量子计算机的黑客。 伊利诺伊大学芝加哥分校的丹尼尔-伯恩斯坦(Daniel Bernstein)说,美国国家标准与技术研究院(NIST)正在故意掩盖美国国家安全局(NSA)参与制定 "后量子密码学"(PQC)新加密标准的程度。他还认为,NIST 在描述新标准安全性的计算中出现了错误 可能是偶然的,也可能是故意的。NIST 对此予以否认。 伯恩斯坦说:"NIST 并没有遵循旨在阻止 NSA 削弱 PQC 的程序。选择密码标准的人应该透明地、可验证地遵守明确的公开规则,这样我们就不必担心他们的动机。NIST 承诺透明,然后声称已经展示了其所有工作,但这种说法根本不成立。" 我们用来保护数据的数学问题,即使是目前最大的超级计算机也几乎无法破解。但当量子计算机变得足够可靠和强大时,它们将能够在瞬间破解这些问题。 虽然目前还不清楚这种计算机何时会出现,但美国国家标准与技术研究院自 2012 年起就开始实施一个项目,以规范新一代可抵御其攻击的算法。伯恩斯坦在2003年创造了 "后量子密码学"(post-quantum cryptography)一词来指代这类算法,他说,美国国家安全局正在积极地将秘密弱点写入新的加密标准,以便在掌握适当知识的情况下更容易破解。NIST 的标准在全球范围内使用,因此漏洞可能会产生巨大影响。 (New Scientist)

封面图片

本项目旨在收集全网最热门的技术书籍 (GO、黑客、Android、计算机原理、人工智能、大数据、机器学习、数据库、PHP、jav

本项目旨在收集全网最热门的技术书籍 (GO、黑客、Android、计算机原理、人工智能、大数据、机器学习、数据库、PHP、java、架构、消息队列、算法、python、爬虫、操作系统、linux、C语言) 。不过有段时间没有更新过了 | #电子书

封面图片

难以被取代的“凡人”:在与人工智能的博弈中人类工人正在获胜

难以被取代的“凡人”:在与人工智能的博弈中人类工人正在获胜 2013年,牛津大学的一位经济学家和一位人工智能科学家的研究估计,47%的工作有被计算机取代的 "风险"。2017年,麦肯锡全球研究所估计,到2030年,自动化可能取代数以亿计的工人,全球经济领导人正在讨论如何应对 "机器人末日"。在2020年的竞选中,人工智能对就业的威胁成为总统辩论的一个话题。 现在是2022年,计算机不断以其成就让我们感到震惊。人工智能系统正在写作、绘画、制作视频、诊断疾病。然而,不知何故,我们这些肉眼凡胎仍然需求旺盛,尽管容易疲惫、分心、受伤,有时还会出现惊人的错误。 首先,人类被低估了。事实证明,我们所做的事情上真的很了不起,在可预见的未来,我们可能会被证明在一系列行业中是不可或缺的,特别是专栏写作。与此同时,计算机也被高估了。虽然机器在演示中看起来不屈不挠,但在现实世界中,人工智能被证明是一个比其推动者所预言的更糟糕的人类替代品。

封面图片

| #算法"这个系列的博文会逐个介绍计算机科学里面最基础、也是最重要的一部分算法(algorithm)。提到它,这可能是你最擅长

| #算法 "这个系列的博文会逐个介绍计算机科学里面最基础、也是最重要的一部分内容:算法(algorithm)。提到它,这可能是你最擅长的部分,亦或是你学生生涯的噩梦。不管怎么样,对于学计算机的小伙伴来讲,它始终是不可回避的一个话题。不论是学生时代的你还是已经踏上了工作的岗位,算法都会一直陪伴着你。 为什么要做这个系列呢?因为网上对于这一块的内容实在是太多,甚至是太杂,而很少有把算法的知识体系整合起来形成一个系列的教学博客。于是乎想尽自己的微薄之力,让更多的人能够更好地理解算法,不畏惧算法,在未来求职的面试中不再因为它而与自己理想的公司失之交臂。" 配合这篇()从数学和算法分析历史角度了解算法复杂度的文章,可能更容易理解。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人