本周最火AutoGPT!GitHub3.6万+标星,解决复杂任务全程无需人类插手

本周最火AutoGPT!GitHub3.6万+标星,解决复杂任务全程无需人类插手 自主人工智能。顾名思义,它所具备的能力主打的就是一个“自主”,完全不用人类插手的那种!直到问题解决 前特斯拉AI总监Andrej Karpathy对此都评价道:AutoGPT是提示工程的下一个前沿。 推荐前往 项目地址: 标签: #AutoGPT #AI 频道: @GodlyNews1 投稿: @godlynewsbot

相关推荐

封面图片

MIT博士让机器人自学“常识”:大模型加持 可自主完成复杂家务劳动

MIT博士让机器人自学“常识”:大模型加持 可自主完成复杂家务劳动 相关研究论文以“Grounding Language Plans in Demonstrations Through Counterfactual Perturbations”为题,以会议论文的形式已发表在人工智能(AI)顶会 ICLR 2024 上。麻省理工学院(MIT)电气工程和计算机科学系博士 Yanwei Wang 为该研究论文的通讯作者。他表示,模仿学习是实现家用机器人的主流方法。但是,如果机器人盲目地模仿人类的运动轨迹,微小的错误就会不断累积,最终导致执行过程中的其他错误。“有了我们的方法,机器人就能自我纠正执行错误,提高整体任务的成功率。”让机器人掌握一点家务常识从擦拭溢出物到端上食物,机器人正在学习如何完成越来越复杂的家务劳动。实际上,许多家庭机器人都是通过模仿人类行为来学习的,它们被编程为复制人类指导它们完成的动作。然而,由于以往的机器人不具备常识,除非人类工程师通过编程让它们适应每一个可能的碰撞和轻推,否则它们并不一定知道如何处理这些情况,就会从头开始执行任务。或许,通过加入一些“常识性知识”,机器人可以在面对将它们推离训练轨道的情况时有所准备。据论文描述,Yanwei 等人通过一个简单的日常任务验证了他们提出的方法的有效性。该任务看似非常简单,即从一个碗中舀出弹珠,然后倒入另一个碗中。然而,在先前的方法中,为了让机器人完成这项任务,工程师往往会让机器人在一个流体轨迹上完成“舀”和“倒”的动作,并可能多次重复,让机器人模仿人类的一些示范动作。问题是,虽然人类可能会一次性演示一项任务,但这项任务取决于一系列子任务或轨迹。例如,机器人必须先将手伸进碗里,然后才能舀水,在移动到空碗之前,它必须先舀起弹珠。如果机器人在这些子任务中的任何一个过程中受到推挤或犯错,那么它唯一的办法就是停下来,从头开始。除非人类工程师明确标出每一个子任务,并为机器人编程或收集新的演示,从而让机器人从上述失败中恢复过来,在瞬间进行自我纠正。“这种程度的规划非常繁琐,” Yanwei 说。于是,在这项研究中,Yanwei 及其团队将机器人的运动数据与大型语言模型的“常识性知识”联系了起来。他们使机器人能够从逻辑上将许多给定的家务任务解析为子任务,并对子任务中的干扰进行调整。基于此,机器人就能继续前进,而不必返回并从头开始执行任务。而且重要的是,人类工程师也不必为每一个可能出现的故障编写详细的修复程序。据介绍,这些深度学习模型可以处理大量的文本库,并以此建立单词、句子和段落之间的联系。通过这些联系,大型语言模型可以根据它所学到的上一个词后面可能出现的词的类型生成新的句子。另外,除了句子和段落之外,大型语言模型还能根据提示生成特定任务所涉及的子任务的逻辑列表。例如,如果被要求列出将弹珠从一个碗中舀到另一个碗中的动作,模型就可能会产生一系列动词,如“够”、“舀”、“运”和“倒”。“大型语言模型可以使用自然语言告诉机器人如何完成任务的每一步。人类的连续演示就是这些步骤在物理空间中的体现,” Yanwei 说,“我们希望将两者联系起来,这样机器人就能自动知道自己处于任务的哪个阶段,并能自行重新规划和恢复。”Yanwei 表示,他们的算法现在可以将远程操作系统收集的数据转化为强大的机器人行为,尽管有外部干扰,机器人仍能完成复杂的任务。不足与展望尽管这一方法能够使得机器人在没有人类的帮助下进行自我纠正,从而完成复杂的家务劳动,但也存在一定的局限性。例如,虽然他们的方法不需要大量的人类演示,但它需要大量的试错和具有重置能力的环境,以便收集轨迹的任务成功标签。不过,研究团队表示,这种数据效率低下的问题可以通过主动学习来解决。此外,促使大型语言模型为学习分类器找到合适的状态表示也需要一些技巧。在未来的工作中,他们希望以端到端的方式结合模式分类器来学习状态表示。参考链接: ... PC版: 手机版:

封面图片

即将出版的新书阐述AI的潜在风险:目前没有证据表明其可以被安全控制

即将出版的新书阐述AI的潜在风险:目前没有证据表明其可以被安全控制 他解释说"我们正面临着一个几乎必然发生的事件,它有可能造成生存灾难。难怪许多人认为这是人类有史以来面临的最重要的问题。结果可能是繁荣,也可能是灭亡,宇宙的命运岌岌可危"。无法控制的超级智能扬波尔斯基博士对人工智能科学文献进行了广泛的研究,并表示他没有发现任何证据可以证明人工智能是可以安全控制的即使有一些部分控制,也是不够的。他解释道:"为什么这么多研究人员都认为人工智能控制问题是可以解决的?据我们所知,没有任何证据可以证明这一点。在开始探索建立受控人工智能之前,必须证明这个问题是可以解决的。这一点,再加上统计数据显示人工智能超级智能的发展几乎是一个必然事件,表明我们应该支持人工智能安全方面的重大努力。"他认为,我们生产智能软件的能力远远超过了我们控制甚至验证软件的能力。经过全面的文献综述,他认为先进的智能系统永远不可能完全可控,因此无论能带来什么好处,都会有一定程度的风险,人工智能界的目标应该是最大限度地降低这种风险,同时最大限度地提高潜在效益。有哪些障碍?人工智能(和超级智能)与其他程序的不同之处在于,它能够学习新的行为,调整自己的表现,并在新情况下半自动地行动。让人工智能变得"安全"的一个问题是,随着能力的增强,超级智能生物可能做出的决定和出现的失误是无限的,因此存在无限多的安全问题。仅仅预测不可能出现的问题并在安全补丁中加以缓解可能还不够。同时,扬波尔斯基解释说,人工智能无法解释它所做出的决定,和/或我们无法理解所给出的解释,因为人类不够聪明,无法理解所实施的概念。如果我们无法理解人工智能的决定,而我们只有一个"黑盒子",那么我们就无法理解问题,也无法降低未来发生事故的可能性。例如,人工智能系统已经开始负责在医疗保健、投资、就业、银行和安全等领域做出决策。这些系统应该能够解释它们是如何做出决定的,特别是要证明它们没有偏见。"如果我们习惯于不加解释地接受人工智能的答案,基本上把它当作一个甲骨文系统,那么我们就无法判断它是否开始提供错误或操纵性的答案"。控制不可控因素扬波尔斯基解释说,随着人工智能能力的增强,它的自主性也在增强,但我们对它的控制却在减少,而自主性的增强就是安全性降低的同义词。例如,为了避免获取不准确的知识,消除程序员的偏见,超级智能可以忽略所有这些知识,从头开始重新发现/验证一切,但这也会消除任何有利于人类的偏见。"智能较低的代理(人)无法永久控制智能较高的代理(人工智能)。这并不是因为我们可能无法在所有可能设计的广阔空间中找到超级智能的安全设计,而是因为不可能有这样的设计,它根本不存在。"他解释说:"超级智能不是在反抗,而是一开始就无法控制。人类正面临着一个选择,我们是要像婴儿一样,被照顾但无法掌控,还是要拒绝有一个有用的监护人,但保持掌控和自由"。他认为可以找到一个平衡点,在这个平衡点上,我们可以牺牲一些能力来换取一些控制权,但代价是为系统提供一定程度的自主权。统一人类价值观一种控制建议是设计一种能精确执行人类指令的机器,但扬波斯基指出,这种机器有可能出现指令冲突、误解或恶意使用的情况。他解释说"人类控制可能会导致矛盾或明显的恶意命令,而人工智能控制则意味着人类不控制"。如果人工智能更多地充当顾问的角色,它就可以避免误解直接命令和潜在恶意命令的问题,但作者认为,要让人工智能成为有用的顾问,它必须有自己的优越价值观。"大多数人工智能安全研究人员都在寻找一种方法,让未来的超级智能与人类的价值观保持一致。价值对齐的人工智能顾名思义会有偏差,亲人类的偏差,无论好坏仍然是一种偏差。价值对齐型人工智能的悖论在于,一个人明确命令人工智能系统去做某件事情,可能会得到"不"的答复,而人工智能系统则会努力去做这个人真正想要做的事情人性要么得到保护,要么得到尊重,但两者不可兼得。"将风险降至最低为了最大限度地降低人工智能的风险,人工智能必须具有"撤消"选项、可修改性、透明性,并易于用人类语言理解。扬波尔斯基建议,所有人工智能都应分为可控和不可控两类,任何东西都不应被排除在外,并应考虑有限度地暂停,甚至部分禁止某些类型的人工智能技术。"这反而是一个理由,让更多的人去深入挖掘,加大力度,为人工智能安全和保安研究提供资金。我们可能永远无法实现百分之百安全的人工智能,但我们可以通过努力使人工智能变得更加安全,这比什么都不做要好得多。我们需要明智地利用这个机会。"编译来源:ScitechDaily ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人