ℹ丰田研究所的机器人透过大型行为模型LBMs已经能够做到60种以上的复杂动作#

ℹ丰田研究所的机器人透过大型行为模型LBMs已经能够做到60种以上的复杂动作# 丰田的研究人员表示他们正在为机器人建立「大型行为模型(Large Behavior Models, LBMs)」。与大型语言模型的训练方式...

相关推荐

封面图片

AI 越来越神奇了,大型语言模型在内部可以存储和模拟其他神经网络,不需要额外训练就能获得新的能力。

AI 越来越神奇了,大型语言模型在内部可以存储和模拟其他神经网络,不需要额外训练就能获得新的能力。 MIT CSAIL: MIT researchers found that massive neural nets (e.g. large language models) are capable of storing and simulating other neural networks inside their hidden layers, which enables LLM to adapt to a new task without external training:

封面图片

:赋予大型预训练语言模型遵循复杂指令的能力

:赋予大型预训练语言模型遵循复杂指令的能力 遵循指令的能力对大部分开源大语言模型来说是一个独特的挑战。该项目提出的解决方案是使用LLM本身来生成指令数据。 研究人员开发的Evol-Instruct方法随机选择不同类型的进化操作来将简单指令升级为更复杂的指令,或者创建全新的指令。然后使用进化的指令数据来微调LLM,从而创建WizardLM。

封面图片

:一个能够执行 ChatGPT 指令的仿人机器人

:一个能够执行 ChatGPT 指令的仿人机器人 东京大学的研究人员成功将仿人机器人 Alter3 与 GPT-4 连接。他们利用指令让这个机器人完成了一系列的人类行为,例如弹吉他、自拍、扮演鬼魂角色,甚至在电影院偷吃别人的爆米花。 这一过程可以看作是一场现代化的“哑剧游戏”:大语言模型 (Large Language Model) 将书面指令转换为可执行的代码,从而让机器人能够模仿出多种人类的动作。

封面图片

MIT博士让机器人自学“常识”:大模型加持 可自主完成复杂家务劳动

MIT博士让机器人自学“常识”:大模型加持 可自主完成复杂家务劳动 相关研究论文以“Grounding Language Plans in Demonstrations Through Counterfactual Perturbations”为题,以会议论文的形式已发表在人工智能(AI)顶会 ICLR 2024 上。麻省理工学院(MIT)电气工程和计算机科学系博士 Yanwei Wang 为该研究论文的通讯作者。他表示,模仿学习是实现家用机器人的主流方法。但是,如果机器人盲目地模仿人类的运动轨迹,微小的错误就会不断累积,最终导致执行过程中的其他错误。“有了我们的方法,机器人就能自我纠正执行错误,提高整体任务的成功率。”让机器人掌握一点家务常识从擦拭溢出物到端上食物,机器人正在学习如何完成越来越复杂的家务劳动。实际上,许多家庭机器人都是通过模仿人类行为来学习的,它们被编程为复制人类指导它们完成的动作。然而,由于以往的机器人不具备常识,除非人类工程师通过编程让它们适应每一个可能的碰撞和轻推,否则它们并不一定知道如何处理这些情况,就会从头开始执行任务。或许,通过加入一些“常识性知识”,机器人可以在面对将它们推离训练轨道的情况时有所准备。据论文描述,Yanwei 等人通过一个简单的日常任务验证了他们提出的方法的有效性。该任务看似非常简单,即从一个碗中舀出弹珠,然后倒入另一个碗中。然而,在先前的方法中,为了让机器人完成这项任务,工程师往往会让机器人在一个流体轨迹上完成“舀”和“倒”的动作,并可能多次重复,让机器人模仿人类的一些示范动作。问题是,虽然人类可能会一次性演示一项任务,但这项任务取决于一系列子任务或轨迹。例如,机器人必须先将手伸进碗里,然后才能舀水,在移动到空碗之前,它必须先舀起弹珠。如果机器人在这些子任务中的任何一个过程中受到推挤或犯错,那么它唯一的办法就是停下来,从头开始。除非人类工程师明确标出每一个子任务,并为机器人编程或收集新的演示,从而让机器人从上述失败中恢复过来,在瞬间进行自我纠正。“这种程度的规划非常繁琐,” Yanwei 说。于是,在这项研究中,Yanwei 及其团队将机器人的运动数据与大型语言模型的“常识性知识”联系了起来。他们使机器人能够从逻辑上将许多给定的家务任务解析为子任务,并对子任务中的干扰进行调整。基于此,机器人就能继续前进,而不必返回并从头开始执行任务。而且重要的是,人类工程师也不必为每一个可能出现的故障编写详细的修复程序。据介绍,这些深度学习模型可以处理大量的文本库,并以此建立单词、句子和段落之间的联系。通过这些联系,大型语言模型可以根据它所学到的上一个词后面可能出现的词的类型生成新的句子。另外,除了句子和段落之外,大型语言模型还能根据提示生成特定任务所涉及的子任务的逻辑列表。例如,如果被要求列出将弹珠从一个碗中舀到另一个碗中的动作,模型就可能会产生一系列动词,如“够”、“舀”、“运”和“倒”。“大型语言模型可以使用自然语言告诉机器人如何完成任务的每一步。人类的连续演示就是这些步骤在物理空间中的体现,” Yanwei 说,“我们希望将两者联系起来,这样机器人就能自动知道自己处于任务的哪个阶段,并能自行重新规划和恢复。”Yanwei 表示,他们的算法现在可以将远程操作系统收集的数据转化为强大的机器人行为,尽管有外部干扰,机器人仍能完成复杂的任务。不足与展望尽管这一方法能够使得机器人在没有人类的帮助下进行自我纠正,从而完成复杂的家务劳动,但也存在一定的局限性。例如,虽然他们的方法不需要大量的人类演示,但它需要大量的试错和具有重置能力的环境,以便收集轨迹的任务成功标签。不过,研究团队表示,这种数据效率低下的问题可以通过主动学习来解决。此外,促使大型语言模型为学习分类器找到合适的状态表示也需要一些技巧。在未来的工作中,他们希望以端到端的方式结合模式分类器来学习状态表示。参考链接: ... PC版: 手机版:

封面图片

| #指南LLMs,即大型语言模型(Large Language Models),是一种基于人工智能和机器学习技术构建的先进模型

| #指南 LLMs,即大型语言模型(Large Language Models),是一种基于人工智能和机器学习技术构建的先进模型,旨在理解和生成自然语言文本。这些模型通过分析和学习海量的文本数据,掌握语言的结构、语法、语义和上下文等复杂特性,从而能够执行各种语言相关的任务。LLM的能力包括但不限于文本生成、问答、文本摘要、翻译、情感分析等。 LLMs例如GPT、LLama、Mistral系列等,通过深度学习的技术架构,如Transformer,使得这些模型能够捕捉到文本之间深层次的关联和含义。模型首先在广泛的数据集上进行预训练,学习语言的一般特征和模式,然后可以针对特定的任务或领域进行微调,以提高其在特定应用中的表现。 预训练阶段让LLMs掌握了大量的语言知识和世界知识,而微调阶段则使模型能够在特定任务上达到更高的性能。这种训练方法赋予了LLMs在处理各种语言任务时的灵活性和适应性,能够为用户提供准确、多样化的信息和服务。

封面图片

Google的教学视频《》,介绍了大型语言模型(Large Language Models,LLMs)的概念、使用场景、提示调整

Google的教学视频《》,介绍了大型语言模型(Large Language Models,LLMs)的概念、使用场景、提示调整以及Google的Gen AI开发工具。 大型语言模型是深度学习的一个子集,可以预训练并进行特定目的的微调。这些模型经过训练,可以解决诸如文本分类、问题回答、文档摘要、跨行业的文本生成等常见语言问题。然后,可以利用相对较小的领域数据集对这些模型进行定制,以解决零售、金融、娱乐等不同领域的特定问题。 大型语言模型的三个主要特征是:大型、通用性和预训练微调。"大型"既指训练数据集的巨大规模,也指参数的数量。"通用性"意味着这些模型足够解决常见问题。"预训练和微调"是指用大型数据集对大型语言模型进行一般性的预训练,然后用较小的数据集对其进行特定目的的微调。 使用大型语言模型的好处包括:一种模型可用于不同的任务;微调大型语言模型需要的领域训练数据较少;随着数据和参数的增加,大型语言模型的性能也在持续增长。 此外,视频还解释了传统编程、神经网络和生成模型的不同,以及预训练模型的LLM开发与传统的ML开发的区别。 在自然语言处理中,提示设计和提示工程是两个密切相关的概念,这两者都涉及创建清晰、简洁、富有信息的提示。视频中还提到了三种类型的大型语言模型:通用语言模型、指令调整模型和对话调整模型。每种模型都需要以不同的方式进行提示。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人