用GPT-4训练机器人,英伟达最新Agent开源:任务越复杂越拿手训练,AI比人类更拿手!英伟达最新AIAgentEure

None

相关推荐

封面图片

用GPT-4训练机器人 英伟达最新Agent开源:任务越复杂越拿手

用GPT-4训练机器人英伟达最新Agent开源:任务越复杂越拿手尤其是转笔这个技能,要知道靠人类逐帧制作动画,也是非常困难的。最终,Eureka在超过80%的任务中都超越人类专家,让机器人平均性能提升到50%以上。这一研究吸引了数十万网友关注,有人表示:直接快进到它弹钢琴那天,直接为大众所用。英伟达科学家,也是此次共同作者之一JimFan评价到,它是超级人类奖励工程师。它可以辅助机器人工程师设计复杂任务。目前该项目完全开源。GPT-4生成奖励策略在机器人学习中,大模型擅长生成高级语义规划和中级操作,比如拾取和放置(VIMA、RT-1等),但在复杂任务控制方面有所欠缺。而Eureka的关键所在,就是通过上下文来实现了人类水平的奖励算法设计。简单来说,就是用GPT-4的零样本生成、代码编写以及上下文改进功能,对奖励执行策略进行优化,由此通过强化学习来进行复杂的技能。研究人员提出了一种混合梯度架构,外循环运行GPT-4来细化奖励函数(无梯度),而内循环运行强化学习来训练机器人控制器(基于梯度)。主要有三个关键组成部分:模拟器环境代码作为上下文启动初始“种子”奖励函数。GPU上的大规模并行强化学习,可以快速评估大量候选奖励。奖励反射rewardreflection,得益于GPT-4评估和修改能力,一步步迭代。首先,无需任何特定提示工程和奖励模版。使用原始IsaacGym(一种GPU加速的物理模拟器)环境代码作为上下文,生成初始奖励函数。这种无梯度的情境学习方式,可以根据各种形式的人类输入,生成性能更强、符合开发人员愿景的奖励函数。其次,Eureka在每个进化步骤中都会生成很多候选函数,然后利用强化学习训练来进行快速评估。以往这种过程需要几天甚至几周来完成,但由IsaacGym可将模拟时间提高1000倍,强化学习内循环能在几分钟完成。最后,依赖于奖励反射,Eureka还支持一种新形式的上下文RLHF。它能够将人类操作员的反馈融入自然语言中,以引导和调整奖励功能。最终,在29种不同的开源RL环境中,83%基准测试中Eureka都优于人类,并实现了52%改进。这些环境包括10种不同的机器人形态,比如四足机器人、四旋翼机器人、双足机器人、机械手等。让研究人员惊讶的是,尤其在处理复杂、高维电机控制的任务上,Eureka表现更好,且与人类奖励的相关性越低。甚至在少数情况下,AI的策略与人类的策略呈现负相关。这就有点像当年AlphaGo的下棋策略,人类看不懂学不会,但十分有效。英伟达出品这项研究由英伟达、宾夕法尼亚大学、加州理工学院、德州大学奥斯汀分校的研究人员来完成。可以看到的是,近半数研究人员都是华人。一作是YechengJasonMa,目前是宾大GRASP实验室的四年级博士生,研究方向是强化学习和机器人学习。英伟达科学家JimFan此次也是通讯作者之一。咳咳,不过至于网友提到的弹钢琴,JimFan自己曾分享过:只需几个简单按钮,AI就能实时即兴生成演奏音乐。不知道,未来会不会这样的呢?(不过,这研究已经是2018年的了)...PC版:https://www.cnbeta.com.tw/articles/soft/1391745.htm手机版:https://m.cnbeta.com.tw/view/1391745.htm

封面图片

吴恩达谈 Agent 4个模式:Agent 工作流可实现 GPT-3.5 >GPT-4

吴恩达对AIAgent的这个分享,真的很有价值,这可能才是AIAgent未来的打开方式,我自己体验了一下效果确实很好。大多数人使用语言模型的方式是非Agent式的工作流,即输入提示,生成答案;而Agent式工作流是这样的:让AI编写文章大纲,看是否需要做一些研究,然后写初稿,阅读初稿并思考哪些部分需要修改,然后修改草稿,如此反复。多Agent协同很有SaaS里协同带来的价值那种感觉,我觉得协同在AI时代或许仍然非常重要,只不过是将人与人之间的协同更多换成了AIAgent而已,而我猜测AI+Human协同可能会是未来长期的一个状态。

封面图片

GPT-4、Llama 2比人类更懂“人类心理”?最新研究登上Nature子刊

GPT-4、Llama2比人类更懂“人类心理”?最新研究登上Nature子刊这些发现不仅表明大型语言模型(LLMs)展示出了与人类心理推理输出一致的行为,而且还突出了系统测试的重要性,从而确保在人类智能和人工智能之间进行非表面的比较。相关研究论文以“Testingtheoryofmindinlargelanguagemodelsandhumans”为题,已发表在Nature子刊NatureHumanBehaviour上。GPT更懂“误导”,Llama2更懂“礼貌”心智理论,是一个心理学术语,是一种能够理解自己以及周围人类的心理状态的能力,这些心理状态包括情绪、信仰、意图、欲望、假装等,自闭症通常被认为是患者缺乏这一能力所导致的。以往,心智理论这一能力被认为是人类特有的。但除了人类之外,包括多种灵长类动物,如黑猩猩,以及大象、海豚、马、猫、狗等,都被认为可能具备简单的心智理论能力,目前仍有争议。最近,诸如ChatGPT这样的大型语言模型(LLMs)的快速发展引发了一场激烈的争论,即这些模型在心智理论任务中表现出的行为是否与人类行为一致。在这项工作中,来自德国汉堡-埃彭多夫大学医学中心的研究团队及其合作者,反复测试了两个系列的LLMs(GPT和Llama2)的不同心智理论能力,并将它们的表现与1907名人类参与者进行比较。他们发现,GPT模型在识别间接要求、错误想法和误导三方面的表现,可以达到甚至超越人类的平均水平,而Llama2的表现还不如人类。图人类(紫色)、GPT-4(深蓝色)、GPT-3.5(浅蓝色)和LLaMA2-70B(绿色)在心智理论测试中的表现。在识别失礼方面,Llama2要强于人类,但GPT表现不佳。研究团队认为,Llama2表现好是因为回答的偏见程度较低,而不是因为真的对失礼敏感,GPT表现较差其实是因为对坚持结论的超保守态度,而不是因为推理错误。AI的心智理论已达人类水平?在论文的讨论部分,研究团队对GPT模型在识别不当言论任务中的表现进行了深入分析,实验结果支持了GPT模型在识别不当言论方面存在过度保守的假设,而不是推理能力差。当问题以可能性的形式提出时,GPT模型能够正确识别并选择最可能的解释。同时,他们也通过后续实验揭示了LLaMA2-70B的优越性可能是由于其对无知的偏见,而不是真正的推理能力。此外,他们还指出了未来研究的方向,包括进一步探索GPT模型在实时人机交互中的表现,以及这些模型的决策行为如何影响人类的社会认知。他们提醒道,尽管LLM在心智理论任务上的表现堪比人类,但并不意味着它们具有人类般的能力,也代表它们能掌握心智理论。尽管如此,他们也表示,这些结果是未来研究的重要基础,并建议进一步研究LLM在心理推断上的表现会如何影响个体在人机交互中的认知。...PC版:https://www.cnbeta.com.tw/articles/soft/1431713.htm手机版:https://m.cnbeta.com.tw/view/1431713.htm

封面图片

AI可能比你更会炒股?最新研究:GPT-4比人类更擅长金融分析和预测

AI可能比你更会炒股?最新研究:GPT-4比人类更擅长金融分析和预测这一发现可能会颠覆金融服务业。与其他商业部门一样,金融服务业正在竞相采用生成式人工智能技术。根据这项最新研究的研究,在分析财务报表以及根据这些报表做出预测等方面,大语言模型比人类做得更好。“即使没有任何叙述或行业特定信息,大语言模型在预测盈利变化方面的能力也优于金融分析师们,”该研究称,“在分析师遇到难题时,大语言模型比人类分析师表现出相对优势。”该研究利用“思维链(chain-of-thought)”提示,指导GPT-4识别财务报表的趋势并计算不同的财务比率。在此基础上,大语言模型可以分析信息并预测未来的收益结果。该研究称:当我们使用思维链提示来模拟人类推理时,我们发现GPT的预测准确率达到了60%,明显高于分析师的准确率。人类分析师在预测准确度方面接近50%的范围。该研究的作者还表示,大语言模型能够在信息不完整的情况下识别财务模式和商业概念,这表明该技术应该在未来的财务决策中发挥关键作用。最后,该研究发现,如果将GPT-4的金融敏锐性应用于交易策略,能够获得更多交易回报,通常能跑赢大盘。研究称:“我们发现,基于GPT预测的多空策略表现优于市场,并产生显著的阿尔法和夏普比率(对资产的风险和收益进行综合考量的指标)。”...PC版:https://www.cnbeta.com.tw/articles/soft/1432740.htm手机版:https://m.cnbeta.com.tw/view/1432740.htm

封面图片

【英伟达开源Nemotron-4340B系列模型,用于训练LLM】近日,英伟达开源Nemotron-4340B(3400亿参数)

【英伟达开源Nemotron-4340B系列模型,用于训练LLM】近日,英伟达开源Nemotron-4340B(3400亿参数)系列模型。开发人员可使用该系列模型生成合成数据,用于训练大型语言模型(LLM),用于医疗保健、金融、制造、零售和其他行业的商业应用。Nemotron-4340B包括基础模型Base、指令模型Instruct和奖励模型Reward。英伟达使用了9万亿个token(文本单位)进行训练。Nemotron-4340B-Base在常识推理任务,如ARC-c、MMLU和BBH基准测试中,可以和Llama-370B、Mixtral8x22B和Qwen-272B模型媲美。

封面图片

OpenAI左脚踩右脚登天 让GPT-4帮人类训练GPT-4

OpenAI左脚踩右脚登天让GPT-4帮人类训练GPT-4OpenAI公布,其研究人员训练了一个基于GPT-4的模型,它被称为CriticGPT,用于捕捉ChatGPT代码输出中的错误。简单来说就是,CriticGPT让人能用GPT-4查找GPT-4的错误OpenAI称,如果通过CriticGPT获得帮助审查ChatGPT编写的代码,人类训练者的审查效果比没有获得这种帮助的人强60%;在CriticGPT帮助下,他们得出的批评结论比自己单独做的更全面。群友:狗溜狗关注频道@ZaiHuaPd频道爆料@ZaiHuabot

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人