4aCCPfreeChina:@Snofy8仇恨是这样训练出来的。-一样的老师-一样的洗脑-一样的摧残https://t.co/

None

相关推荐

封面图片

仇恨是这样训练出来的。-一样的老师-一样的洗脑-一样的摧残

封面图片

据说张继科就是这样训练出来的。

封面图片

4aCCPfreeChina:Thingsgetuglier…https://t.co/LfjMt4qXCr

封面图片

瑜伽球上训练出来的机器狗比大多数健身者更能灵活运用训练资源

瑜伽球上训练出来的机器狗比大多数健身者更能灵活运用训练资源DrEureka是一个任何人都可以获取的开源软件包,用于使用大型语言模型(LLM)(如ChatGPT4)训练机器人执行现实世界中的任务。这是一个"模拟到现实"系统,也就是说,它在虚拟环境中使用模拟物理原理对机器人进行教学,然后再在现实空间中实施。吉姆-范(JimFan)博士是DrEureka的开发者之一,他部署的UnitreeGo1四足机器人一跃成为头条新闻。这是一款"低成本"、支持良好的开源机器人--这很方便,因为即使有了人工智能,机器人宠物仍然很容易摔伤。至于"低成本",它在亚马逊上的售价为5899美元,评分为1星……DrEureka中的"Dr"代表"领域随机化",即在模拟环境中随机化摩擦、质量、阻尼、重心等变量。只需在ChatGPT等LLM中输入一些提示,人工智能就能编写代码,创建一个奖励/惩罚系统,在虚拟空间中训练机器人,其中0=失败,高于0则为胜利。得分越高越好。它可以通过最小化和最大化球的弹跳力、运动强度、肢体自由度和阻尼等方面的失效点/爆发点来创建参数。作为一个LLM,它可以毫不费力地大量创建这些参数,供训练系统同时运行。每次模拟后,GPT还可以反思虚拟机器人的表现,以及如何改进。如果超出或违反参数,例如电机过热或试图以超出其能力的方式衔接肢体,都将导致0分...没有人喜欢得零分,人工智能也不例外。提示LLM编写代码需要安全指令--否则,研究小组发现GPT会努力追求最佳性能,会在没有指导的情况下在模拟中"作弊"。这在模拟中没有问题,但在现实生活中可能会导致电机过热或肢体过度伸展,从而损坏机器人--研究人员称这种现象为"退化行为"。虚拟机器人自学成才的非自然行为的一个例子是,它发现自己可以更快地移动,方法是将臀部插入地面,用三只脚拖着臀部在地板上窜来窜去。虽然这在模拟中是一种优势,但当机器人在现实世界中尝试时就尴尬了。因此,研究人员指示GPT要格外小心,因为机器人将在真实世界中接受测试--为此,GPT创建了安全功能,如平滑动作、躯干方向、躯干高度,并确保机器人的电机不会扭矩过大。如果机器人作弊,违反了这些参数,其奖励函数就会降低得分。安全功能可以减少退化和不自然的行为,比如不必要的骨盆推力。那么它的表现如何呢?比我们强。DrEureka在训练机器人"pooch"的过程中击败了人类,在实际的混合地形中,它的前进速度和行进距离分别提高了34%和20%。DrEureka基于GPT的训练系统在现实世界中轻松击败人类训练的机器人如何做到?研究人员认为,这与教学方式有关。人类倾向于课程式的教学环境--把任务分解成一个个小步骤,并试图孤立地解释它们,而GPT能够有效地一次性传授所有知识。这是我们根本无法做到的。DrEureka是同类产品中的首创。它能够从模拟世界"零距离"进入现实世界。想象一下,在对周围世界几乎一无所知的情况下,你被推出巢穴,只能自己摸索。这就是"零镜头"。DrEureka的创造者认为,如果他们能向GPT提供真实世界的反馈,就能进一步改进模拟到现实的训练。目前,所有的模拟训练都是利用机器人自身本体感觉系统的数据完成的,但如果GPT能够通过真实世界的视频画面看到出错的地方,而不是仅仅从机器人的日志中读取执行失败的信息,那么它就能更有效地完善自己的指令。人类平均需要一年半的时间才能学会走路,而大概只有百分之一的人类能在瑜伽球上学会走路。您可以在这里观看一段未经剪辑的4分33秒视频,视频中机器人狗狗轻松在瑜伽球上散步,且没有停下来在消防栓上撒尿:...PC版:https://www.cnbeta.com.tw/articles/soft/1429963.htm手机版:https://m.cnbeta.com.tw/view/1429963.htm

封面图片

从小训练仇恨,洗脑从娃娃抓起

封面图片

4aCCPfreeChina:@allen27410505如果富士康的工人有权力象英国护士一样上街抗议,你就有吹牛皮的资格了

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人