ℹ自主学习人型机器人 Figure-01 与 OpenAI 合作 现在能够描述周围环境并回顾自己的行为#

ℹ自主学习人型机器人 Figure-01 与 OpenAI 合作 现在能够描述周围环境并回顾自己的行为# 对自主学习人型机器人 Figure-01 与 OpenAI 合作的更新有兴趣的朋友可以观看下方影片了解更多:...

相关推荐

封面图片

ℹ第一个能自主学习人型机器人 Figure-01 ,预计可用于体力劳动、居家服务和照顾、外太空探索#

ℹ第一个能自主学习人型机器人 Figure-01 ,预计可用于体力劳动、居家服务和照顾、外太空探索# 对世界上第一个可商用地自主类人型机器人「Figure-01」感兴趣的朋友可以点击 ! 这里 ! 了解更多或者观看下方影片来看 Figure...

封面图片

Figure 01 人形机器人演示,OpenAI 提供支持

Figure 01 人形机器人演示,OpenAI 提供支持 初创公司 Figure AI 今天发布一段,展示了人形机器人 Figure 01 所具备的技能,网友在视频中留言:“未来 5-10 年绝对是一个疯狂的时代”。 Figure 01 身高 167.64 厘米(5 英尺 6 英寸),重 59.8 千克(132 磅),最多可负重 20 千克(44 磅),移动速度为每秒 1.2 米(约每小时 2.7 英里)。 Figure 01 最大的亮点在于利用 OpenAI 的大型语言模型,可以和人类进行正常的完整对话。由于 OpenAI 模型还支持多模态输入,因此可为 Figure 01 提供高级视觉和语言智能。Figure 神经网络可提供快速、低级、灵巧的机器人动作。#视频 频道:@kejiqu 群组:@kejiquchat

封面图片

【Figure首发OpenAI大模型加持的机器人demo】

【Figure首发OpenAI大模型加持的机器人demo】 3月14日,明星机器人创业公司Figure发布了自己第一个OpenAI大模型加持的机器人 demo。虽然只用到了一个神经网络,但却可以为听从人类的命令,递给人类 #苹果 、将黑色塑料袋收拾进框子里、将杯子和盘子归置放在沥水架上。Figure创始人Brett Adcock表示,视频中Figure 01展示了端到端神经网络框架下与人类的对话,没有任何远程操作。并且,机器人的速度有了显著的提升,开始接近人类的速度。

封面图片

OpenAI + Figure 最新成果

OpenAI + Figure 最新成果 机器人在端到端神经网络上与人类对话: → OpenAI 提供视觉推理和语言理解 → Figure 的神经网络提供快速、低等级、灵巧的机器人动作 视频无遥控操作,1 倍速。 Figure 的摄像头被喂入 OpenAI 大型视觉语言模型 (VLM)。 Figure 的神经网络还通过机器人上的摄像头以 10hz 的频率拍摄图像。 然后神经网络以 200hz 输出 24 个自由度的动作。 Domo 中展示的人工智能工作是由 Corey Lynch(刚加入)和 Toki Migimatsu 领导的。

封面图片

Figure与OpenAI合作13天 AI机器人惊艳面世 能对话、能思考、会学习

Figure与OpenAI合作13天 AI机器人惊艳面世 能对话、能思考、会学习 Figure3月初宣布,其已从亚马逊创始人贝索斯、英伟达、OpenAI和微软等巨头那里筹集了约6.75亿美元的资金,使其公司估值达到了26亿美元。首个OpenAI机器人来了!在Figure发布的视频里显示,机器人Figure 01可以听懂人类的命令和提问,动作流畅且有逻辑地递给人类苹果、将垃圾收拾进框子里、将杯子和盘子归置放在沥水架上。而最重点的是,Figure 01的很多举动和回答是根据提问者的一些开放性问题和要求,基于逻辑思考而得出的这意味着它能对话、能思考、能学习,比一般的机器人更“像人”。视频开头强调,这个机器人的行为都是基于语音的逻辑推理,使用端对端神经网络,且视频全程1倍速,没有经过加速。接下来,正片开始,提问者开始在视频中给Figure 01提出多个问题和要求,且难度越来越高。当一开始被问到“Figure 01,你现在能看到什么?”时,Figure 01给出了准确的回答:“我看到一个桌子中间有个红苹果,一个沥水篮和一些杯子和盘子,还有你站在桌子旁,手放在桌子上。”提问者接着问道:“我有什么能吃的吗?”Figure 01动作流畅地把红苹果递给了提问者。接下来,提问者往桌上倒了几个黑色塑料袋团,并给出了更高难度的要求:“你能一边解释你刚刚为什么这么做,一边把垃圾收起来吗?”Figure 01继续做出了完美的反应:他一边动作流畅地将塑料袋团收到篮子里,一边回答道:“我刚刚给了你个苹果,因为这是桌子上唯一能吃的东西。”接着提问者给出了更开放性的问题:“你看看你现在面前的场景,你觉得你面前的盘子该去哪?”Figure 01基于人类常识作出了回答:“盘子和杯子可能该放在沥水篮里。”然后在提问者的下一句要求“那你把它们能放到那边去吗?”后,准确的将杯子和盘子放进了沥水篮。值得注意的是,提问者提出的“那你能把它们放到那边去吗(Can you put them there)?”并没有准确的提出“杯子”“盘子”和“沥水篮”等关键词,而是只用代称,这表明Figure 01有联系上下文思考和记忆的能力。提问者最后让Figure 01对自己的表现给出评价:“你觉得自己做得怎么样?”Figure 01回答:“我觉得我做得很好。苹果找到了新主人,垃圾都被扔掉了,餐具也放到了该放的地方。”OpenAI所提供的超强大脑尽管视频只有短短2分钟,但其包含的信息量却巨大:这个名为Figure 01的机器人已经可以完全与人类流畅对话,理解人类的自然语言指令和意图并进行动作,同时解释原因。它甚至可以对自身行为做出主观的评价。这在这背后提供支持的,就是OpenAI所提供的“大脑”。就在3月1日,,Figure才刚刚宣布将与OpenAI合作,开发下一代人形机器人的人工智能(AI)模型。Figure将基于OpenAI最新的GPT模型开发AI模型,并专门训练Figure收集的机器人动作数据,以便其人形机器人可以与人交谈,看到东西并执行复杂任务。而才刚刚过去13天,这个具备人工智能的人形机器人便火速面世并惊艳科技圈AI模型的成长速度真的令人震撼。在视频发布后,创建Figure 01的高级AI工程师(也是视频中出镜的提问人)科里·林奇(Corey Lynch)对Figure 01的表现作出了更多的解释。“我们的机器人可以描述它的视觉体验,计划未来的行动,反思它的记忆,并口头解释它的推理,”他在X上写道。根据林奇的说法,他们从机器人的摄像头中输入图像,并将车载麦克风捕获的语音文本转录到OpenAI训练的大型多模式模型中。林奇强调,Figure 01的行为都是通过学习而习得的,绝不是远程控制。根据官网介绍,Figure 01机器人身高5英尺6英寸(约1.67米),体重60公斤,可载重20公斤,续航5小时,前进速度1.2米/秒。在OpenAI的技术支持下,Figure 01仅用13天就能完成这样令人惊艳的学习和思考能力。这不禁让人期待,在未来,更加“聪明”的机器人恐怕会比我们想象的更早到来。 ... PC版: 手机版:

封面图片

机器人技术迎来ChatGPT时刻?初创公司Figure发布了一段视频:Figure-01通过观察人类制作咖啡,10小

机器人技术迎来ChatGPT时刻?机器人初创公司Figure发布了一段视频:Figure-01机器人通过观察人类制作咖啡,10小时内学会了制作咖啡的技能。机器人通过神经网络来处理和分析视频数据。通过观看如何制作咖啡的录像。学习人类的动作和手势,然后模仿这些动作来学习制作咖啡的过程,无需通过编程,机器人自主学习技能。 #抽屉IT

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人