能看会说的人形机器人,模仿人类说话,观察描述世界!英国公司EngineeredArts宣布人形「Ameca」拥有了视觉能力

None

相关推荐

封面图片

有时候机器人比人拥有更丰富的“情感”逼真的人形正在试图模仿人类的情绪表情

封面图片

那些入侵人类世界的人形机器人 |人形特辑·CyberDaily

人形机器人“入侵”人类世界,已经是肉眼可见的事实。无论是进入工厂,还是从工厂走出来,走入人类家庭、酒店、娱乐场地、还是街头....人形机器人会在某日与人类肩并肩,走在未来城市,阳光会均匀地落在彼此的肩膀,只是那时我们与他们的身份可能会发生微妙的变化。且不管是否具身智能,还是为了劳动力市场紧缺而准备,硅基智能体在呈现一种繁荣的景象。我们是否准备好迎接他们的到来呢?今天分享CyberDaily在过去一年记录的13个国外人形机器人,他们包括特斯拉擎天柱、Digit、Apollo、Ameca......

封面图片

1.机器人Ameca具备视觉能力。2.能够描述房间的整体情况和具体物体。3.能够模仿说话的风格、音色和语气语调。4.能以特定性格

封面图片

人形机器人越来越像人类 | CyberDaily

在AI进入所谓新纪元的同时,人形机器人也同步着出现于人们的眼前。人们看到接入ChatGPT的AmecaAI有了物理身体的“生命力”之后的广阔前景,包括OpenAI投资的1X-Neo的机器人、特斯拉擎天柱等等,这些人形机器人在AI加持下,会陆续让硅基变得“越来越像人类”。先不说恐怖谷,或者科幻电影是否走入现实,但它们已经为人类社会开始贡献,比如Digit人形机器人已经走入仓库搬运。

封面图片

By:6000#frth#视频论人类幼崽的学习模仿能力#人类幼崽成长记

封面图片

人形机器人进阶到街头耍宝 与人类贴身热舞

人形机器人进阶到街头耍宝与人类贴身热舞这样训练出来的人形机器人,能实现稳健的运动和动态运动跟踪。简而言之,会的活多,表现力还强。比如和人类边贴贴边跳舞,增进增进人形机器人和人类之间的感情:穿着荧光小马甲,就能立刻上岗街头指挥人车交通:研究论文资料显示,这个研究团队共6人,其中过半是UCSD的在读博士生。为什么要对人形机器人做这样的训练呢?论文共同一作XuxinCheng在Twitter上卖力宣传的同时,做出了解释。机器人总是被要求化身各行各业的打工人!我们就想跟它一起探索另一条方向的路~当人形机器人“富有表现力”团队的这项研究名为《ExpressiveWhole-BodyControlforHumanoidRobots》,研究目标是让人形机器人在现实世界中产生丰富、多样和富有表现力的动作。在经过团队的调教后,人形机器人能做出什么样的行为呢?路遇朋友迎面击掌,这是不在话下的。我都能脑补出它大声喊了一句HeyMan……亲切一点,路遇兄弟,来个抱抱:有点搞笑的事,不管是击掌还是拥抱,机器人下半身跺脚的行为并不会停止,只是会稍微放缓。眼尖的朋友们可能已经发现了,上面的击掌实验在不同环境、不同地面进行。团队也明确表示,通过新研究训练出来的人形机器人,可以在各种不同的地形地面上健步如飞。除了上文展示过的草地和石板路,沙滩对它来说同样是小菜一碟:平整的办公室地面也可以轻松应对:团队给出的更多展示中,还表现了更多遇到外界阻力时行动自如的demo。狠狠拽它:拿大球砸它:还知道抬手示意,“喂,你可以帮我背上小书包了”。各种操作,看得大伙儿一愣一愣的。纽约大学计算机科学助理教授发Twitter应援,称这么高水平控制力和表现力的研究成果,居然是一个6人组成的学术团队的产出,“难以置信”!更多的网友则选择用“Cool”来形容这项工作:“无他,照着人类学”所以,究竟怎么才能让机器人像以上般“张牙舞爪”、富有类人表现力?设想的思路无他:照着人类学。学习资料既包括各种人体动捕数据集,也包括生成模型、video2pose模型给出的模拟数据。通过在强化学习框架中进行全身控制的大规模训练,机器人就可以在现实世界中进行动作的泛化了。然而,这样的Sim2Real思想实际还是遇到了问题。作者介绍,典型数据集中的人体模型有69个自由度,但他们所用的机器人只有19个。除此之外,理论和实际的扭矩限制也不相同。这就很尴尬了,等于学会的知识实际根本不能拿来就用。那怎么办?那就做一个小小的改动:只让上半身进行模仿,负责各种表现力,下半身则只负责在任意速度内把两条腿控制稳定就行。作者姑且就管这个方法就叫做“表现型全身控制”(ExpressiveWhole-BodyControl(Exbody))。由此,该机器人的整体框架就长这样:首先,在拿到各种数据集后,系统会有一个运动重定向,用于获取一系列与符合机器人运动学结构的运动片段。然后在从这些片段中提取表达目标和根运动目标,进行“Exbody”策略的强化学习训练,最终将指令部署到真实机器人身上。其中,表达目标就是机器人上半身要完成的,根运动目标则归于下半身(当然,这部分也可以用遥控命令直接给出)。所用数据集最终,和各种基线方法相比,该机器人取得了如下成绩:有几项比较突出的指标,整体表现还不错。(MELV:MeanEpisodeLinearVelocityTrackingReward,线性速度跟踪奖励MEK:Meanepisodekeybodytrackingreward,关键身体追踪奖励)而从下图来看,Exbody的策略也能让机器人在表现时(例如击掌)膝盖弯曲更多,抬脚时脚离地面更高。言外之意,动作更卖力更富有表现力一些~当然,也更稳。全华人团队出品本研究一共6位作者,全部为华人,全部来自加州大学圣地亚哥分校(UCSD)。共同一作有两位:XuxinCheng,UCSD博一在读,硕士毕业于CMU机器人专业,本科则毕业于北理工自动化专业。YandongJi,同UCSD博一在读,硕士毕业于UC伯克利机械工程,本科毕业于南开大学电子计算机工程专业。通讯作者为他们的导师XiaolongWang,UCSD电气工程系助理教授。他博士毕业于CMU,目前的研究方向集中于CV和机器人技术等等,Google学术显示论文引用次数23000+。哦对了最后,团队成员还包括本次研究所用的机器人:来自宇树科技的UnitreeH1。OneMoreThing要说最近的机器人进展,还真不少。先是OpenAI和微软押注的Figure刚刚宣布,新一轮融资筹集了约6.75亿美元,融资前估值约20亿美元。紧接着发布了个视频,介绍了旗下人形机器人Figure01的最新进展,称“一切都是自主的”。再有就是那个面部表情极其丰富,有时惊艳有时又惊悚的Ameca,最新宣布已具有视觉能力。她能观察所处房间的整个情况,然后用各种各样的声音语气(包括但不限于马斯克、海绵宝宝)跟你绘声绘色地描述。就怪有意思的hhhhhh...PC版:https://www.cnbeta.com.tw/articles/soft/1421435.htm手机版:https://m.cnbeta.com.tw/view/1421435.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人