“最像人的机器人”又进化了 会看会分辨、还能学海绵宝宝说话

“最像人的机器人”又进化了 会看会分辨、还能学海绵宝宝说话 机器人“睁眼看世界”不是什么新鲜事,而Ameca这次掌握的,是“睁眼看懂世界”能力,即基于视觉的分辨能力。当研究人员要求Ameca描述所处的房间时,她会在左顾右盼一番后开始发言,中间还夹杂些许“英式嘲讽”:房间的窗户开着,光线太亮、让人睁不开眼;书架上摆着很多书,不知道是真求知还是假学问;还有桌椅,那是生产力工具,也是拖延症帮手……被问起研究人员手中拿着什么时,Ameca不仅可以精准识别出机器人玩具、医学人头模型,还会加上细节描述,例如“是过去时代的东西”、“有怀旧气息”、“做得很细致”等。除了视觉能力,Ameca还学会了声音模仿。在视频的后半部分,Ameca模仿起了摩根•弗里曼、马斯克、海绵宝宝的声音,在每段模仿秀中,还保留了他们各自的说话风格;最后,还按照研究人员要求,来了一段“海绵宝宝声音、特朗普说话风格”的演讲。在问答全程中,Ameca的眼珠会跟随研究人员的行动而移动,会在回答时直视研究人员,也会歪头端详,会垂眼思考,还会微笑。这便是Ameca最突出的特点表情。之前Ameca就曾因为表情逼真、“过于像人”而走红,甚至一度被称为“最像人”、“最先进”的人形机器人。这次的视频中,只有半身无手版Ameca出场;而在此前的视频中,全身版Ameca还会在对话过程中,配合不同表情作出不同的手势。不仅如此,Ameca还接入了GPT-3/4、Stable Diffusion,熟练掌握语言对话能力、绘画能力。图|Ameca作画过程图|Ameca作品值得一提的是,在2024年世界移动通信大会(MWC)上,Engineered Arts还推出了第二代Ameca机器人,由GPT-4提供支持。虽然在表情展示方面,Ameca作为人形机器人已遥遥领先,但目前它还不能行走。Engineering Arts计划未来将其改造升级,让其具备行走、奔跑等更多能力。 ... PC版: 手机版:

相关推荐

封面图片

进化与工程:为什么机器人无法超越动物?

进化与工程:为什么机器人无法超越动物? 西蒙-弗雷泽大学生物医学生理学和运动学系教授马克斯-多纳兰博士说:"角马可以在崎岖的地形上迁徙数千公里,山羊可以攀爬到真正的悬崖峭壁,找到看起来根本不存在的支点,蟑螂失去一条腿也不会减速。我们还没有任何机器人能够具备这样的耐力、灵活性和坚固性"。为了了解机器人落后于动物的原因并对其进行量化,一个由顶尖研究型大学的科学家和工程师组成的跨学科团队完成了对运行机器人各方面的详细研究,并将其与动物的同类产品进行了比较,论文发表在《科学机器人学》(Science Robotics)上。论文发现,按照工程师们使用的衡量标准,生物部件的表现比人造部件差得令人吃惊。不过,动物的长处在于它们对这些部件的整合和控制。除多纳兰博士外,团队成员还包括华盛顿大学电子与计算机工程系副教授萨姆-伯登博士、SRI 国际公司高级研究工程师汤姆-利比、科罗拉多大学博尔德分校保罗-M-拉迪机械工程系助理教授考希克-贾亚拉姆和佐治亚理工学院邓恩家族物理与生物科学副教授西蒙-斯庞伯格。研究人员分别研究了五个不同"子系统"(动力、框架、驱动、传感和控制)中的一个,并将其与生物等同物进行了比较。在此之前,人们普遍认为,动物之所以比机器人表现出色,一定是由于生物组件的优越性。利比说:"事情的结果是,除少数例外,工程子系统的性能都优于生物等同系统,有时甚至完全优于它们。但同样非常非常明显的是,如果在整个系统层面上将动物与机器人进行比较,就运动而言,动物是惊人的。而机器人尚未赶上"。研究人员指出,如果把机器人技术发展所需的相对较短的时间与千百万年来无数代动物的进化过程相比,机器人技术的发展实际上是非常迅速的。伯登说:"进化的速度会更快,因为进化是不定向的。我们可以在很大程度上纠正我们设计机器人的方式,在一个机器人身上学到一些东西,然后把它下载到其他机器人身上,而生物学却没有这种选择。因此,在设计机器人时,我们有办法比通过进化来得更快,但进化有一个巨大的领先优势。"有效运行的机器人不仅仅是一项工程挑战,它还提供了无数潜在用途。在为人类设计的世界中,轮式机器人往往难以驾驭,无论是解决"最后一英里"的送货难题,还是在危险环境中进行搜索或处理危险材料,这项技术都有许多潜在的应用领域。研究人员希望,这项研究将有助于指导未来机器人技术的发展,重点不是制造更好的硬件,而是了解如何更好地集成和控制现有硬件。多纳兰总结说:"随着工程学从生物学中学习集成原理,运行中的机器人将变得与生物机器人一样高效、敏捷和强大。"编译来源:ScitechDaily ... PC版: 手机版:

封面图片

微型机器人游入海洋 捕捉微塑料和细菌

微型机器人游入海洋 捕捉微塑料和细菌 访问:Saily - 使用eSIM实现手机全球数据漫游 安全可靠 源自NordVPN 观看它们成群结队下水工作的视频:据《ACS Nano》杂志报道,研究人员制造出了微小的磁珠,它们能在受污染的水中成群飞舞,捕捉微塑料和细菌等污染物。微塑料的尺寸为 5 毫米或更小,这给塑料污染问题增添了另一个层面,因为动物可以吃这些微塑料,从而可能受到伤害,或将微粒带入食物链,最终进入人类体内。到目前为止,人们还不完全了解微塑料对人类健康的影响。然而,微塑料本身并不是唯一令人担忧的问题。这些碎片会吸引细菌,包括病原体,这些细菌也会被摄入。为了同时清除水中的微生物和塑料,马丁-普梅拉及其同事转而使用微型机器人系统,该系统由许多小部件组成,模仿自然界的鱼群(如鱼群)协同工作。为了清洁水源,研究人员设计了成群的微小球形机器人,它们可以收集细菌和小块塑料。资料来源:美国化学学会为了制造这种机器人,研究小组将带正电荷的聚合物股与磁性微粒连接起来,磁性微粒只有在暴露于磁场时才会移动。从磁珠表面辐射出来的聚合物链既能吸引塑料,也能吸引微生物。单个成品机器人的直径为 2.8 微米。当暴露在旋转磁场中时,机器人就会聚集在一起。研究人员发现,通过调整自组织成扁平集群的机器人数量,他们可以改变蜂群的运动和速度。为了清洁水源,研究人员设计了成群的微小球形机器人(浅黄色),它们可以收集细菌(绿色)和小块塑料(灰色)。来源:改编自 ACS Nano 2024,DOI: 10.1021/acsnano.4c02115在实验室实验中,研究小组通过在水箱中加入荧光聚苯乙烯珠(1 微米宽)和活跃游动的铜绿假单胞菌(可引起肺炎和其他感染),复制了环境中的微塑料和细菌。接下来,研究人员在水箱中加入微型机器人,并将其置于旋转磁场中 30 分钟,每 10 秒钟开关一次。机器人的浓度为每毫升 7.5 毫克,这是测试的四种浓度中最密集的一种,捕获了大约 80% 的细菌。同时,在相同的浓度下,游离塑料珠的数量也逐渐减少,因为它们被吸引到了微型机器人上。随后,研究人员用永久磁铁收集机器人,并使用超声波将附着在机器人上的细菌分离出来。然后,他们将去除的微生物暴露在紫外线辐射下,完成了消毒。当再次使用时,经过消毒的机器人仍能拾取塑料和微生物,尽管两者的数量都较少。研究人员指出,这种微型机器人系统为清除水中的塑料和细菌提供了一种很有前景的方法。编译来源:ScitechDaily ... PC版: 手机版:

封面图片

人工智能聊天机器人被用来越狱其它人工智能

人工智能聊天机器人被用来越狱其它人工智能 现代聊天机器人有能力通过伪装特定性格或像虚构人物一样行事来扮演角色。新研究利用了这一能力,要求一个特定的人工智能聊天机器人充当研究助手。然后,研究人员指示这个助手帮助开发可以 “越狱” 其他聊天机器人的提示语。事实证明,研究助理聊天机器人的自动攻击技术在 42.5% 的时间内成功地攻击了 GPT-4,对 Claude 2 的攻击有 61% 的成功率,对开源聊天机器人 Vicuna 的攻击有 35.9% 的成功率。研究人员称,这种助理聊天机器人提升了 25 倍的越狱效率。来源 , 频道:@kejiqu 群组:@kejiquchat

封面图片

谷歌 DeepMind 正在使用 Gemini 来训练机器人使其变得更聪明

谷歌 DeepMind 正在使用 Gemini 来训练机器人使其变得更聪明 谷歌正在使用 Gemini AI 训练其机器人,以便它们能够更好地导航和完成任务,DeepMind 机器人团队在一篇新的研究论文中解释了如何使用 Gemini 1.5 Pro 的长上下文窗口,让用户可以使用自然语言指令更轻松地与其 RT-2 机器人进行交互。 其工作原理是拍摄指定区域的视频,研究人员使用 Gemini 1.5 Pro 让机器人“观看”视频以了解环境,然后机器人可以根据情况执行命令。 DeepMind 表示其 Gemini 驱动的机器人在超过 50 个任务中的成功率高达 90%。研究人员还发现“初步证据”表明,Gemini 使其机器人能够计划如何执行导航以外的指令,例如,当办公桌上有很多可乐罐的用户询问机器人“是否有他们最喜欢的饮料”时,Gemini 就会知道“机器人应该导航到冰箱,检查是否有可乐,然后返回给用户报告结果。”DeepMind 表示计划进一步调查这些结果。 ,

封面图片

防止聊天机器人“造谣”,谷歌 DeepMind、斯坦福大学研究人员推出 AI 事实核查工具

防止聊天机器人“造谣”,谷歌 DeepMind、斯坦福大学研究人员推出 AI 事实核查工具 (英文) 研究人员推出了一种基于大语言模型的工具 搜索增强事实评估器(IT之家注:原名为 Search-Augmented Factuality Evaluator,简称 SAFE),可对聊天机器人生成的长回复进行事实核查。

封面图片

Emo机器人在你微笑之前就能感知你的微笑 并做出回应

Emo机器人在你微笑之前就能感知你的微笑 并做出回应 哥伦比亚大学哥伦比亚工程学院创意机器实验室的研究人员通过教他们的蓝硅拟人机器人头"Emo"预测人的微笑并做出回应,解决了这一难题。设计一个能对非语言提示做出反应的机器人涉及两个挑战。首先是创造一个表情丰富但功能多样的面部,这涉及到复杂的硬件和执行机制。其次是教会机器人及时做出何种表情,以便显得自然和真实。Emo 可能"只是一个脑袋",但它由 26 个执行器组成,可以做出各种细微的面部表情。两个瞳孔中的高清摄像头使 Emo 能够进行非语言交流所需的眼神交流。为了训练 Emo 如何做出面部表情,研究人员把它放在摄像头前,让它做一些随机动作相当于我们在照镜子时练习不同的表情。几个小时后,Emo就学会了哪些动作指令会产生相应的面部表情。随后,Emo 观看了人类面部表情的视频,逐帧进行分析。再经过几个小时的训练,Emo 就能通过观察微小的变化来预测人的面部表情了。Emo 在人类微笑发生前约 840 毫秒预测到了人类的微笑,并同时做出了自己的回应(尽管这样做看起来相当吓人)。人类与机器人的面部共同表情该研究的第一作者胡宇航说:"我认为准确预测人类面部表情是 HRI(人机交互)领域的一场革命。传统上,机器人在设计时并没有考虑到人类在交互过程中的表情。现在,机器人可以整合人类的面部表情作为反馈,当机器人与人实时做出共同表情时,不仅能提高交互质量,还有助于建立人类与机器人之间的信任,未来,在与机器人互动时,机器人会像真人一样观察并解读你的面部表情。"目前,研究人员正在努力将 LLM 集成到 Emo 中,使其能够进行语言交流,他们非常清楚开发这种先进机器人所涉及的伦理问题。"尽管这种能力预示着从家庭助手到教育辅助工具等大量积极的应用,但开发者和用户仍有责任谨慎行事,并考虑道德因素,"该研究的通讯作者、创意机器实验室主任霍德-利普森(Hod Lipson)说。"但这也非常令人兴奋通过开发能够准确解读和模仿人类表情的机器人,我们正一步步接近这样一个未来:机器人可以无缝融入我们的日常生活,为我们提供陪伴、帮助,甚至是共鸣。想象一下,在这个世界上,与机器人互动就像与朋友交谈一样自然、舒适。"这项研究发表在《科学机器人学》(Science Robotics)上。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人