上海交大团队研制“导盲六足机器人”:1秒之内可响应,已在实测

上海交大团队研制“导盲六足机器人”:1秒之内可响应,已在实测这是一款来自上海交通大学机械与动力工程学院高峰教授团队研发的“六条腿”导盲机器人。在刚刚过去的由中国残联主办的“科技助残共享美好生活”展会上,这款机器人吸引了众多人的目光。5月28日,高峰在上海交大对这款机器人进行了一次集中介绍。据高峰介绍,“导盲六足机器人”具有视觉环境感知功能,可自主导航至目的地、动态躲避障碍、识别红绿灯等。该款机器人如通过批量化生产、人工智能辅助可有效降低成本、提升智能,可解决导盲犬数量短缺的问题。不仅如此,通过后台建立完整的互联网服务体系,导盲机器人还可以实现居家陪护、应急处理,带领盲人抵达更多地方等功能。高峰在上海交大对“导盲六足机器人”进行介绍。本文图片为澎湃新闻记者邹佳雯图突破人机交互技术,让导盲机器人成为视障人士的“第二双眼睛”为什么会研究导盲机器人?高峰谈到,据世界卫生组织统计,我国视障人士已经突破1700万人,这意味着每100人中就有至少一位视障者。但是,和庞大的视障人士数量对比,全国现役导盲犬数量仅几百只。不仅如此,导盲犬的培育还需要极高的培训成本,以及极长的训练周期,并且许多场合能否允许工作中的导盲犬进入尚处于讨论当中,仅仅依靠导盲犬远远不能满足我国千万余名视障人士的需求。基于此,团队开始了导盲六足机器人的研发工作。高峰介绍,和盲人建立有效沟通,让导盲机器人在理解使用者意图的同时维持机器人自身动作协调,是导盲机器人的首要任务。团队在导盲机器人上集成了听觉、触觉和力觉三种交互方式,实现盲人与导盲六足机器人之间的人机智能感知与顺应性行为。机器人可根据盲人的语音指令,基于深度学习端到端语音识别模型理解语义信息,快速响应、准确识别,目前语音识别准确率为90%以上,响应速度在1秒之内。高峰团队研制的“导盲六足机器人”此外,机器人可通过语音下发指令,如启动、停止、设定目的地、加速、减速等,同时实时反馈行走和环境状况等信息,实现双向智能交互。盲杖可以实现盲人与导盲机器人之间的力觉交互,向盲人提供牵引力和转向力矩,引导盲人前进和转向。盲人也可以推拉盲杖来动态调整机器人的行走速度。目前机器人最大速度达3m/s,能够满足盲人慢走、快走、跑步等出行需求,且六足的独特构型优势确保机器人可以低噪声稳定行走。人机交互与机器人自律协同控制是机器人融合感知信息、任务需求、人机交互的指令,利用逻辑推理、自律决策,可实现智能导盲作业行为。基于导盲机器人的动力学模型,高峰团队构建了层级递进式外力估计、触地检测、坡度估计、运动状态估计模型算法,融合机器人关节、惯性导航、行为节律、历史状态等多源信息,进行多目标集成的状态观测和反馈优化的平衡控制,由此,能够实现导盲机器人在各类地形场景中自律协同控制效果。已进入实地测试阶段,将加快落地实用导盲机器人在复杂地形行走需要更高的自主规划能力,这类自主规划功能通常包含地面信息的获取和建模、定位导航、落脚点的选择、身体位姿规划以及连续运动的规划等。定位精准是导盲任务的核心要求之一,团队通过多传感器数据紧耦合方式,建立了雷达-惯性里程计系统,通过滑动窗口法耦合历史帧数据,大幅减少点云运动畸变,并设计了多维度的状态残差,显著提高了系统状态估计的精度和鲁棒性,实现了三维环境地图的精准建立与机器人自身的精准定位。而基于全局环境地图和实时感知的局部动态地图,科研团队采用模型预测和实时滚动优化方法实现机器人的路径规划和自主避障,敏捷自主躲避静态和动态障碍物,保障导盲任务的安全性。根据室内导航任务需求,团队制定了室内场景的多层导航策略,构建了层次拓扑地图实现室内全局路径规划;针对室外场景,基于环境地图结合GPS信息进行多传感器融合,大幅提高定位与导航精度。团队还利用深度相机,通过深度学习和数字图像处理技术实现对交通信号的辨别,保障使用者出行安全。针对台阶、楼梯等典型地形环境,团队采用多约束优化算法规划机器人稳定行走步态;通过采集机器人腿部足端力觉信息,使用机器学习方法来实时辨识足-地接触模型,可实现机器人对不同地形的自适应动态敏捷柔顺行走。高峰介绍,目前,团队研发制成的导盲机器人已进入实地测试阶段。在整个研究推进过程中,由视障人士参与线下展示与功能测试,未来团队也将根据视障人士的实时反馈,对机器人持续研发、调试。此外,导盲机器人的实际应用,不单单是机器人本身的应用,还需要后台大数据的支持,需要强大的运维团队的支持以及一系列推广普及的测试。据了解,高峰团队还与索辰科技密切合作,面向导盲机器人需求,开展了商业化推广。上海交通大学负责基础理论研究和关键技术攻关,索辰科技负责产品工程化以及产业化运维和推广,双方共同努力,并借助社会力量,加快导盲六足机器人的落地使用,为改善我国视障人士生活贡献一份力量。...PC版:https://www.cnbeta.com.tw/articles/soft/1432666.htm手机版:https://m.cnbeta.com.tw/view/1432666.htm

相关推荐

封面图片

上海交大团队研制导盲六足机器人:1 秒之内可响应,已在实测

上海交大团队研制导盲六足机器人:1秒之内可响应,已在实测来自上海交通大学机械与动力工程学院高峰教授团队研发的“六条腿”导盲机器人,在刚刚过去的由中国残联主办的“科技助残共享美好生活”展会上,这款机器人吸引了众多人的目光。5月28日,高峰在上海交大对这款机器人进行了一次集中介绍。据高峰介绍,“导盲六足机器人”具有视觉环境感知功能,可自主导航至目的地、动态躲避障碍、识别红绿灯等。该款机器人如通过批量化生产、人工智能辅助可有效降低成本、提升智能,可解决导盲犬数量短缺的问题。不仅如此,通过后台建立完整的互联网服务体系,导盲机器人还可以实现居家陪护、应急处理,带领盲人抵达更多地方等功能。目前,导盲机器人已进入实地测试阶段。在整个研究推进过程中,由视障人士参与线下展示与功能测试,未来团队也将根据视障人士的实时反馈,对机器人持续研发、调试。

封面图片

上海交大研发“导盲六足机器人”:自主导航至目的地、动态躲避障碍、识别红绿灯

上海交大研发“导盲六足机器人”:自主导航至目的地、动态躲避障碍、识别红绿灯上海交通大学机械与动力工程学院高峰教授团队研发了一款“导盲六足机器人”,这款机器人具有视觉环境感知功能,可自主导航至目的地、动态躲避障碍、识别红绿灯。导盲六足机器人通过批量化生产可有效降低成本,解决导盲犬数量短缺的问题;通过后台建立互联网服务体系,还可以实现居家陪护、应急处理等功能。导盲机器人上集成了听觉、触觉和力觉三种交互方式,实现盲人与导盲六足机器人之间的人机智能感知与顺应性行为。机器人可根据盲人的语音指令,基于深度学习端到端语音识别模型理解语义信息,目前语音识别准确率在90%以上,响应速度在1秒之内。可通过语音对机器人下发指令,如:启动、停止、设定目的地、加速、减速等,机器人实时反馈行走和环境状况等信息,实现双向交互。盲杖可以实现盲人与导盲机器人之间的力觉交互,向盲人提供牵引力和转向力矩,引导盲人前进和转向,同时盲人可以推拉盲杖来动态调整机器人的行走速度。目前机器人最大速度为3m/s,能够满足盲人出行需求,且六足构型确保机器人可以低噪声稳定行走。频道:@kejiqu群组:@kejiquchat

封面图片

日本团队制成由肌肉组织驱动的两足机器人

日本团队制成由肌肉组织驱动的两足机器人日本研究人员从人类步态中获得灵感,将实验室培养的肌肉组织和硅橡胶等人造材料结合在一起,制造了一款可以行走和旋转的两足机器人。该方法近日发表在细胞出版社旗下刊物《材料》杂志上。新华社报道,日本东京大学研究团队开发出的这款机器人是基于此前利用肌肉组织的生物混合机器人开发的,肌肉组织已可驱动机器人向前爬行、直线游泳和缓慢转弯,但不能急转弯,而能够旋转和急转弯是机器人避开障碍物所必需的特性。为了制造一个动作更精细灵活的机器人,研究人员以上述研究为基础,设计了一种模仿人类步态并能在水中操作的生物混合机器人。机器人有一个泡沫浮标顶部和两条加重的腿,能帮助它在水下直立。机器人的骨架主要由硅橡胶制成,可以弯曲和绷紧以适应肌肉运动。然后,研究人员将实验室培养的条状骨骼肌组织连接到硅橡胶和每条腿上。当研究人员用电流刺激肌肉组织时,这些肌肉收缩,从而让机器人抬起腿;当电流消散时,其脚后跟会向前移动并着地。通过每五秒钟在左右腿之间交替用电刺激,生物混合机器人成功地以每分钟5.4毫米的速度向前“行走”。如需要机器人转弯,研究人员每五秒钟反复电击右腿,同时左腿充当锚,最终机器人在62秒钟内完成了90度左转。研究结果表明,这种肌肉驱动的两足机器人可以行走、停止,并做出有规则的转弯动作。研究人员说,使用肌肉驱动可以让机器人结构更紧凑,并通过柔软的触感实现高效、无声的运动。日本东京大学研究团队还计划为两足机器人提供关节和更厚的肌肉组织,以实现更复杂、更有力的运动。2024年2月5日11:29AM

封面图片

上海交大团队首次在天然单晶石墨烯中实现量子反常霍尔效应

上海交大团队首次在天然单晶石墨烯中实现量子反常霍尔效应近日,上海交通大学物理与天文学院陈国瑞课题组在Science上发表题为“ObservationofaCherninsulatorincrystallineABCA-tetralayergraphenewithspin-orbitcoupling”的研究论文。该研究首次在天然单晶石墨烯中实现了量子反常霍尔效应,为实现量子反常霍尔这一重要物理效应提供了新思路和新的技术路线。(澎湃新闻)

封面图片

复旦团队研发大模型“眸思” 助力视障者“看见”世界

复旦团队研发大模型“眸思”助力视障者“看见”世界“听见世界”App街道行走模式图。本文图片均为复旦大学供图2023年上半年,由复旦大学自然语言处理实验室开发的MOSS被称为中国版的GPT,仅用半年时间后,多模态模型“眸思”问世。“眸思”与MOSS同音,但和基于文本的MOSS不同,它能够理解并识别图片内容,致力于成为视障者的一双“眸”。设计使用概念图基于“眸思”的“听见世界”APP,为视障者日常生活需求量身打造设计三种模式。在街道行走模式下,“眸思”如一位忠实的向导,红绿灯、十字路口、障碍物……它将细致扫描道路情况,提示潜在风险,陪伴视障者安全通行“看不见”的漫漫长路。在自由问答模式下,“眸思”则是一位贴心的朋友,让视力障碍者走进博物馆、艺术馆、公园,帮助捕捉四周景象的每个细节,用声音构建丰富的生活场景,传递每一处日常之美。在寻物模式下,“眸思”将成为一名可靠的管家,被移动的手杖、最爱口味的牛奶……日常物件的寻觅过程变得轻松无压力。据研究团队透露,中国盲人数量有1700多万,也就是说,每一百人中就有一位。但为什么在大多数人的认知里极少在街上看到盲人?这是因为,面对大量不安全因素,他们难以独自跨出家门。复旦大学自然语言实验室张奇教授说,人工智能发展日新月异,科技应该要改变更多人的生活,希望“眸思”能够帮助视障人士走出家门,让他们可以尝试更多工作,为人生书写更多可能。”项目落地背后,是一支年轻的团队和开放的氛围,从本科生到博士生共25名复旦学子及桂韬等多位教师、专家的加入,才有了“眸思”接续“MOSS”的成功。张奇介绍,该项目的主导者实际上都是“初出茅庐”的学生们,在组内头脑风暴会上,年轻学子总能提出开创性想法,能够找到另辟蹊径的解决办法。自去年9月以来,为了更好地感受视障者的难处,团队成员同样模拟真实情境,蒙眼探索视障者“黑暗”世界,并邀请视障人士加入,进一步摸清真实而具体的需求。复旦大学研究团队今年上半年,团队将结合AR升级APP内的定位精度细化至亚米级别,下半年团队希望将“眸思”升级到基于视频的判断。更多模式也正在开发中,比如阅读模式服务盲人朋友点菜、读书等场景,解说模式承担无障碍电影解说员的工作等。在政府的支持下,团队计划与NGO组织、智算中心和硬件厂商等开展合作,致力于让视障者免费使用产品和相关服务。预计今年3月,“听见世界”APP将完成第一轮测试,并在中国一、二线城市和地区同步开启试点,根据算力部署情况进行推广。...PC版:https://www.cnbeta.com.tw/articles/soft/1422142.htm手机版:https://m.cnbeta.com.tw/view/1422142.htm

封面图片

马斯克公司盲视技术已在猴子身上见效 有望让盲人重见光明

马斯克公司盲视技术已在猴子身上见效有望让盲人重见光明马斯克对于这项技术的信心十足,他表示尽管一开始的分辨率可能会很低,就像早期的任天堂游戏图形一样,但随着技术的不断进步,最终可能超过正常人的视力。这意味着,不仅后天失明的患者有望重获视力,即便是从未拥有过视力的先天盲人,也有可能通过这项技术重见光明。因为即使他们从未见过东西,视觉皮层仍然存在,这使得他们有可能通过Neuralink的技术获得视觉能力。最近,Neuralink更新了首位脑植入患者的情况,这位四肢瘫痪患者能够通过意念下棋。患者本人介绍,他自己会尝试移动自己右手,向左、向右、向前、向后,然后从那里开始想象光标在移动,之后光标就能跟随自己想法移动了。据悉,Neuralink成立于2016年,Neuralink的脑机接口设备是一种侵入式的大脑植入物,通过神经信号控制外部设备,从而帮助重度瘫痪患者恢复与外界沟通的能力。Neuralink的短期目标是帮助瘫痪者实现意念打字功能,未来还将可以实现让瘫痪者行走、让盲人看见,并最终实现“人机共生体”。...PC版:https://www.cnbeta.com.tw/articles/soft/1424649.htm手机版:https://m.cnbeta.com.tw/view/1424649.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人