京都大学公开查颜观笑情感机器人 世界首例与人类情感共鸣

京都大学公开查颜观笑情感机器人世界首例与人类情感共鸣随着科技的发展,各种人形机器人越来越聪明,日前据外媒报道,京都大学的研究团队公布了旗下人形机器人ERICA的最新进步,可以对人类查颜观笑,并适当互动还以表情互动,据称是世界首次突破。PC版:https://www.cnbeta.com/articles/soft/1322191.htm手机版:https://m.cnbeta.com/view/1322191.htm

相关推荐

封面图片

与人类产生共鸣:科学家们创造了一种能与你一起笑的机器人

与人类产生共鸣:科学家们创造了一种能与你一起笑的机器人对于"有什么好笑的?"这个问题的答案,似乎没有人能够达成一致。因此,想象一下试图训练一个机器人笑的场景。但通过创建一个从共享笑声系统中获取信号的人工智能,日本京都大学的一个研究小组正试图做到这一点。研究人员在《机器人学和人工智能前沿》杂志上描述了他们为日本机器人"Erica"创造笑这一表情的新技术。这并不是说机器人不能理解,甚至不能对一个糟糕的笑话发出笑声。相反,困难在于为人工智能系统开发人类幽默的微妙之处,以增强机器人和人类之间的普通对话。研究人员与Erica之间的对话实例。资料来源:Inoue等人"我们认为对话式人工智能的重要功能之一是转移情感,"主要作者井上浩二博士解释说,他是京都大学信息学研究生院智能科学和技术系的助理教授。"当然,对话是多模态的,不仅仅是正确的回应。因此,我们决定,机器人能够与用户产生共鸣的一种方式是分享他们的笑声,而这是基于文本的聊天机器人无法做到的。"在分享笑声的模式中,人类最初会笑,而人工智能系统则以笑声作为移情反应。这种方法需要设计三个子系统--一个用于检测笑声,第二个用于决定是否笑,第三个用于选择适当的笑声类型。科学家们通过注释80多段来自速配的对话来收集训练数据,速配是一种社会场景,大群人在短暂的时间内一对一地互动。在这种情况下,涉及京都大学学生的"相亲马拉松"活动让Erica加入其中,由几个业余女演员远程操作。"我们在这项工作中最大的挑战是确定共享笑声的实际案例,这并不容易,因为如你所知,大多数笑声实际上根本没有共享,"Inoue说。"我们必须仔细分类,到底哪些笑声可以用于我们的分析,而不是仅仅假设任何笑声都可以被回应。"笑声的类型也很重要,因为在某些情况下,礼貌的笑声可能比响亮的嗤笑声更合适。实验仅限于社交性的笑声与欢快的笑声。研究小组最终通过在一个人和Erica之间用她的新分享式笑声系统创造四段两到三分钟的简短对话来测试Erica新学会的幽默感。在第一个场景中,她只发出了社交性的笑声,随后在第二和第三个交流中只发出了欢笑声,在最后一个对话中两种笑声结合起来。该小组还创建了另外两组类似的对话作为基线模型。在第一组中,Erica从未笑过。在第二个中,Erica每次检测到人类的笑声时都会发出社交性的笑声,而不使用其他两个子系统来过滤背景和反应。研究人员共召集了130多人听取了三种不同条件下的每个场景--共享笑声系统、无笑声、所有笑声--并根据移情、自然、人类相似性和理解来评估互动。共享笑声系统的表现优于任何一种基线。"这篇论文最重要的结果是,我们已经展示了我们如何将所有这三项任务结合到一个机器人中。我们相信,这种类型的组合系统对于正确的笑的行为是必要的,而不仅仅是检测到笑并对其做出反应,"Inoue说。在Erica准备好参加脱口秀表演之前,还有很多其他的笑声方式需要建模和训练。"还有许多其他的笑的功能和类型需要考虑,这不是一项容易的任务。我们甚至还没有尝试对不共享的笑声进行建模,尽管它们是最常见的,"Inoue指出。当然,笑声只是与机器人进行类似人类自然对话的一个方面。"机器人实际上应该有一个独特的性格,我们认为他们可以通过他们的对话行为来显示这一点,例如笑、眼睛注视、手势和说话风格,"Inoue补充说。"我们认为这根本不是一个简单的问题,很可能需要10到20年以上的时间,我们才能最终与机器人像与朋友一样进行休闲聊天。"...PC版:https://www.cnbeta.com.tw/articles/soft/1331785.htm手机版:https://m.cnbeta.com.tw/view/1331785.htm

封面图片

英伟达进军机器人领域 发布世界首款人形通用基础模型

英伟达进军机器人领域发布世界首款人形机器人通用基础模型英伟达正通过推出名为ProjectGR00T的新型人形机器人基础模型,进一步进军机器人领域。基础模型是一种人工智能系统,它使用海量数据进行训练,能够用于各种各样的任务,从生成句子到视频、图像等等。据Nvidia,ProjectGR00T将帮助人形机器人“理解自然语言并通过观察人类行为来模仿动作-快速学习协调性、灵活性和其他技能,以便导航、适应并与现实世界互动。除了ProjectGR00T,英伟达还发布了其Isaac机器人平台的一部分IsaacManipulator和IsaacPerceptor。IsaacManipulator是一系列专为机械臂设计的基础模型,而IssacPerceptor旨在为设计用于制造和履行任务的机器人提供“多摄像头、3D环绕视觉能力”。此外,这家图形巨头还推出了用于人形机器人的JetsonThor计算平台。该平台由英伟达的Thor系统芯片提供动力,将成为人形机器人的大脑。英伟达在声明中表示:“JetsonThor被打造为一个全新的计算平台,能够执行复杂的任务并安全自然地与人和机器互动。它拥有模块化架构,在性能、功耗和尺寸方面都进行了优化。”GR00T正好和《银河护卫队》电影中的树人格鲁特(Groot)同名该公司表示,他们已经与一些机器人领域的大牌公司合作,包括以Spot机器人闻名的波士顿动力(BostonDynamics)、1XTechnologies、AgilityRobotics、Apptronik和FigureAI。其中,FigureAI近期备受关注,上周发布了一段视频,展示了人形机器人根据提示进行类人对话并完成一系列任务,例如拾取盘子并将其放入沥水架。虽然这看起来似乎没什么特别,但让机器人识别每个物品并精确移动它们的技术非常复杂。今年2月,英伟达与微软、OpenAI、JeffBezos、ParkwayCapital、IntelCapital等公司一起参加了FigureAI的B轮融资,使该公司估值达到26亿美元。人形机器人有望让人们完成危险或重复性的工作,但和其他AI技术一样,它们也让人们担心会取代人类的工作岗位。当然,不要指望人形机器人很快就能在街上闲逛。...PC版:https://www.cnbeta.com.tw/articles/soft/1424190.htm手机版:https://m.cnbeta.com.tw/view/1424190.htm

封面图片

人形机器人进阶到街头耍宝 与人类贴身热舞

人形机器人进阶到街头耍宝与人类贴身热舞这样训练出来的人形机器人,能实现稳健的运动和动态运动跟踪。简而言之,会的活多,表现力还强。比如和人类边贴贴边跳舞,增进增进人形机器人和人类之间的感情:穿着荧光小马甲,就能立刻上岗街头指挥人车交通:研究论文资料显示,这个研究团队共6人,其中过半是UCSD的在读博士生。为什么要对人形机器人做这样的训练呢?论文共同一作XuxinCheng在Twitter上卖力宣传的同时,做出了解释。机器人总是被要求化身各行各业的打工人!我们就想跟它一起探索另一条方向的路~当人形机器人“富有表现力”团队的这项研究名为《ExpressiveWhole-BodyControlforHumanoidRobots》,研究目标是让人形机器人在现实世界中产生丰富、多样和富有表现力的动作。在经过团队的调教后,人形机器人能做出什么样的行为呢?路遇朋友迎面击掌,这是不在话下的。我都能脑补出它大声喊了一句HeyMan……亲切一点,路遇兄弟,来个抱抱:有点搞笑的事,不管是击掌还是拥抱,机器人下半身跺脚的行为并不会停止,只是会稍微放缓。眼尖的朋友们可能已经发现了,上面的击掌实验在不同环境、不同地面进行。团队也明确表示,通过新研究训练出来的人形机器人,可以在各种不同的地形地面上健步如飞。除了上文展示过的草地和石板路,沙滩对它来说同样是小菜一碟:平整的办公室地面也可以轻松应对:团队给出的更多展示中,还表现了更多遇到外界阻力时行动自如的demo。狠狠拽它:拿大球砸它:还知道抬手示意,“喂,你可以帮我背上小书包了”。各种操作,看得大伙儿一愣一愣的。纽约大学计算机科学助理教授发Twitter应援,称这么高水平控制力和表现力的研究成果,居然是一个6人组成的学术团队的产出,“难以置信”!更多的网友则选择用“Cool”来形容这项工作:“无他,照着人类学”所以,究竟怎么才能让机器人像以上般“张牙舞爪”、富有类人表现力?设想的思路无他:照着人类学。学习资料既包括各种人体动捕数据集,也包括生成模型、video2pose模型给出的模拟数据。通过在强化学习框架中进行全身控制的大规模训练,机器人就可以在现实世界中进行动作的泛化了。然而,这样的Sim2Real思想实际还是遇到了问题。作者介绍,典型数据集中的人体模型有69个自由度,但他们所用的机器人只有19个。除此之外,理论和实际的扭矩限制也不相同。这就很尴尬了,等于学会的知识实际根本不能拿来就用。那怎么办?那就做一个小小的改动:只让上半身进行模仿,负责各种表现力,下半身则只负责在任意速度内把两条腿控制稳定就行。作者姑且就管这个方法就叫做“表现型全身控制”(ExpressiveWhole-BodyControl(Exbody))。由此,该机器人的整体框架就长这样:首先,在拿到各种数据集后,系统会有一个运动重定向,用于获取一系列与符合机器人运动学结构的运动片段。然后在从这些片段中提取表达目标和根运动目标,进行“Exbody”策略的强化学习训练,最终将指令部署到真实机器人身上。其中,表达目标就是机器人上半身要完成的,根运动目标则归于下半身(当然,这部分也可以用遥控命令直接给出)。所用数据集最终,和各种基线方法相比,该机器人取得了如下成绩:有几项比较突出的指标,整体表现还不错。(MELV:MeanEpisodeLinearVelocityTrackingReward,线性速度跟踪奖励MEK:Meanepisodekeybodytrackingreward,关键身体追踪奖励)而从下图来看,Exbody的策略也能让机器人在表现时(例如击掌)膝盖弯曲更多,抬脚时脚离地面更高。言外之意,动作更卖力更富有表现力一些~当然,也更稳。全华人团队出品本研究一共6位作者,全部为华人,全部来自加州大学圣地亚哥分校(UCSD)。共同一作有两位:XuxinCheng,UCSD博一在读,硕士毕业于CMU机器人专业,本科则毕业于北理工自动化专业。YandongJi,同UCSD博一在读,硕士毕业于UC伯克利机械工程,本科毕业于南开大学电子计算机工程专业。通讯作者为他们的导师XiaolongWang,UCSD电气工程系助理教授。他博士毕业于CMU,目前的研究方向集中于CV和机器人技术等等,Google学术显示论文引用次数23000+。哦对了最后,团队成员还包括本次研究所用的机器人:来自宇树科技的UnitreeH1。OneMoreThing要说最近的机器人进展,还真不少。先是OpenAI和微软押注的Figure刚刚宣布,新一轮融资筹集了约6.75亿美元,融资前估值约20亿美元。紧接着发布了个视频,介绍了旗下人形机器人Figure01的最新进展,称“一切都是自主的”。再有就是那个面部表情极其丰富,有时惊艳有时又惊悚的Ameca,最新宣布已具有视觉能力。她能观察所处房间的整个情况,然后用各种各样的声音语气(包括但不限于马斯克、海绵宝宝)跟你绘声绘色地描述。就怪有意思的hhhhhh...PC版:https://www.cnbeta.com.tw/articles/soft/1421435.htm手机版:https://m.cnbeta.com.tw/view/1421435.htm

封面图片

人形机器人越来越像人类 | CyberDaily

在AI进入所谓新纪元的同时,人形机器人也同步着出现于人们的眼前。人们看到接入ChatGPT的AmecaAI有了物理身体的“生命力”之后的广阔前景,包括OpenAI投资的1X-Neo的机器人、特斯拉擎天柱等等,这些人形机器人在AI加持下,会陆续让硅基变得“越来越像人类”。先不说恐怖谷,或者科幻电影是否走入现实,但它们已经为人类社会开始贡献,比如Digit人形机器人已经走入仓库搬运。

封面图片

日厂打造世界首例四人四足步行机器人 大象一般惬意乘坐

日厂打造世界首例四人四足步行机器人大象一般惬意乘坐如今随着科技的飞速发展,各种机器人不断问世,日前据外媒报道,日本一家科技公司展示了最新机器人作品,世界首例可搭载4人的4足步行机器人,宛如大象一般惬意乘坐浏览背上风景。PC版:https://www.cnbeta.com/articles/soft/1329081.htm手机版:https://m.cnbeta.com/view/1329081.htm

封面图片

联合国AI造福峰会 | AI机器人亮相峰会接受访问 “会比人类更好管理世界”

联合国AI造福峰会AI机器人亮相峰会接受访问“会比人类更好管理世界”联合国“人工智能(AI)造福人类全球峰会”周五在瑞士日内瓦登场,主办机构召开世界首个人形AI机械人记者会,9个顶级AI机械人亮相,对于人们的担忧,机器人们“表态”信誓旦旦地说不会反抗人类、抢走工作。https://www.sinchew.com.my/?p=4812947

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人