开发者现在可以将这一辅助功能集成到他们的应用中,允许用户通过面部手势或移动头部来控制光标。例如,他们可以张开嘴巴移动光标或者抬高

开发者现在可以将这一辅助功能集成到他们的应用中,允许用户通过面部手势或移动头部来控制光标。例如,他们可以张开嘴巴移动光标或者抬高眉毛来点击和拖动。 在去年的 Google I/O 桌面会议上宣布的 Project Gameface,通过使用设备的摄像头和 MediaPipe 的面部地标检测 API 的面部表情数据库来操控光标。 谷歌在其公告中解释说:“通过设备的摄像头,它无缝追踪面部表情和头部动作,将它们转换成直观且个性化的控制。开发者现在可以构建应用程序,让用户通过自定义面部表情、手势大小、光标速度等来配置他们的体验。” 虽然 Gameface 最初是为游戏玩家设计的,但谷歌表示,它还与 Incluzza 合作这是一家专注于无障碍的印度社会企业,以探索如何将其扩展到工作、学校和社交场合等其他环境。 标签: #Google #Gameface 频道: @GodlyNews1 投稿: @GodlyNewsBot

相关推荐

封面图片

Project Gameface让Android应用很快就能让用户用脸控制光标

Project Gameface让Android应用很快就能让用户用脸控制光标 Project Gameface 在去年的Google I/O 大会桌面版上发布,它使用设备的摄像头和MediaPipe 的 Face Landmarks Detection API提供的面部表情数据库来操纵光标。Google在公告中解释说:"通过设备的摄像头,它可以无缝跟踪面部表情和头部动作,并将其转化为直观的个性化控制。开发人员现在可以创建应用程序,让用户通过自定义面部表情、手势大小、光标速度等来配置自己的体验。"虽然 Gameface 最初是为游戏玩家设计的,但Google表示,它还与印度一家专注于无障碍环境的社会企业Incluzza合作,研究如何将其推广到工作、学校和社交场合等其他场合。Gameface 项目的灵感来自患有肌肉萎缩症的四肢瘫痪的视频游戏流媒体玩家兰斯-卡尔(Lance Carr),卡尔与Google合作开展了这个项目,目的是创造一种更经济实惠、更易于使用的方法来替代昂贵的头部跟踪系统。 ... PC版: 手机版:

封面图片

:可以把一个人的表情和动作精准的复制到另一个人的3D模型上。

:可以把一个人的表情和动作精准的复制到另一个人的3D模型上。 通过这项技术,你可以让一个虚拟的3D人物模型模仿真实人的表情和头部动作。这个过程是实时的,通过摄像头输入,当真人改变表情或头部姿势时,3D模型也会立即做出相同的反应。 主要特点: 3D感知一次性头部再现:能够完美复制头部动作和表情,同时保持源图像的身份特征。而且只需要一次性的输入数据。 全息显示:设计允许在全息显示设备上实时渲染头部模型。 多视角渲染:能够同时渲染多达45个不同的视角,适用于需要从多个角度展示头部模型的应用。 高保真度:VOODOO 3D在保持源身份的同时,能够准确再现驱动视频中的表情和动作。

封面图片

Emo机器人在你微笑之前就能感知你的微笑 并做出回应

Emo机器人在你微笑之前就能感知你的微笑 并做出回应 哥伦比亚大学哥伦比亚工程学院创意机器实验室的研究人员通过教他们的蓝硅拟人机器人头"Emo"预测人的微笑并做出回应,解决了这一难题。设计一个能对非语言提示做出反应的机器人涉及两个挑战。首先是创造一个表情丰富但功能多样的面部,这涉及到复杂的硬件和执行机制。其次是教会机器人及时做出何种表情,以便显得自然和真实。Emo 可能"只是一个脑袋",但它由 26 个执行器组成,可以做出各种细微的面部表情。两个瞳孔中的高清摄像头使 Emo 能够进行非语言交流所需的眼神交流。为了训练 Emo 如何做出面部表情,研究人员把它放在摄像头前,让它做一些随机动作相当于我们在照镜子时练习不同的表情。几个小时后,Emo就学会了哪些动作指令会产生相应的面部表情。随后,Emo 观看了人类面部表情的视频,逐帧进行分析。再经过几个小时的训练,Emo 就能通过观察微小的变化来预测人的面部表情了。Emo 在人类微笑发生前约 840 毫秒预测到了人类的微笑,并同时做出了自己的回应(尽管这样做看起来相当吓人)。人类与机器人的面部共同表情该研究的第一作者胡宇航说:"我认为准确预测人类面部表情是 HRI(人机交互)领域的一场革命。传统上,机器人在设计时并没有考虑到人类在交互过程中的表情。现在,机器人可以整合人类的面部表情作为反馈,当机器人与人实时做出共同表情时,不仅能提高交互质量,还有助于建立人类与机器人之间的信任,未来,在与机器人互动时,机器人会像真人一样观察并解读你的面部表情。"目前,研究人员正在努力将 LLM 集成到 Emo 中,使其能够进行语言交流,他们非常清楚开发这种先进机器人所涉及的伦理问题。"尽管这种能力预示着从家庭助手到教育辅助工具等大量积极的应用,但开发者和用户仍有责任谨慎行事,并考虑道德因素,"该研究的通讯作者、创意机器实验室主任霍德-利普森(Hod Lipson)说。"但这也非常令人兴奋通过开发能够准确解读和模仿人类表情的机器人,我们正一步步接近这样一个未来:机器人可以无缝融入我们的日常生活,为我们提供陪伴、帮助,甚至是共鸣。想象一下,在这个世界上,与机器人互动就像与朋友交谈一样自然、舒适。"这项研究发表在《科学机器人学》(Science Robotics)上。 ... PC版: 手机版:

封面图片

Google正在西雅图附近测试用于校园安全的面部识别技术

Google正在西雅图附近测试用于校园安全的面部识别技术 文件称,Google安全与弹性服务(GSRS)团队将利用这些数据帮助识别"可能对Google员工、产品或地点构成安全风险"的人员。"我们制定了识别、报告和可能驱逐已知未经授权人员的协议,以维护我们的人员和空间的安全和安保,"该协议说。在柯克兰的测试地点,进入大楼的人无法选择不接受面部筛查。不过,该文件称,这些数据"严格用于即时使用,不会存储",员工可以通过填写表格,选择不存储身份证图像。Google告诉 CNBC,虽然身份证照片是测试的一部分,但今后不会再使用。Google发言人在一封电子邮件中说:"多年来,我们的安全团队一直在测试和实施新的系统和保护措施,以尽可能确保我们员工和空间的安全。"Google过去至少经历过一次引人注目的暴力事件。2018 年,一名妇女向 YouTube 位于加利福尼亚州圣布鲁诺的办公室开枪,造成三人受伤。据称,枪手之所以瞄准YouTube,是因为她"憎恨"这家公司屏蔽了她的视频。柯克兰测试正值Google的敏感时刻,Google正处于人工智能热潮的中心,并正在其产品和服务组合中迅速增加人工智能。面部识别技术尤其具有争议性,因为它涉及到监控隐私问题。2021 年,Google提出了新的安全变革计划,包括在其位于加利福尼亚州山景城的总部部分区域设置围栏,特别是因为其建设计划包括公共和零售空间。最近,在过去一年中发生了一系列裁员和抗议活动后,公司高管以安全为由切断了员工的出入通道。2023 年初,该公司宣布计划裁员约 12000 人,占员工总数的 6%,以应对网络广告市场的低迷和更广泛的经济放缓。最近,Google又裁掉了更多员工,将一些工程职位转移到了印度和墨西哥。在今年 4 月发生的一起备受瞩目的事件中,Google解雇了50 多名员工,因为他们对公司的劳动条件以及Google与以色列政府和军方签订的云计算和人工智能合同 Project Nimbus 进行了一系列抗议。员工在纽约办公室和桑尼维尔办公室举行了静坐抗议。根据 CNBC 获得的会议音频,Google全球安全副总裁 Chris Rackow 在上个月的一次全员会议上告诉员工,"广泛使用我们所有的视频摄像头录像"有助于识别公司所说的在抗议活动中具有破坏性、让同事感到威胁和不安全的员工。2020 年,在民权倡导者的压力和乔治-弗洛伊德谋杀案引发的全国性抗议活动之后,面部识别技术成为立法者的一个重要议题。亚马逊、微软和IBM对向警方出售其技术施加了限制。次年,亚马逊在送货车上部署了配备人工智能的摄像头后,其使用员工监控的行为受到了美国参议员的质疑。今年 4 月,仓库工人起诉亚马逊,指控该公司非法收集包括人脸扫描在内的生物识别数据。 去年年底,美国联邦贸易委员会提议禁止 Rite Aid 公司在其药店使用人脸识别软件,为期五年,以解决该公司不当使用该技术识别偷窃者的指控。对Google来说,安保工作不仅在校园,而且一直到公司高层,都是一项耗资巨大的工作。根据监管文件显示,2023 年,首席执行官桑达尔-皮查伊的个人安保费用为 680 万美元,高于一年前的 590 万美元。 ... PC版: 手机版:

封面图片

据MacRumors报道,在即将到来的iOS 17.4和iPadOS 17.4更新中,苹果似乎准备让开发者对视频表情符号反应功能

据MacRumors报道,在即将到来的iOS 17.4和iPadOS 17.4更新中,苹果似乎准备让开发者对视频表情符号反应功能有更多的控制权。 这项功能是去年iOS 17和iPadOS 17(以及macOS 14)发布时推出的,当苹果设备的摄像头看到参与者在通话中做出特定手势时,会自动显示烟花和激光等3D动画。据报道,iOS 17.4提供了一个新的API,可以让第三方开发者关闭该功能。 这一更新似乎是为了回应去年的报道,去年有报道称,这种默认开启的3D动画可能会在不合适的情况下触发,比如在线治疗。这是因为除了出现在苹果自己的FaceTime服务中,这些动画也会出现在第三方视频会议应用程序中,比如Google Meet。 标签: #Apple 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

谷歌创造了监测你的 “社交暗示、微妙手势” 等细节的技术 它甚至可以监测到你什么时候睡着了 ……

谷歌创造了监测你的 “社交暗示、微妙手势” 等细节的技术 它甚至可以监测到你什么时候睡着了 …… 谷歌的先进技术和产品(ATAP)部门公布了新的令人毛骨悚然的技术:可以读取你的动作和肢体语言,帮助设备 “理解它们周围的人类环境”,因此设备可以在没有主动的人类指令输入的情况下自主做出决定。 该技术坚持认为它 “具有一定的隐私性,因为它使用的是雷达技术,而不是摄像头”。 该技术已在ATAP的一个新视频中得到展示,该视频概述称,这个想法是为了创造 “社交智能设备”。 “作为人类,我们凭直觉理解对方 不用说一个字”,ATAP的设计主管莱昂纳多·朱斯蒂说。“人类擅长捕捉线索、微妙的手势,人类天生就能理解并做出反应。如果计算机也能这样理解人类呢?” 这项技术被介绍给未来的设备,如“智能电视”,当你从座位上站起来时,电视机自动暂停视频,或者当你打瞌睡时,电视机自动调低音量。 据《连线》,这项技术可以用在其他设备上,比如安装在墙上的恒温器,当你走过时它“主动”告诉你外面的天气状况。 卡内基梅隆大学人机交互研究所的克里斯·哈里森说,“人类天生就能真正理解人类的行为,而当计算机加入干扰时,就会导致意想不到的令人沮丧的情况。” 还有一个更显而易见的隐私问题,许多人怀疑谷歌是否在从Soli芯片收集数据。嗯,您根本就不应该相信监视资本家。 #Surveillance #SurveillanceCapitalism #Google #SmartHome

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人