谷歌的Project Gameface 允许你用脸部表情控制游戏“鼠标”,并于周二向安卓开发者开放源代码

开发者现在可以将这一辅助功能集成到他们的应用中,允许用户通过面部手势或移动头部来控制光标。例如,他们可以张开嘴巴移动光标或者抬高眉毛来点击和拖动。在去年的GoogleI/O桌面会议上宣布的ProjectGameface,通过使用设备的摄像头和MediaPipe的面部地标检测API的面部表情数据库来操控光标。谷歌在其公告中解释说:“通过设备的摄像头,它无缝追踪面部表情和头部动作,将它们转换成直观且个性化的控制。开发者现在可以构建应用程序,让用户通过自定义面部表情、手势大小、光标速度等来配置他们的体验。”虽然Gameface最初是为游戏玩家设计的,但谷歌表示,它还与Incluzza合作——这是一家专注于无障碍的印度社会企业,以探索如何将其扩展到工作、学校和社交场合等其他环境。标签:#Google#Gameface频道:@GodlyNews1投稿:@GodlyNewsBot

相关推荐

封面图片

Project Gameface让Android应用很快就能让用户用脸控制光标

ProjectGameface让Android应用很快就能让用户用脸控制光标ProjectGameface在去年的GoogleI/O大会桌面版上发布,它使用设备的摄像头和MediaPipe的FaceLandmarksDetectionAPI提供的面部表情数据库来操纵光标。Google在公告中解释说:"通过设备的摄像头,它可以无缝跟踪面部表情和头部动作,并将其转化为直观的个性化控制。开发人员现在可以创建应用程序,让用户通过自定义面部表情、手势大小、光标速度等来配置自己的体验。"虽然Gameface最初是为游戏玩家设计的,但Google表示,它还与印度一家专注于无障碍环境的社会企业Incluzza合作,研究如何将其推广到工作、学校和社交场合等其他场合。Gameface项目的灵感来自患有肌肉萎缩症的四肢瘫痪的视频游戏流媒体玩家兰斯-卡尔(LanceCarr),卡尔与Google合作开展了这个项目,目的是创造一种更经济实惠、更易于使用的方法来替代昂贵的头部跟踪系统。...PC版:https://www.cnbeta.com.tw/articles/soft/1430941.htm手机版:https://m.cnbeta.com.tw/view/1430941.htm

封面图片

媒体播放器 Winamp 宣布9月24日开放源代码

媒体播放器Winamp宣布9月24日开放源代码媒体播放器Winamp宣布将在2024年9月24日向全球开发者开放其应用程序的源代码。将开放其在Windows上使用的播放器代码,使整个社区能够参与其开发。这是对全球合作的邀请,世界各地的开发人员可以贡献他们的专业知识、想法和热情来帮助这个标志性软件的发展。Winamp已经不仅仅是一个音乐播放器。它体现了独特的数字文化、审美和用户体验。通过这项开放源代码的举措,在其历史上迈出了下一步,允许其用户直接为改进产品做出贡献。——

封面图片

苹果确认 iOS 17.4 允许视频通话应用关闭“表情反应”功能

苹果确认iOS17.4允许视频通话应用关闭“表情反应”功能苹果今天公开确认,iOS17.4和iPadOS17.4允许视频通话应用的开发人员在其应用中默认关闭“表情反应”功能(Reactions)。正如本月早些时候媒体报道的那样,开发者可以通过iOS17.4、iPadOS17.4以及可能发布于三月的macOS14.4的新API来控制“表情反应”功能在他们应用中的默认行为。苹果在iOS17.4和iPadOS17.4RC版的开发者文档中提到:“开发者可以使用键[…]控制‘表情反应’功能的默认行为。这将根据每个应用程序进行控制,用户的选择将优先于应用程序声明的默认设置。”——

封面图片

VOODOO 3D:可以把一个人的表情和动作精准的复制到另一个人的3D模型上。

:可以把一个人的表情和动作精准的复制到另一个人的3D模型上。通过这项技术,你可以让一个虚拟的3D人物模型模仿真实人的表情和头部动作。这个过程是实时的,通过摄像头输入,当真人改变表情或头部姿势时,3D模型也会立即做出相同的反应。主要特点:3D感知一次性头部再现:能够完美复制头部动作和表情,同时保持源图像的身份特征。而且只需要一次性的输入数据。全息显示:设计允许在全息显示设备上实时渲染头部模型。多视角渲染:能够同时渲染多达45个不同的视角,适用于需要从多个角度展示头部模型的应用。高保真度:VOODOO3D在保持源身份的同时,能够准确再现驱动视频中的表情和动作。

封面图片

Emo机器人在你微笑之前就能感知你的微笑 并做出回应

Emo机器人在你微笑之前就能感知你的微笑并做出回应哥伦比亚大学哥伦比亚工程学院创意机器实验室的研究人员通过教他们的蓝硅拟人机器人头"Emo"预测人的微笑并做出回应,解决了这一难题。设计一个能对非语言提示做出反应的机器人涉及两个挑战。首先是创造一个表情丰富但功能多样的面部,这涉及到复杂的硬件和执行机制。其次是教会机器人及时做出何种表情,以便显得自然和真实。Emo可能"只是一个脑袋",但它由26个执行器组成,可以做出各种细微的面部表情。两个瞳孔中的高清摄像头使Emo能够进行非语言交流所需的眼神交流。为了训练Emo如何做出面部表情,研究人员把它放在摄像头前,让它做一些随机动作--相当于我们在照镜子时练习不同的表情。几个小时后,Emo就学会了哪些动作指令会产生相应的面部表情。随后,Emo观看了人类面部表情的视频,逐帧进行分析。再经过几个小时的训练,Emo就能通过观察微小的变化来预测人的面部表情了。Emo在人类微笑发生前约840毫秒预测到了人类的微笑,并同时做出了自己的回应(尽管这样做看起来相当吓人)。人类与机器人的面部共同表情该研究的第一作者胡宇航说:"我认为准确预测人类面部表情是HRI(人机交互)领域的一场革命。传统上,机器人在设计时并没有考虑到人类在交互过程中的表情。现在,机器人可以整合人类的面部表情作为反馈,当机器人与人实时做出共同表情时,不仅能提高交互质量,还有助于建立人类与机器人之间的信任,未来,在与机器人互动时,机器人会像真人一样观察并解读你的面部表情。"目前,研究人员正在努力将LLM集成到Emo中,使其能够进行语言交流,他们非常清楚开发这种先进机器人所涉及的伦理问题。"尽管这种能力预示着从家庭助手到教育辅助工具等大量积极的应用,但开发者和用户仍有责任谨慎行事,并考虑道德因素,"该研究的通讯作者、创意机器实验室主任霍德-利普森(HodLipson)说。"但这也非常令人兴奋--通过开发能够准确解读和模仿人类表情的机器人,我们正一步步接近这样一个未来:机器人可以无缝融入我们的日常生活,为我们提供陪伴、帮助,甚至是共鸣。想象一下,在这个世界上,与机器人互动就像与朋友交谈一样自然、舒适。"这项研究发表在《科学机器人学》(ScienceRobotics)上。...PC版:https://www.cnbeta.com.tw/articles/soft/1425395.htm手机版:https://m.cnbeta.com.tw/view/1425395.htm

封面图片

用脸就能控制鼠标键盘 谷歌ChromeOS做到了

用脸就能控制鼠标键盘谷歌ChromeOS做到了根据网友@cr_C2cv分享的最新内容,谷歌计划在ChromeOS中引入一项名为“面部追踪”(Facetracking)的辅助功能,用面部动作即可控制鼠标和键盘。目前谷歌的ChromeOS中已经有了很多辅助功能,包括实时字幕、高对比度模式、阅读模式、屏幕阅读器等等。而这次即将添加的面部追踪,主要是针对那些没有手臂的人而设计,当然,对于那些暂时不方便用手来操作电脑的人也很有用。目前在ChromeOS120版本(正式版为117)中已经出现了这一设置,只是现在开启也没有任何作用。这也就意味着目前我们还不能确定谷歌是如何实现这一操作的,特别是用面部动作控制键盘,我们只能等待谷歌给出的具体解释。正如ChromeUnboxed所言,在过去的十年中谷歌或许做错了很多事,但有一件事做得非常好,那就是想方设法让更多的人可以上网,并通过技术帮助他们改变生活。...PC版:https://www.cnbeta.com.tw/articles/soft/1391953.htm手机版:https://m.cnbeta.com.tw/view/1391953.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人