Project Gameface让Android应用很快就能让用户用脸控制光标

ProjectGameface让Android应用很快就能让用户用脸控制光标ProjectGameface在去年的GoogleI/O大会桌面版上发布,它使用设备的摄像头和MediaPipe的FaceLandmarksDetectionAPI提供的面部表情数据库来操纵光标。Google在公告中解释说:"通过设备的摄像头,它可以无缝跟踪面部表情和头部动作,并将其转化为直观的个性化控制。开发人员现在可以创建应用程序,让用户通过自定义面部表情、手势大小、光标速度等来配置自己的体验。"虽然Gameface最初是为游戏玩家设计的,但Google表示,它还与印度一家专注于无障碍环境的社会企业Incluzza合作,研究如何将其推广到工作、学校和社交场合等其他场合。Gameface项目的灵感来自患有肌肉萎缩症的四肢瘫痪的视频游戏流媒体玩家兰斯-卡尔(LanceCarr),卡尔与Google合作开展了这个项目,目的是创造一种更经济实惠、更易于使用的方法来替代昂贵的头部跟踪系统。...PC版:https://www.cnbeta.com.tw/articles/soft/1430941.htm手机版:https://m.cnbeta.com.tw/view/1430941.htm

相关推荐

封面图片

谷歌的Project Gameface 允许你用脸部表情控制游戏“鼠标”,并于周二向安卓开发者开放源代码

开发者现在可以将这一辅助功能集成到他们的应用中,允许用户通过面部手势或移动头部来控制光标。例如,他们可以张开嘴巴移动光标或者抬高眉毛来点击和拖动。在去年的GoogleI/O桌面会议上宣布的ProjectGameface,通过使用设备的摄像头和MediaPipe的面部地标检测API的面部表情数据库来操控光标。谷歌在其公告中解释说:“通过设备的摄像头,它无缝追踪面部表情和头部动作,将它们转换成直观且个性化的控制。开发者现在可以构建应用程序,让用户通过自定义面部表情、手势大小、光标速度等来配置他们的体验。”虽然Gameface最初是为游戏玩家设计的,但谷歌表示,它还与Incluzza合作——这是一家专注于无障碍的印度社会企业,以探索如何将其扩展到工作、学校和社交场合等其他环境。标签:#Google#Gameface频道:@GodlyNews1投稿:@GodlyNewsBot

封面图片

Android 14可让用户把手机当作网络摄像头使用 无需第三方应用

Android14可让用户把手机当作网络摄像头使用无需第三方应用在撰写本文时,如果你想把你的Android或iPhone作为网络摄像头使用,就不得不使用一个名为Camo的应用程序。虽然苹果公司已经使用ContinuityCamera实现了这一功能,但你在Android上仍然没有任何其他方法。但这种情况即将改变。米沙尔·拉赫曼发现了一些代码变化,根据这些变化,Google似乎正在开发一项功能,让你把手机作为网络摄像头使用。有一个名为"DeviceAsWebcam"的项目,这个名字暗示了它可能意味着什么。有了这个功能,用户可以将Android设备插入电脑,将摄像头作为网络摄像头使用。让它比苹果ContinuityCamera表现更好的一点是,Google选择支持USB接口,这意味着这项功能将在没有任何阻碍的情况下工作,不需要拥有特定的设备。相比之下,ContinuityCamera只在iOS和Mac设备上才能工作。这里需要注意的一点是,"DeviceAsWebcam"被列为只是一种服务,将通过USB提供视频数据。这意味着Google和其他OEM厂商将需要添加一个单独的应用程序来实现这一功能,或者在相机应用程序中建立这一功能。尽管我们不知道Google是否会取消这个功能或继续使用它,但它看起来确实是朝着正确方向迈出的一步。当然,你也可以继续使用你的手机进行视频通话。但是,一个随身携带的网络摄像头绝对可以方便生活,特别是当你想在电脑上的Discord上使用它,或用于其他一些任务时。一旦Android14开发者预览版开始推出,我们将了解更多关于该功能的信息。...PC版:https://www.cnbeta.com.tw/articles/soft/1342469.htm手机版:https://m.cnbeta.com.tw/view/1342469.htm

封面图片

Apple Vision Pro将配备“Avatar Webcam”,自动集成流行的视频聊天应用程序

AppleVisionPro将配备“AvatarWebcam”,自动集成流行的视频聊天应用程序除了提供沉浸式体验外,苹果表示VisionPro将能够直接运行大多数iPad和iOS应用程序,无需进行任何更改。对于像Zoom、Messenger、Discord等视频聊天应用程序,该公司表示将向应用程序提供“头像网络摄像头”,使它们自动能够处理头戴式显示器和其他设备之间的视频通话。VisionPro提供的不是实时摄像头视图,而是显示头戴式设备计算机生成的用户虚拟形象(苹果称之为“Persona”)。Persona使用前置摄像头扫描用户的面部以创建模型,然后根据VisionPro跟踪的头部、眼睛和手部输入对模型进行动画处理。投稿:@ZaiHuaBot频道:@TestFlightCN

封面图片

用脸就能控制鼠标键盘 谷歌ChromeOS做到了

用脸就能控制鼠标键盘谷歌ChromeOS做到了根据网友@cr_C2cv分享的最新内容,谷歌计划在ChromeOS中引入一项名为“面部追踪”(Facetracking)的辅助功能,用面部动作即可控制鼠标和键盘。目前谷歌的ChromeOS中已经有了很多辅助功能,包括实时字幕、高对比度模式、阅读模式、屏幕阅读器等等。而这次即将添加的面部追踪,主要是针对那些没有手臂的人而设计,当然,对于那些暂时不方便用手来操作电脑的人也很有用。目前在ChromeOS120版本(正式版为117)中已经出现了这一设置,只是现在开启也没有任何作用。这也就意味着目前我们还不能确定谷歌是如何实现这一操作的,特别是用面部动作控制键盘,我们只能等待谷歌给出的具体解释。正如ChromeUnboxed所言,在过去的十年中谷歌或许做错了很多事,但有一件事做得非常好,那就是想方设法让更多的人可以上网,并通过技术帮助他们改变生活。...PC版:https://www.cnbeta.com.tw/articles/soft/1391953.htm手机版:https://m.cnbeta.com.tw/view/1391953.htm

封面图片

为抑郁症患者量身定制的AI测脸应用程序 帮助控制病情

为抑郁症患者量身定制的AI测脸应用程序帮助控制病情这款应用的设计理念是,每当用户通过面部识别系统解锁手机时,设备的前置摄像头就会捕捉到用户面部和周围环境的多张照片。然后,基于人工智能的算法将对这些图像进行评估,仔细检查用户的面部表情和背景图像。如果应用程序认为用户的抑郁症正在恶化,它就会建议用户采取一些措施,比如进行户外运动或与家人和朋友进行社交。理想情况下,它不会发出严厉的警告,要求用户寻求心理治疗--至少一开始不会--因为这样做可能只会让用户对自己的处境感到更糟糕,从而加剧抑郁。人工智能是在一组177名测试对象身上训练出来的,这些测试对象被分为五个子集,他们之前都被诊断出患有重度抑郁症。在90天的时间里,每个人的手机都会拍摄他们对"我曾感到沮丧、抑郁或绝望"这句话的认同程度。这一提示是广泛用于评估抑郁症的八点病人健康问卷的一部分。虽然参与者同意由手机拍照,但他们在回答提示时并没有意识到是手机在拍照。这是一个重要的考虑因素,因为这意味着他们在拍照时并没有下意识地掩饰自己的情绪。随后对总共125000张照片进行分析时,人工智能识别出(在某些子集中)与最强烈地同意提示相吻合的面部表情。这些表情包括注视方向、眼球运动、头部位置和肌肉僵硬程度的变化。人工智能还能识别出反复出现的环境因素,如明亮或昏暗的灯光,以及是否有其他人在场。利用由此产生的人工智能模型,该应用程序接下来被用来分析其他子集的智能手机图像。事实证明,该应用程序在识别哪些人抑郁症恶化方面的准确率为75%。据信,一旦该技术得到进一步发展--大约在五年之内--准确率至少会攀升到90%。虽然定期的临床精神评估可以提供相同的基本信息,但MoodCapture的最大优势在于它可以让患者更频繁地评估自己的病情,在病情恶化之前迅速做出反应。该研究的共同作者尼古拉斯-雅各布森(NicholasJacobson)教授告诉我们:"这种方法承认了MDD(重度抑郁症)的动态和高度个性化的性质,其症状每天都会发生显著变化。通过密切跟踪一组被诊断为MDD的人的这些变化,我们旨在发现抑郁症随时间变化的特定模式和特征。"左起:Guarini博士生ArvindPillai和博士生SubigyaNepal是该研究的共同第一作者,计算机科学教授AndrewCampbell是通讯作者,Geisel教授NicholasJacobson是共同作者。(照片:KatieLenhart)...PC版:https://www.cnbeta.com.tw/articles/soft/1421983.htm手机版:https://m.cnbeta.com.tw/view/1421983.htm

封面图片

Emo机器人在你微笑之前就能感知你的微笑 并做出回应

Emo机器人在你微笑之前就能感知你的微笑并做出回应哥伦比亚大学哥伦比亚工程学院创意机器实验室的研究人员通过教他们的蓝硅拟人机器人头"Emo"预测人的微笑并做出回应,解决了这一难题。设计一个能对非语言提示做出反应的机器人涉及两个挑战。首先是创造一个表情丰富但功能多样的面部,这涉及到复杂的硬件和执行机制。其次是教会机器人及时做出何种表情,以便显得自然和真实。Emo可能"只是一个脑袋",但它由26个执行器组成,可以做出各种细微的面部表情。两个瞳孔中的高清摄像头使Emo能够进行非语言交流所需的眼神交流。为了训练Emo如何做出面部表情,研究人员把它放在摄像头前,让它做一些随机动作--相当于我们在照镜子时练习不同的表情。几个小时后,Emo就学会了哪些动作指令会产生相应的面部表情。随后,Emo观看了人类面部表情的视频,逐帧进行分析。再经过几个小时的训练,Emo就能通过观察微小的变化来预测人的面部表情了。Emo在人类微笑发生前约840毫秒预测到了人类的微笑,并同时做出了自己的回应(尽管这样做看起来相当吓人)。人类与机器人的面部共同表情该研究的第一作者胡宇航说:"我认为准确预测人类面部表情是HRI(人机交互)领域的一场革命。传统上,机器人在设计时并没有考虑到人类在交互过程中的表情。现在,机器人可以整合人类的面部表情作为反馈,当机器人与人实时做出共同表情时,不仅能提高交互质量,还有助于建立人类与机器人之间的信任,未来,在与机器人互动时,机器人会像真人一样观察并解读你的面部表情。"目前,研究人员正在努力将LLM集成到Emo中,使其能够进行语言交流,他们非常清楚开发这种先进机器人所涉及的伦理问题。"尽管这种能力预示着从家庭助手到教育辅助工具等大量积极的应用,但开发者和用户仍有责任谨慎行事,并考虑道德因素,"该研究的通讯作者、创意机器实验室主任霍德-利普森(HodLipson)说。"但这也非常令人兴奋--通过开发能够准确解读和模仿人类表情的机器人,我们正一步步接近这样一个未来:机器人可以无缝融入我们的日常生活,为我们提供陪伴、帮助,甚至是共鸣。想象一下,在这个世界上,与机器人互动就像与朋友交谈一样自然、舒适。"这项研究发表在《科学机器人学》(ScienceRobotics)上。...PC版:https://www.cnbeta.com.tw/articles/soft/1425395.htm手机版:https://m.cnbeta.com.tw/view/1425395.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人