荣耀将这项技术称为”基于眼动的多模交互技术”

荣耀将这项技术称为”基于眼动的多模交互技术” 这是即将推出的Magic 6的一个功能,它还将配备一个利用高通设备上的人工智能的虚拟助手。您可以要求它执行一些任务,比如收集满足特定条件的设备上的所有视频,通过其他特征进行筛选,并生成一个突出您剪辑的新视频。 在不久的将来,我们将看到更多这样的功能,因为今年的骁龙峰会全面关注人工智能。 荣耀尚未明确表示Magic 6何时发货,但高通表示搭载其新旗舰芯片组的手机将在未来几周内开始上市。 标签: #荣耀 频道: @GodlyNews1 投稿: @GodlyNewsBot

相关推荐

封面图片

中国荣耀新机将搭载谷歌人工智能功能

中国荣耀新机将搭载谷歌人工智能功能 中国智能手机制造商荣耀5月22日表示将成为首批把谷歌人工智能功能引入其新机的设备制造商之一。荣耀表示,该公司将把生成式人工智能体验融入其即将推出的硬件中,将由谷歌云提供支持。这家中国公司的发言人称,这将包括谷歌的人工智能助手 Gemini 以及文本到图像生成工具 Imagen 2。

封面图片

荣耀200系列将于6月12日上市 与Google Cloud合作开发4层人工智能技术

荣耀200系列将于6月12日上市 与Google Cloud合作开发4层人工智能技术 新款荣耀 200 和荣耀 200 Pro 智能手机将是首批采用该公司设计的全新人工智能架构的设备。基础层是跨设备和跨操作系统的人工智能,是开放生态系统的基础。然后是基于意图的人机交互的平台级人工智能层。第三层是应用级人工智能,用于提高用户体验的生成式人工智能应用。在最顶层,我们有云端人工智能服务接口,可让用户轻松访问海量云服务,根据官方新闻稿,"打造真正全面、面向未来的人工智能体验"。荣耀 200 将带来的一项特殊人工智能功能是人像摄影,该功能是与以拍摄名人不同时期肖像而闻名的法国摄影工作室 Harcourt Studio 合作开发的。 ... PC版: 手机版:

封面图片

轻薄全能折叠屏旗舰 荣耀Magic V3宣布7月12日发布

轻薄全能折叠屏旗舰 荣耀Magic V3宣布7月12日发布 荣耀CEO赵明表示,新一代折叠旗舰荣耀Magic V3将挑战折叠轻薄新高度。作为参考,2023年发布荣耀Magic V2折叠后仅9.9mm,号称“全球最薄折叠屏手机”,这意味着荣耀Magic V3折叠后的厚度可能会再次创造轻薄纪录。据爆料,荣耀Magic V3将是顶级全能折叠屏旗舰,比如将搭载骁龙8 Gen3、支持5.5G、卫星通信功能。值得一提的是,荣耀Magic V3将是第二款实现卫星通信的折叠屏,此前只有华为折叠屏支持该功能。另外,荣耀Magic V3还将首发支持AI离焦护眼技术,标志着荣耀在智能终端健康使用方面的技术突破。该技术通过人工智能算法对屏幕显示内容实时处理,以模拟离焦镜的光学效果。 ... PC版: 手机版:

封面图片

IDC预测到2027年 AI PC将占个人电脑总出货量的近60%

IDC预测到2027年 AI PC将占个人电脑总出货量的近60% 直到最近,在本地机器上运行人工智能任务还需要使用 CPU、GPU 或两者的组合。这种方式并不理想,原因有以下几点:CPU 和 GPU 并未针对人工智能任务进行优化,因此使用它们会影响系统的整体性能,并加快电池的耗尽。神经处理单元(NPU)目前已开始进入消费类设备,专门用于尽可能高效地处理人工智能工作负载。IDC概述了以下三类支持 NPU 的人工智能个人电脑:支持硬件的人工智能 PC包括一个 NPU,其性能小于每秒 40 太运算(TOPS),通常可使应用程序中的特定人工智能功能在本地运行。目前,高通公司、苹果公司、AMD 公司和英特尔公司都在推出此类芯片。下一代人工智能 PC包括一个具有 40-60 TOPS 性能的 NPU 和一个人工智能优先的操作系统(OS),可在操作系统和应用程序中实现持久和普遍的人工智能功能。高通公司、AMD 公司和英特尔公司预计都将为这一类别推出未来的芯片,交付时间可能从 2024 年开始。微软预计也将推出 Windows 11 的重大更新(和更新的系统规格),以利用这些高 TOPS NPU。高级 AI PC是指 NPU 性能大于 60 TOPS 的 PC。虽然目前还没有芯片供应商发布此类产品,但 IDC 预计它们将在未来几年内出现。IDC 的这一预测不包括高级 AI PC,但它们将被纳入未来的更新中。IDC 预计,在下一代人工智能个人电脑接棒之前,支持硬件的人工智能个人电脑的出货量将在未来两年内大幅增长。该研究公司认为,到2027年,下一代人工智能个人电脑的出货量将是支持硬件的人工智能个人电脑的两倍。这些系统中的许多将出售给商业客户,但消费者也应该有很多期待,包括新的数字内容创建工具和人工智能增强型PC游戏。将人工智能工作负载从云端带到客户端有三个主要的技术原因:消除当前人工智能工作负载必须通过网络往返云端的过程,从而提高性能;将数据保留在设备上而不是移动中,从而提高隐私性和安全性;限制对昂贵的云资源的访问,从而降低成本。 ... PC版: 手机版:

封面图片

三星今年将推出搭载其自有人工智能技术的升级版语音助手Bixby

三星今年将推出搭载其自有人工智能技术的升级版语音助手Bixby 三星移动业务负责人向 CNBC 透露,三星今年将推出基于自有人工智能模型的升级版语音助手 Bixby。由于 ChatGPT 大受欢迎,数字助理再次成为人们关注的焦点。三星移动部门负责人 TM Roh 向 CNBC 表示,该公司今年将推出进一步升级的 Bixby,该版本将使用这家韩国科技巨头自己的大型语言模型。“我们将通过应用生成式人工智能技术来改进 Bixby,”Roh 说。不过,Roh 表示,三星将维持允许在其设备上使用多个语音助手的策略。例如,三星的最新设备上就配备了谷歌的人工智能助手。“我们正在强化我们的产品,并为其注入更多的人工智能功能。”

封面图片

OpenAI的疯狂“星际之门”数据中心将基于什么芯片技术?

OpenAI的疯狂“星际之门”数据中心将基于什么芯片技术? 星际之门系统也从此引起了人们的议论。 Altman 似乎无法决定 OpenAI 是否应该完全依赖微软,但谁能责怪他呢?这就是为什么还有传言称OpenAI 正在设计自己的用于人工智能训练和推理的芯片,以及关于Altman试图带头投资 7 万亿美元芯片制造但随后又放弃的令人愤慨的评论。你不能责怪Altman乱扔了他正在盯着的大数字。训练人工智能模型非常昂贵,并且运行推理主要是生成tokern也不便宜。正如 NVIDIA 联合创始人兼首席执行官黄仁勋最近在 GTC 2024 会议上的主题演讲中指出的那样他们是不可持续的昂贵。这就是 Microsoft、Amazon Web Services、Google 和 Meta Platform 已经创建或正在创建自己的 CPU 和 XPU 的原因。随着参数数量的增加以及数据从文本格式转变为其他格式,如果目前的趋势持续下去并且铁可以扩展,那么LLM只会变得越来越大在未来几年内将增长 100 倍到 1,000 倍。因此,我们听到有关《星际之门》的讨论,这表明人工智能训练的上层毫无疑问是富人的游戏。根据您在最初的《星际之门》传闻后的报告中所读到的内容,《星际之门》是一个项目的第五阶段,该项目将耗资 1000 亿至 1150 亿美元,星际之门将于 2028 年交付,并在 2030 年及以后运营。微软目前显然正处于扩建的第三阶段。据推测,这些资金数字涵盖了机器的所有五个阶段,目前尚不清楚该数字是否涵盖了数据中心、内部机械以及电力成本。微软和 OpenAI 可能不会采取太多行动来解决这个问题。目前还没有讨论 Stargate 系统将基于什么技术,但我们认为它不会基于 NVIDIA GPU 和互连。它将基于未来几代的 Cobalt Arm 服务器处理器和 Maia XPU,以太网可扩展到单台机器中数十万到 100 万个 XPU。我们还认为,微软收购了 DPU 制造商 Fungible 来创建可扩展的以太网网络,并且可能让Juniper Networks 和 Fungible 的创始人Pradeep Sindhu创建匹配的以太网交换机 ASIC,以便微软可以控制其整个硬件堆栈。当然,这只是一个猜想。无论 Microsoft 使用哪种以太网网络,我们都相当确定在某个时候 100 万个端点是目标,而我们也相当确定 InfiniBand 不是答案。我们还认为,假设的这款 XPU 将与未来的 NVIDIA X100/X200 GPU 或其后继产品(我们不知道其名称)一样强大是不太可能的。微软和 OpenAI 更有可能尝试大规模扩展更便宜的设备网络,并从根本上降低人工智能训练和推理的总体成本。他们的商业模式取决于这种情况的发生。而且我们还可以合理地假设,在某个时候 NVIDIA 将不得不创建一个挤满矩阵数学单元的 XPU,并舍弃让该公司在数据中心计算领域起步的矢量和着色器单元。如果微软为 OpenAI 打造了一个更好的mousetrap,那么 NVIDIA 将不得不效仿。Stargate 肯定代表了人工智能支出的阶梯函数,也许还有两个阶梯函数,具体取决于你想要如何解释数据。在数据中心预算方面,微软迄今为止公开表示的全部内容是,它将在 2024 年和 2025 年在数据中心上花费超过 100 亿美元,我们推测其中大部分支出用于支付 AI 服务器的成本。那些 1000 亿美元或 1150 亿美元的数字太模糊,无法代表任何具体内容,因此目前这只是一些大话。我们要提醒您的是,在过去的十年中,微软至少保留了 1000 亿美元的现金和等价物,并在 2023 年 9 月的季度达到了接近 1440 亿美元的峰值。截至 2023 日历年(微软 2024 财年第二季度),该数字下降至 810 亿美元。因此,微软现在没有足够的资金来一次性完成 Stargate 项目,但其软件和云业务在过去 12 个月的销售额总计达到 825 亿美元,而销售额约为 2276 亿美元。未来六年,如果软件和云业务保持原样,微软将带来 1.37 万亿美元的收入,净利润约为 5000 亿美元。它可以承担星际之门的努力。微软也有能力购买 OpenAI,然后就可以结束它了。不管怎样,我们为微软可能已经构建的集群以及未来可能为 OpenAI 构建的集群制定了预算,展示了它们的组成和规模如何随着时间的推移而变化。看一下:我们认为,随着时间的推移,分配给 OpenAI 的 AI 集群数量将会减少,而这些集群的规模将会增加。我们还认为 OpenAI 集群中 GPU 的份额将会下降,而 XPU 的份额(很可能在 Maia 系列中,但也可能使用 OpenAI 设计)将会上升。随着时间的推移,自研XPU 的数量将与 GPU 的数量相匹配,我们进一步估计这些 XPU 的成本将不到数据中心 GPU 成本的一半。此外,我们认为从 InfiniBand 转向以太网也将降低成本,特别是如果微软使用自主研发的以太网 ASIC 和内置人工智能功能和集体操作功能的自主研发的 NIC。 (就像 NVIDIA 的 InfiniBand 的 SHARP 功能一样。)我们还强制采用支出模型,以便在 2028 年有两个拥有 100 万个端点的集群一个由 GPU 组成,一个由自研 XPU 组成,或者两个集群各占一半。我们想要估计未来的集群性能,但这很难做到。每年可能会有更多的 XPU 获得适度的性能提升,但性价比却要高得多。需要记住的是,微软可以保留当前一代的 GPU 或 XPU 供 OpenAI 内部使用(因此也是其自己的),并在未来许多年内向用户出售N-1和N-2代,很可能会获得很多收益其投资诱饵再次回到 OpenAI 上。因此,这些投资本身并不是沉没成本。这更像是一个汽车经销商驾驶着一大堆挂有经销商牌照的不同汽车,但在出售它们之前并没有将里程数提高得太高。问题是:微软会继续在 OpenAI 上投入巨资,以便扭亏为盈并租用这些产能吗,还是会停止在 OpenAI 上花费 1000 亿美元(两个月前该公司的估值为 800 亿美元)?另外还要花费 1100 亿美元左右的基础设施建设,以完全控制其人工智能堆栈。即使对于微软来说,这些数字也是相当大的。但是,正如我们所说,如果你看看 2024 年至 2028 年,微软可能有大约 5000 亿美元的净利润可供使用。很少有其他公司这样做。微软从一个 BASIC 编译器和一个从第三方拼凑出来的垃圾 DOS 操作系统开始,为一个不理解它的绝望的蓝色巨人做装饰,这简直是在放弃糖果店。也许这也是奥特曼的噩梦。但考虑到将人工智能推向新的高度需要巨额资金,现在可能为时已晚。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人