Windows Copilot AI 最终将在 GeForce RTX GPU 上运行
WindowsCopilotAI最终将在GeForceRTXGPU上运行开发人员在创建利用生成式人工智能(GenerativeAI)的Windows应用程序时,将很快获得通过WindowsCopilotRuntime运行GPU加速的小语言模型的API。微软与英伟达的合作将允许Copilot和相关的生成式人工智能应用在NPU和RTXGPU上运行,从而有可能为更多PC带来本地处理的人工智能工作负载。人工智能PC可以说是今年Computex的核心,英特尔、AMD和高通公司(Qualcomm)即将推出的处理器的展示更是其中的亮点。英特尔的LunarLake、AMD的StrixPoint和高通的SnapdragonX等新芯片阵容的主要卖点之一,就是它们的NPU如何在不完全依赖云服务器的情况下处理生成式AI应用。NPU是微软和英特尔定义的新AIPC规格的核心。预计苹果也将在下周的WWDC上提出类似的计划。可以预见的是,英伟达更希望其GPU成为客户端人工智能的流行平台。在最近的一次内部演示中,该公司声称入门级和中端RTX4000显卡处理人工智能的速度比CPU设计公司最新推出的NPU快好几倍。NVIDIA的最大优势在于,虽然竞争对手尚未推出新的AIPC或说服客户购买,但RTXGPU已经安装在全球数百万台PC系统中。不过,"RTXAIPC"的应用范围目前仅限于视频游戏中的DLSS、流媒体音频增强和NVIDIA聊天机器人等功能。让Copilot能够利用这种硬件可能会扩大使用案例的范围,并将微软的全套AI助手带到更多的PC上。NVIDIA最近还发布了一款基于AI的游戏助手,与微软之前透露的Copilot助手类似。...PC版:https://www.cnbeta.com.tw/articles/soft/1433617.htm手机版:https://m.cnbeta.com.tw/view/1433617.htm
在Telegram中查看相关推荐
🔍 发送关键词来寻找群组、频道或视频。
启动SOSO机器人