英伟达的新工具可让用户在电脑上离线运行生成式人工智能模型

英伟达的新工具可让用户在电脑上离线运行生成式人工智能模型 英伟达发布了一款新工具“Chat with RTX”,要求 8GB 显存的 GeForce™ RTX 30 或 40 系列 GPU,该工具可以让用户在 Windows PC 上离线运行人工智能驱动的聊天机器人。Chat with RTX 默认使用人工智能初创公司 Mistral 的开源模型,但支持其他基于文本的模型,包括 Meta 的 Llama 2。 (<下载)

相关推荐

封面图片

Cloudflare推出新的人工智能工具,帮助客户部署和运行模型

Cloudflare推出新的人工智能工具,帮助客户部署和运行模型 为了从人工智能热潮中获利,云服务提供商 Cloudflare 正在推出一系列新的产品和应用程序,旨在帮助客户在网络边缘构建、部署和运行人工智能模型。 Workers AI 是新产品之一,它允许客户访问由 Cloudflare 合作伙伴托管的 距离用户最近的GPU,以按使用量付费的方式运行 AI 模型。另一个是 Vectorize,它提供了一个矢量数据库来存储由 Workers AI 模型生成的矢量嵌入(数据的数学表示)。第三个是人工智能网关,旨在提供指标,使客户能够更好地管理运行人工智能应用程序的成本。 Cloudflare 首席执行官 Matthew Prince 表示,推出新的以 AI 为中心的产品套件的动机是 Cloudflare 客户对更简单、更易于使用的 AI 管理解决方案的强烈渴望,该解决方案注重节省成本。 Workers AI 试图确保人工智能推理始终发生在靠近用户(从地理角度来看)的 GPU 上,以提供低延迟、人工智能驱动的最终用户体验。利用 ONNX(微软支持的中间机器学习工具包,用于在不同人工智能框架之间进行转换),Workers AI 允许人工智能模型在带宽、延迟、连接、处理和本地化限制方面最有意义的处理过程中运行。

封面图片

古尔曼:苹果致力于开发用于生成式人工智能功能的设备端大型语言模型

古尔曼:苹果致力于开发用于生成式人工智能功能的设备端大型语言模型 据彭博社的马克·古尔曼报道,苹果公司正在开发自己的大型语言模型 (LLM),该模型可在设备上运行,以优先考虑速度和隐私。古尔曼在他的“Power On”时事通讯中写道,苹果公司的大语言模型为即将推出的生成式人工智能功能奠定了基础。“所有迹象”似乎表明,它将完全在设备上运行,而不是像大多数现有人工智能服务那样通过云端运行。由于苹果公司的人工智能工具将在设备上运行,因此在某些情况下,可能不如直接基于云的竞争对手,但古尔曼表示,该公司可以通过从谷歌和其他人工智能服务提供商获得技术许可来“填补空白”。

封面图片

人工智能对人工智能生成的内容进行训练将导致人工智能崩溃

人工智能对人工智能生成的内容进行训练将导致人工智能崩溃 用于训练大型语言模型的数据最初来自人类来源,如书籍、文章、照片等,这些都是在没有人工智能的帮助下创建的。但随着越来越多的人使用人工智能来制作和发布内容,一个明显的问题出现了:当人工智能生成的内容在互联网上扩散时,人工智能模型开始对其进行训练。研究人员发现,“在训练中使用模型生成的内容会导致所产生的模型出现不可逆转的缺陷。”他们研究了文本到文本和图像到图像的人工智能生成模型的概率分布,得出结论:“从其他模型产生的数据中学习会导致模型崩溃 这是一个退化的过程,并且随着时间的推移,模型会忘记真正的基础数据分布。”他们观察到模型崩溃发生得如此之快:模型可以迅速忘记它们最初学习的大部分原始数据。这导致它们随着时间的推移,表现越来越差,错误越来越多。来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

NVIDIA与AMD将为游戏笔记本电脑带来微软Copilot Plus人工智能功能

NVIDIA与AMD将为游戏笔记本电脑带来微软Copilot Plus人工智能功能 "华硕和微星新发布的RTX AI PC笔记本电脑最高配备GeForce RTX 4070 GPU和高能效片上系统,具备Windows 11 AI PC功能,"NVIDIA在一篇博文中表示。NVIDIA 在一份简报中证实,这些笔记本电脑将配备 AMD 最新的 Strix CPU。AMD 还没有正式详细介绍其 AMD Strix 笔记本电脑 CPU,但毫无疑问,它将在今天晚些时候的主题演讲中公布。NVIDIA 还暗示,首批搭载 AMD 处理器的 Copilot Plus PC 可能不会在发布时获得微软的人工智能功能。配备 Copilot Plus 功能的 NVIDIA RTX AI 笔记本电脑即将上市。NVIDIA 在一篇博文中表示:"这些 Windows 11 AI PC 在可用时将获得 Copilot+ PC 体验的免费更新。这表明微软可能还没准备好在 AMD 芯片上推出 Recall 和其他 AI 驱动的 Windows 功能,或者说 6 月 18 日推出的搭载 Arm 高通处理器的 Windows 硬件可能会有一段时间的独占期。"NVIDIA也在为在笔记本电脑上执行人工智能驱动的任务而进行着某种程度的努力,微软正在推动将人工智能模型的计算安排到 NPU 上,而 NVIDIA 则打算在 PC 上的人工智能战场上大显身手。NVIDIA 正在大力宣传其"RTX AI 笔记本电脑"品牌,指出其 GPU 比 NPU 更有能力运行更繁重的 AI 工作负载。RTX 人工智能工具包将于 6 月份推出NVIDIA会在 6 月份推出RTX AI 工具包,其中包括用于模型定制、优化和部署的工具和 SDK。这些工具将采用类似 Meta 的 Llama 2 模型,并对其进行优化,使其运行时对 VRAM 的要求大大降低,性能更高。NVIDIA 还与微软就 Windows 11 中内置的底层人工智能模型展开合作。NVIDIA表示:"此次合作将为应用开发人员提供便捷的应用编程接口(API)访问GPU加速的小语言模型(SLM),从而实现由Windows Copilot Runtime驱动的在设备上运行的检索增强生成(RAG)功能。"微软在上个月的Build大会上发布了Windows Copilot Runtime,而NVIDIA表示,其使用RTX GPU加速AI模型的工作将于今年晚些时候发布开发者预览版。微软的Windows Copilot Runtime旨在让开发者能够轻松地将人工智能功能添加到他们的应用中,同时依靠NPU硬件或NVIDIA的GPU来加速这些功能。由于 NPU 目前的性能约为 40 TOPS,而 NVIDIA 的 PC GPU 可处理超过 1000 TOPS 的 AI 加速,因此开发人员需要考虑的性能差异显然很大。NPU 专为笔记本电脑中运行的较小的模型和针对重要的高能效而设计,但 GPU 可以很好地处理较大的模型,在电池寿命无关紧要的 PC 台式机中具有更高的性能。观察 PC 上的这场人工智能大战将会非常有趣,尤其是微软掌握着在 Windows 中为 NVIDIA、AMD、英特尔、高通及其众多 OEM 合作伙伴原生将带来这些AI体验的钥匙。 ... PC版: 手机版:

封面图片

苹果利用谷歌芯片训练其人工智能模型

苹果利用谷歌芯片训练其人工智能模型 当地时间周一,苹果公司宣布了新的 Apple Intelligence 人工智能服务。但在活动结束后,苹果发布的一份技术文件的细则中明确显示出,谷歌公司已成为在人工智能领域又一个赢家。为了构建苹果的基础人工智能模型,该公司的工程师使用了自主开发的框架和一系列硬件,特别是自己的内部图形处理单元 (GPU) 和只能在谷歌云端使用的张量处理单元 (TPU) 芯片。苹果并未透露其对谷歌芯片和软件的依赖程度,以及对英伟达或其他人工智能供应商硬件的依赖程度。 谷歌已经开发 TPU 大约 10 年了,并公开讨论了可用于人工智能训练的两种第五代芯片;谷歌表示,第五代芯片的性能版本提供的性能可与英伟达 H100 人工智能芯片相媲美。通常谷歌的芯片并不直接出售给客户,只能通过谷歌云进行访问。

封面图片

英伟达最新人工智能芯片H200开始供货

英伟达最新人工智能芯片H200开始供货 3月27日,英伟达宣布,开始供货尖端图像处理半导体 (GPU) “H200”。H200 是面向人工智能的半导体,性能超过现在的主打 GPU “H100”。英伟达相继推出最新的人工智能半导体,目的是保持较高的市场份额。英伟达3月27日公布了 H200 的性能评测结果。用 Meta 的大规模语言模型 (LLM) “Llama 2”进行了比较,结果显示,与 H100 相比,H200 使生成式人工智能导出答案的处理速度最高提高了45%。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人