Nvidia 正在为拥有 RTX GPU 的用户更新其实验性的 ChatRTX 聊天机器人,增加更多 AI 模型。这个运行在 W

Nvidia 正在为拥有 RTX GPU 的用户更新其实验性的 ChatRTX 聊天机器人,增加更多 AI 模型。这个运行在 Windows PC 上的聊天机器人已经可以使用 Mistral 或 Llama 2 来查询你输入的个人文件,但现在支持的 AI 模型列表正在扩大,将包括谷歌的 Gemma、ChatGLM3,甚至 OpenAI 的 CLIP 模型,使得搜索你的照片更加容易。 标签: #英伟达 #AI 频道: @GodlyNews1 投稿: @GodlyNewsBot

相关推荐

封面图片

英伟达 ChatRTX 聊天机器人现在支持 Google Gemma 模型、语音查询等功能

英伟达 ChatRTX 聊天机器人现在支持 Google Gemma 模型、语音查询等功能 英伟达公司正在更新其实验性 ChatRTX 聊天机器人,为 RTX GPU 用户提供更多人工智能模型。该聊天机器人在 Windows PC 上本地运行,已经可以使用 Mistral 或 Llama 2 来查询你输入的个人文档,但现在支持的人工智能模型列表正在不断扩大,包括 Google 的 Gemma、ChatGLM3 ,甚至还有 OpenAI 的 CLIP 模型以便更轻松地搜索您的照片。

封面图片

NVIDIA的ChatRTX聊天机器人现在支持Google Gemma 模型、语音查询等功能

NVIDIA的ChatRTX聊天机器人现在支持Google Gemma 模型、语音查询等功能 NVIDIA 在今年 2 月首次推出了 ChatRTX,当时名为"Chat with RTX",它是一款演示应用,需要配备 8GB 或更大 VRAM 的 RTX 30 或 40 系列 GPU 才能运行。该应用本质上是创建一个本地聊天机器人服务器,可以通过浏览器访问该服务器,并输入本地文档甚至 YouTube 视频,从而获得一个强大的搜索工具,其中包含对您自己数据的总结和问题解答。Google的 Gemma 模型专为直接在高配笔记本电脑或台式电脑上运行而设计,因此将其纳入 ChatRTX 非常合适。NVIDIA 的应用消除了在本地运行这些模型的一些复杂性,由此产生的聊天机器人界面可让您在不同模型之间进行选择,以便找到最适合您想要分析或搜索的数据的模型。ChatRTX 可从 NVIDIA 网站下载,容量为 36GB,现在还支持基于通用语言模型框架的开放式双语(英语和中文)大型语言模型 ChatGLM3。此外,还添加了 OpenAI 的对比语言-图像预训练(CLIP),可让您搜索本地照片数据并与之交互,从而对模型进行图像识别训练。最后,NVIDIA 还更新了 ChatRTX,以支持语音查询。NVIDIA 集成了人工智能语音识别系统 Whisper,可让用户使用语音搜索数据。 ... PC版: 手机版:

封面图片

NVIDIA推出由GeForce RTX GPU支持的本地聊天机器人:Chat wth RTX

NVIDIA推出由GeForce RTX GPU支持的本地聊天机器人:Chat wth RTX NVIDIA 称其为本地 LLM Chat with RTX,现在该公司网站上提供了演示版。顾名思义,您的电脑必须配备NVIDIA GeForce RXT GPU 才能运行这个本地聊天机器人。以下是具体的硬件要求:图形处理器 -NVIDIA GeForce RTX 30 或 40 系列图形处理器或NVIDIA RTX Ampere 或 Ada 代图形处理器,至少配备 8GB VRAM内存 - 16GB 或更大操作系统 - Windows 11Geforce 驱动程序 - 535.11 或更高版本下载并安装后,您就可以将"与 RTX 聊天"应用程序与您本地存储的内容(如文档、PDF 文件、视频等)连接起来。然后,您就可以使用本地数据集向聊天机器人提问,这样聊天机器人就能为您提供答案,而无需筛选所有资料。此外,RTX 聊天工具还可以在一些 YouTube 视频中查找信息。您只需将视频 URL 复制到应用程序中,然后就视频内容提问。Chat with RTX 会为您提供答案。当然,像"与 RTX 聊天"这样的本地 LLM 应用程序的最大特点是,您可以拥有一个人工智能聊天机器人,而不会将数据传输到公司的云服务器,以用于培训和其他目的。这样做的代价是,你需要一台相当强大的电脑来运行它。NVIDIA 将"与 RTX 聊天"应用程序标注为免费技术演示。这可能表明,该公司计划在未来某个时候将其转变为具有更多功能的付费或订阅型应用程序。 ... PC版: 手机版:

封面图片

AMD Ryzen AI CPU 和 Radeon RX 7000 GPU 现支持本地运行 LLM 和 AI 聊天机器人

AMD Ryzen AI CPU 和 Radeon RX 7000 GPU 现支持本地运行 LLM 和 AI 聊天机器人 AMD 表示用户可以在包括采用 AMD 新 XDNA NPU 的 Ryzen 7000 和 Ryzen 8000 系列 APU,以及内置 AI 加速核心的 Radeon RX 7000 系列 GPU 设备上,本地运行 LLM 和 AI 聊天机器人

封面图片

:可以同时与多个AI聊天机器人(如ChatGPT、Bing Chat、Bard、Alpaca、Vincuna、Claude、Ch

:可以同时与多个AI聊天机器人(如ChatGPT、Bing Chat、Bard、Alpaca、Vincuna、Claude、ChatGLM、MOSS、iFlytek Spark、ERNIE等)进行对话的工具。它可以并行发送提示给不同的AI机器人,帮助用户找到最好的回答

封面图片

以 BitTorrent 的方式在家用电脑上运行大语言模型

以 BitTorrent 的方式在家用电脑上运行大语言模型 OpenAI 的 AI 聊天机器人 ChatGPT 运行在微软的 Azure 云计算平台,普通用户即使能获得 ChatGPT 使用的大语言模型 GPT-3 或 GPT-4,也不可能在家用电脑上运行它们。如果人人都能运行一个分布式计算系统,联合起来打造一个在算力上能与最强大云计算平台匹敌的平台,那么我们有可能在自己的家用电脑上运行和使用类似 ChatGPT 的 AI 聊天机器人。BigScience 社区正在开发名为的系统,以 BitTorrent 的方式在家用电脑上运行大语言模型。 可以集成最新的大语言模型,当前支持性能与 GPT-3 相近的 BLOOM-176B 大语言模型。来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人