Nvidia发布可以在PC上本地运行的AI聊天机器人Chat with RTX

Nvidia发布可以在PC上本地运行的AI聊天机器人ChatwithRTX的早期版本,这是一款演示应用程序,可让您在PC上运行个人AI聊天机器人。您可以向其提供YouTube视频和您自己的文档,以创建摘要并根据您自己的数据获得相关答案。一切都在PC上本地运行,您所需要的只是具有至少8GBVRAM的RTX30或40系列GPU。Source:投稿:@TNSubmbot频道:@TestFlightCN

相关推荐

封面图片

NVIDIA 发布免费聊天机器人 Chat with RTX,可于电脑上本地运行

不少公司也对AIChatbot的私隐感到忧虑,不会将一些文件上传到ChatGPT或Poe进行分析。NVIDIA近日宣布推出了一款名为的免费示范版聊天机器人,它能够在用户的个人电脑上本地运行,让聊天机器人可以访问到用户的档案和文件。透过将个人数据输入ChatwithRTX,用户能够让它基于该信息创建摘要。此外,用户还可以像使用其他聊天机器人一样提问,而ChatwithRTX会深入用户的数据库中寻找答案。标签:#NVIDIA#AI#英伟达频道:@GodlyNews1投稿:@GodlyNewsBot

封面图片

NVIDIA推出由GeForce RTX GPU支持的本地聊天机器人:Chat wth RTX

NVIDIA推出由GeForceRTXGPU支持的本地聊天机器人:ChatwthRTXNVIDIA称其为本地LLMChatwithRTX,现在该公司网站上提供了演示版。顾名思义,您的电脑必须配备NVIDIAGeForceRXTGPU才能运行这个本地聊天机器人。以下是具体的硬件要求:图形处理器-NVIDIAGeForceRTX30或40系列图形处理器或NVIDIARTXAmpere或Ada代图形处理器,至少配备8GBVRAM内存-16GB或更大操作系统-Windows11Geforce驱动程序-535.11或更高版本下载并安装后,您就可以将"与RTX聊天"应用程序与您本地存储的内容(如文档、PDF文件、视频等)连接起来。然后,您就可以使用本地数据集向聊天机器人提问,这样聊天机器人就能为您提供答案,而无需筛选所有资料。此外,RTX聊天工具还可以在一些YouTube视频中查找信息。您只需将视频URL复制到应用程序中,然后就视频内容提问。ChatwithRTX会为您提供答案。当然,像"与RTX聊天"这样的本地LLM应用程序的最大特点是,您可以拥有一个人工智能聊天机器人,而不会将数据传输到公司的云服务器,以用于培训和其他目的。这样做的代价是,你需要一台相当强大的电脑来运行它。NVIDIA将"与RTX聊天"应用程序标注为免费技术演示。这可能表明,该公司计划在未来某个时候将其转变为具有更多功能的付费或订阅型应用程序。...PC版:https://www.cnbeta.com.tw/articles/soft/1417919.htm手机版:https://m.cnbeta.com.tw/view/1417919.htm

封面图片

AMD Ryzen AI CPU 和 Radeon RX 7000 GPU 现支持本地运行 LLM 和 AI 聊天机器人

AMDRyzenAICPU和RadeonRX7000GPU现支持本地运行LLM和AI聊天机器人https://www.ithome.com/0/754/260.htmhttps://community.amd.com/t5/ai/how-to-run-a-large-language-model-llm-on-your-amd-ryzen-ai-pc-or/ba-p/670709AMD表示用户可以在包括采用AMD新XDNANPU的Ryzen7000和Ryzen8000系列APU,以及内置AI加速核心的RadeonRX7000系列GPU设备上,本地运行LLM和AI聊天机器人

封面图片

基于WebGPU的免安装本地AI聊天机器人

基于WebGPU的免安装本地AI聊天机器人早前谷歌在GoogleChromeCanary版里发布了WebGPU项目,该项目可以让开发者基于浏览器调用本机显卡算力。所以在GitHub上有开源团队构建了项目,即基于Web的大型语言模型,一切都在浏览器内运行,不需要服务器支持、不需要安装、直接利用WebGPU特性运行。这个项目可以大幅度简化搭建AI聊天机器人的步骤,而且可以保护隐私,因为这个AI模型是“你”控制的,你提交的数据不会被共享给开发者进行模型训练。当然由于是相当于在本地运行的,所以显卡性能至关重要,根据开源团队说明,显存至少需要6.4GB,所以如果你的显卡显存比较小的话可能无法运行。必要条件:GoogleChrome113.0+、显存至少为6.4GB,使用不同的模型显存要求可能还会增加。项目地址:https://github.com/mlc-ai/web-llm演示地址:https://mlc.ai/web-llm/#chat-demo注:演示聊天使用的模型是vicuna-7b-v0。来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

AI 聊天机器人带来的挑战

AI聊天机器人带来的挑战自iPhone以来,还没有一种产品像ChatGPT那样引发如此强烈的反响。所有人都感到焦虑不安。Google也许比其他任何公司都更有理由对AI聊天机器人既爱又恨。它已宣布进入“紧急状态”,因为聊天机器人的能力可能对其1620亿美元的广告业务造成打击。但Google的云计算业务也可能是赢家,因为目前的AI聊天机器人是运行在云端。对网络出版商来说,一个严峻的挑战是当聊天机器人从网站上获取信息,但送到网站的访问者变少时,网站应该怎么办?《华尔街日报》已表示,用该报发表的文章来训练AI系统需要获得其许可。来源,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

NVIDIA的ChatRTX聊天机器人现在支持Google Gemma 模型、语音查询等功能

NVIDIA的ChatRTX聊天机器人现在支持GoogleGemma模型、语音查询等功能NVIDIA在今年2月首次推出了ChatRTX,当时名为"ChatwithRTX",它是一款演示应用,需要配备8GB或更大VRAM的RTX30或40系列GPU才能运行。该应用本质上是创建一个本地聊天机器人服务器,可以通过浏览器访问该服务器,并输入本地文档甚至YouTube视频,从而获得一个强大的搜索工具,其中包含对您自己数据的总结和问题解答。Google的Gemma模型专为直接在高配笔记本电脑或台式电脑上运行而设计,因此将其纳入ChatRTX非常合适。NVIDIA的应用消除了在本地运行这些模型的一些复杂性,由此产生的聊天机器人界面可让您在不同模型之间进行选择,以便找到最适合您想要分析或搜索的数据的模型。ChatRTX可从NVIDIA网站下载,容量为36GB,现在还支持基于通用语言模型框架的开放式双语(英语和中文)大型语言模型ChatGLM3。此外,还添加了OpenAI的对比语言-图像预训练(CLIP),可让您搜索本地照片数据并与之交互,从而对模型进行图像识别训练。最后,NVIDIA还更新了ChatRTX,以支持语音查询。NVIDIA集成了人工智能语音识别系统Whisper,可让用户使用语音搜索数据。...PC版:https://www.cnbeta.com.tw/articles/soft/1429314.htm手机版:https://m.cnbeta.com.tw/view/1429314.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人