英伟达 推出本地 AI 工具 Chat with RTX,数据不会上传到云端需要RTX30系以上显卡

None

相关推荐

封面图片

NVIDIA推出由GeForce RTX GPU支持的本地聊天机器人:Chat wth RTX

NVIDIA推出由GeForce RTX GPU支持的本地聊天机器人:Chat wth RTX NVIDIA 称其为本地 LLM Chat with RTX,现在该公司网站上提供了演示版。顾名思义,您的电脑必须配备NVIDIA GeForce RXT GPU 才能运行这个本地聊天机器人。以下是具体的硬件要求:图形处理器 -NVIDIA GeForce RTX 30 或 40 系列图形处理器或NVIDIA RTX Ampere 或 Ada 代图形处理器,至少配备 8GB VRAM内存 - 16GB 或更大操作系统 - Windows 11Geforce 驱动程序 - 535.11 或更高版本下载并安装后,您就可以将"与 RTX 聊天"应用程序与您本地存储的内容(如文档、PDF 文件、视频等)连接起来。然后,您就可以使用本地数据集向聊天机器人提问,这样聊天机器人就能为您提供答案,而无需筛选所有资料。此外,RTX 聊天工具还可以在一些 YouTube 视频中查找信息。您只需将视频 URL 复制到应用程序中,然后就视频内容提问。Chat with RTX 会为您提供答案。当然,像"与 RTX 聊天"这样的本地 LLM 应用程序的最大特点是,您可以拥有一个人工智能聊天机器人,而不会将数据传输到公司的云服务器,以用于培训和其他目的。这样做的代价是,你需要一台相当强大的电脑来运行它。NVIDIA 将"与 RTX 聊天"应用程序标注为免费技术演示。这可能表明,该公司计划在未来某个时候将其转变为具有更多功能的付费或订阅型应用程序。 ... PC版: 手机版:

封面图片

消息称英伟达今年仅推出 RTX 5090,其它 Blackwell 架构显卡延至明年 - IT之家

封面图片

英伟达发布 GeForce RTX 40 系列显卡

英伟达发布 GeForce RTX 40 系列显卡 英伟达在 GTC 2022 开发者大会上宣布了 显卡。英伟达称,新一代显卡基于 Ada Lovelace 架构,新流处理器在性能和能效上提升最高 2 倍,第四代 Tensor Cores 在 AI 性能上提升最高 2 倍,第三代 RT Cores 在光线追踪性能上提升最高 2 倍,新增光流预测的 DLSS 3,等等。 英伟达宣布三款针对中高端市场的显卡: GeForce RTX 4090,16384 个 CUDA Cores,频率 2.52 GHz,GDDR6X 显存 24 GB,售价 1599 美元,10 月 12 日发售;GeForce RTX 4080 (16GB)售价 1199美元,GeForce RTX 4080 (12GB)售价 899 美元。如此高定价让绝大部分玩家望而却步。 solidot

封面图片

英伟达宣布 RTX 4060 显卡 6 月 29 日推出,国行 2399 元起 - IT之家

封面图片

英伟达正式推出RTX 2000 Ada工作站显卡 配16GB大显存

英伟达正式推出RTX 2000 Ada工作站显卡 配16GB大显存 在规格方面,NVIDIA RTX 2000 Ada基于AD107 GPU,具有2816个CUDA核心、88个Tensor核心、22个RT核心,提供12TFLOP的FP32、27.7TFLOP的RTCore和高达191.9TFLOP的张量核心性能。该显卡配备了16GB GDDR6显存,采用128bit位宽和16Gbps规格,TBP为70W。设计上,NVIDIA RTX 2000 Ada GPU采用双插槽和半高设计,从官方图来看将会提供全高挡板和半高挡板双版本。具有四个Mini Display Port 1.4a显示接口,采用了第8代NVIDIA Encoder(又名NVENC),支持AV1编码和解码功能,该显卡也依旧支持DLSS和光线追踪。最新的RTX Enterprise GPU驱动程序已经支持该显卡,这些驱动程序现在为视频超分辨率、TrueHDR等功能提供了新的支持。该驱动程序还支持Tensor RT-LLM,在一系列LLM中提供丰富的AI体验。 ... PC版: 手机版:

封面图片

据爆料消息,英伟达将于明年初推出 RTX 4080 显卡的升级版,可能称为 RTX 4080 Super 或 RTX 4080

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人