ℹGPT4All在电脑本地安装类似ChatGPT的聊天机器人,提供超多LLM,无需连网和GPU就能用#对于有在使用AI

None

相关推荐

封面图片

GPT4All-免费开源LLM聊天机器人无需GPU或互联网#Mac#Windows#软件#AIhttps://www.ahhhh

封面图片

GPT4All免费开源LLM聊天机器人点击获取项目地址

封面图片

AMD Ryzen AI CPU 和 Radeon RX 7000 GPU 现支持本地运行 LLM 和 AI 聊天机器人

AMDRyzenAICPU和RadeonRX7000GPU现支持本地运行LLM和AI聊天机器人https://www.ithome.com/0/754/260.htmhttps://community.amd.com/t5/ai/how-to-run-a-large-language-model-llm-on-your-amd-ryzen-ai-pc-or/ba-p/670709AMD表示用户可以在包括采用AMD新XDNANPU的Ryzen7000和Ryzen8000系列APU,以及内置AI加速核心的RadeonRX7000系列GPU设备上,本地运行LLM和AI聊天机器人

封面图片

LeftoverLocals:通过GPU本地内存泄漏监听LLM响应

:通过GPU本地内存泄漏监听LLM响应研究人员发现了一种新的GPU漏洞LeftoverLocals,通过该漏洞攻击者可以读取其他进程中的GPU本地内存数据。这会影响LLM等GPU应用的安全性,文章以llama.cpp为例,演示了如何通过读取本地内存来恢复LLM的响应。测试了多种平台,发现AMD、Apple和高通的GPU存在该漏洞。Nvidia和Intel等则不存在。攻击者可以通过并行程序来实现该攻击,不需要特殊权限。文章详细解释了技术原理和攻击步骤。由于该漏洞的影响范围很广,作者通过CERT/CC组织进行了协调披露,以便GPU厂商修复。

封面图片

今天起,ChatGPT无需注册就能用了

今天起,ChatGPT无需注册就能用了像这样,直接登录网站,然后就可以开启对话:不过面对OpenAI突如其来的open,很多网友还是觉得难以置信:人们嘴上说着“今儿是愚人节”(美国时间),然后就去网站看看到底怎么事儿了。但OpenAI这一次,是真没开玩笑。超自由版ChatGPT对于这个“超自由版ChatGPT”,需要强调是开放的只有3.5版本,GPT-4的使用还是老方法。问题是这么直接用,效果有保障吗?我们这就来实测一番,上题目——ln(1+x)和x的大小关系。首先来看下“超自由版ChatGPT”给出的答案:其次是登录账号之后,ChatGPT所给出的答案:暂不论结果的对错,从回答的形式上来看,“超自由版ChatGPT”会给出结论并对原因做简单的解释。而登录账号版本则是会对问题的理解过程做出更详细的说明。对于二者更多的区别,OpenAI官方也做出了进一步的阐述。例如“超自由版ChatGPT”会引入额外的内容保护措施,包括在更广泛的类别中阻止提示和生成。不过无论登录与否,OpenAI坦然承认,ChatGPT仍然会使用对话的内容来训练自家模型。但用户如果不喜欢,可以在设置中取消这个功能。具体的操作就是点击页面右下角的“ ?”,然后把开关关掉即可。当然,OpenAI官方还是鼓励用户们登录账户去体验ChatGPT,因为很多功能在“超自由版ChatGPT”中是没有的,例如保存或分享聊天记录、使用自定义指令等等。甚至是一些非常基础的功能,像还在alpha阶段的多语言界面、深/浅色模式切换等功能(虽然不排除是OpenAI忘了加),从目前来看,也只有在登录之后才能设置。虽然OpenAI这次大方的把羊毛主动献上让用户薅,不过网友们似乎并不满足于此:GPT-4啥时候也这样啊(手动狗头)?OpenAI为什么突然open了?按照官方的说法,是为了“让更多人触及AIGC”。我们正在逐步铺开这一功能,目的是让所有对AI有兴趣的人都能接触到它。说些漂亮话倒也没什么毛病,不过,也不排除是OpenAI发现ChatGPT流量出现下降,想借此挽回一波用户,以及用户互动背后的反馈机制带来的模型迭代。Similarweb最新统计数据显示,去年12月到今年2月,ChatGPT的月访问量大约在16亿上下。虽然这三个月有1%左右的增长,但增长率比5月之前已经明显放缓,而且绝对数量与4-5月的巅峰时期相比依旧是差了将近两个亿。而在ChatGPT流量增速疲软的同时,整个AIGC行业卷到了飞起。国外有GoogleGemini的问世、Claude3的重磅升级,国内模型也在月之暗面旗下Kimi的带动下打起了一场“长文本之战”,最多可阅读的文本量直接达到了一千万字。与此同时,昆仑万维(44.700,0.00,0.00%)的天工、MiniMax的海螺等以大模型为基础的各种AI搜索助手也如雨后春笋般涌现。形式上,大模型的应用方式也变得更加多元,比如Kimi就已经拥有了Chrome插件(虽然非官方)。贾扬清团队也推出了一款名为Elmo的Chrmoe浏览器AI插件,支持网页/PDF总结,可以分析YouTube视频,而且免费免登录即可使用。所以,即便ChatGPT依然是AIGC的流量之王,但是在竞争愈加白热化的趋势之下,OpenAI也需要始终保持竞争力,没有用户,没有反馈数据,再优秀的AI模型也会逐渐失去竞争力。OpenAI,不得不走上这样的Open之路。而且随着OpenAI这样出招,对于其他大模型玩家,估计又是一波腥风血雨,ChatGPT都联网即用,别的AI大模型,也得拿出更多诚意来吧?OneMoreThing除了ChatGPT,OpenAICEO奥特曼这边也出现了新的动向。根据美国有关部门最新披露的信息,奥特曼不再拥有或控制OpenAI创业基金(StartupFund)。该基金的控制权已移交给了伊恩·海瑟薇(IanHathaway),自2021年该基金成立以来,他一直在帮助管理该基金。现在,该基金的总资产价值已经超过了3.25亿美元,不过OpenAI表示,该基金并不涉及奥特曼个人投资或经济利益。这种变动,估计也跟OpenAI备受争议的“营利”倾向指责有关,特别是对奥特曼的指责。虽然OpenAI内讧事件已经结束,但OpenAI内外的理想主义一派和加速主义一派之间,没有得到根本和解。奥特曼交出基金控制权,可能就是加速主义的妥协,毕竟内讧事件中,加速主义一派可算大获全胜了。...PC版:https://www.cnbeta.com.tw/articles/soft/1425847.htm手机版:https://m.cnbeta.com.tw/view/1425847.htm

封面图片

Poly:用Rust编写的GPU加速语言模型(LLM)服务器,可高效提供多个本地LLM模型的服务。

:用Rust编写的GPU加速语言模型(LLM)服务器,可高效提供多个本地LLM模型的服务。主要提供:为多个本地LLM模型提供高性能、高效和可靠的服务可选择通过CUDA或Metal进行GPU加速可配置的LLM完成任务(提示、召回、停止令牌等)通过HTTPSSE流式传输完成响应,使用WebSockets聊天使用JSON模式对完成输出进行有偏差的采样使用向量数据库(内置文件或Qdrant等外部数据库)进行记忆检索接受PDF和DOCX文件并自动将其分块存储到内存中使用静态API密钥或JWT标记确保API安全简单、单一的二进制+配置文件服务器部署,可水平扩展附加功能:用于轻松测试和微调配置的Web客户端用于本地运行模型的单二进制跨平台桌面客户端

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人