RT 归藏试了一下这个国粹版本的机器人,骂的相当纯正。调教的真不错,能把 GPT-3.5 成这样,作者的提示词写的非常好。作者是

RT 归藏 试了一下这个国粹版本的机器人,骂的相当纯正。调教的真不错,能把 GPT-3.5 调教成这样,作者的提示词写的非常好。作者是@iamairyland 。 之前另一个令我很震撼的是@oran_ge推荐的那个全是 AI 色色机器人的平台。 链接:

相关推荐

封面图片

OpenAI宣布GPT-3.5 Turbo降价 还治好了GPT-4 Turbo的"懒病"

OpenAI宣布GPT-3.5 Turbo降价 还治好了GPT-4 Turbo的"懒病" OpenAI这次更新中,特别提到了它们的GPT-4Turbo和GPT-3.5 Turbo两大模型。它们都是大型多模式模型,可以理解和生成自然语言或代码。在新版本中,它们迎来了诸多增强功能,包括更精准的指令跟随、支持JSON模式、更多可复现的输出,以及并行函数调用的优化。此外,该公司还推出了全新的16k版本GPT-3.5 Turbo,这一版本在处理超长输入和输出时,相比标准的4k版本展现出了更为出色的性能。对于众多用户而言,GPT-3.5 Turbo并不陌生。作为大多数人通过ChatGPT进行互动的背后支持模型,它几乎已经成为了行业内的金标准。面对其他聊天机器人,如果用户发现其回答质量不及ChatGPT,那么继续使用后者无疑成为了最佳选择。在API领域,GPT-3.5 Turbo同样表现不俗。在执行各类任务时,它不仅能够提供比GPT-4更低的成本,还能保证更快的执行速度。因此,对于那些付费用户来说,此次输入价格下调50%、输出价格下调25%无疑是一大利好。具体来说,新的输入价格定格在每千个代币0.0005美元,而输出价格则为每千个代币0.0015美元。在处理文本密集型应用(如整篇论文或书籍的分析)时,这些代币的累积费用往往相当可观。而且随着开源大模型开始发力,OpenAI需要确保其客户不会离开。因此,这一价格调整无疑将为用户带来真正的实惠。当然,这也是模型精简和基础设施改进的结果。在GPT-3.5 Turbo上,OpenAI还悄然推出了代号为GPT-3.5 Turbo 0125的新模型版本。虽然该公司并未大肆宣扬,但这一版本显然包含了一系列“各种改进”。不过,相较于最新版本GPT-3.5 Turbo 0613,这一更新似乎并未带来公司认为值得特别提及的重大突破。在GPT-4 Turbo上,OpenAI同样有所动作。一个新的API使用预览模型GPT-4 Turbo 0125应运而生。这个模型成功解决了GPT-4 Turbo过去存在的一个老问题,即模型在面对某些任务时可能出现的“懒惰”情况。此外,GPT-4 Turbo 0125在代码生成等任务方面的表现也较之前的预览模型有了显著提升。目前,GPT-4 Turbo 0125仍处于预览模式阶段。不过,具有视觉效果的GPT-4 Turbo(即GPT-4 V)有望在“未来几个月内”与广大用户正式见面。在嵌入模型方面,OpenAI同样带来了令人振奋的消息。该公司推出了全新的text-embeddings-3-small和text-embeddings-3-large模型,它们相较于上一代的text-embeddings-ada-002展现出了更为强大的性能和更为亲民的价格。这些新模型能够创建多达3072维度的嵌入空间,从而捕获更多的语义信息并提高下游任务的准确性。在性能测试中,新模型将多语言检索(MIRACL)常用基准的平均分数从31.4%提升至54.9%,而在英语任务(MTEB)常用基准上的平均分数也从61.0%提升至64.6%。更值得一提的是,与text-embeddings-ada-002相比,text-embeddings-3-small的价格降到1/5,这无疑为开发人员带来了更为经济实惠的选择。此外,OpenAI还发布了一个全新版本的免费文本审核API。这一API能够检测文本是否包含敏感或不安全的内容,并且新版本还扩展了支持的语言和领域范围,同时为其预测提供了更为详尽的解释。 ... PC版: 手机版:

封面图片

飞书 ×(GPT-3.5 + DALL·E + Whisper)= 飞一般的工作体验 语音对话、角色扮演、多话题讨论、图片创作

飞书 ×(GPT-3.5 + DALL·E + Whisper)= 飞一般的工作体验 语音对话、角色扮演、多话题讨论、图片创作、表格分析、文档导出 | 项目特点 基于 OpenAI-gpt-3.5-turbo 接口 通过 lark,将 ChatGPT 接入飞书 支持Serverless 云函数、本地环境、Docker、二进制安装包多种渠道部署 基于goCache内存键值对缓存 机器人功能 语音交流:私人直接与机器人畅所欲言 多话题对话:支持私人和群聊多话题讨论,高效连贯 文本成图:支持文本成图和以图搜图 角色扮演:支持场景模式,增添讨论乐趣和创意 上下文保留:回复对话框即可继续同一话题讨论 ⏰ 自动结束:超时自动结束对话,支持清除讨论历史 富文本卡片:支持富文本卡片回复,信息更丰富多彩 交互式反馈:即时获取机器人处理结果 场景预设:内置丰富场景预设,方便用户管理场景 历史回档:轻松回档历史对话,继续话题讨论 管理员模式:内置管理员模式,使用更安全可靠 多token负载均衡:优化生产级别的高频调用场景 ↩ 支持反向代理:为不同地区的用户提供更快、更稳定的访问体验 与飞书文档互动:成为企业员工的超级助手 话题内容秒转PPT:让你的汇报从此变得更加简单 表格分析:轻松导入飞书表格,提升数据分析效率

封面图片

一个允许任何人免费使用 GPT-4 和 GPT-3.5的项目迅速崛起,OpenAI 威胁若五天内不下线便要发起诉讼

一个允许任何人免费使用 GPT-4 和 GPT-3.5的项目迅速崛起,OpenAI 威胁若五天内不下线便要发起诉讼 一个名为 GPT4free 的GitHub项目允许你免费获得GPT4和GPT3.5模型,通过You.com、Quora和CoCalc等网站输送这些查询,并将答案还给你。该项目是GitHub最受欢迎的新 repo,本周获得了14,000颗星。 我通过Telegram采访了Xtekky,他说他不认为OpenAI应该针对他,因为他没有直接连接到该公司的API,而是从其他网站获得数据,这些网站都是为自己的API许可证付费的。如果这些网站的所有者对他的脚本查询有意见,他们应该直接找他,他提出。 我在我的PC上的WSL2(Windows Subsystem for Linux)中安装了GPT4Free。这只花了几秒钟,包括克隆Github仓库,用pip安装一些所需的库,并运行一个Python脚本。脚本启动后,我用我的网络浏览器使用,它给我的地址,并看到了一个运行在我的PC上的工作聊天机器人。 现在,根据运行该软件的欧洲计算机科学学生Xtekky的说法,OpenAI已经发来一封信,要求他在五天内将整个软件下线,否则将面临诉讼。 Tom's Hardware

封面图片

免费还能干翻GPT-4 Meta打了所有闭源大厂的脸

免费还能干翻GPT-4 Meta打了所有闭源大厂的脸 就在今天凌晨, Meta 正式发布了全新的 Llama 3 模型,还一次上新了 8B 和 70B 两个参数版本。它的训练数据集比 Llama 2 整整大了 7 倍,达到了 15T ,容量也是上一代的两倍,支持 8K 上下文长度。目前,它们已经接入了 Meta 最新发布的智能助手 Meta AI 中, 所有人都可以免费使用。这两个模型同样全面开源,开发者可以免费下载,并且用于商用。 ( 不过要注意的是,如果 MAU 超过 7 亿,你得申请特殊商业许可 )小扎这是誓死要在开源这条路上,一条道走到黑了。当然更炸裂的是 Llama 3 的实力除了稳居开源大模型榜首外,甚至还能在一定程度上,薄纱 Gemini Pro 1.5 、 Claude 3 Sonnet 等处于第一梯队的闭源大模型。有网友更新了一份现有大模型的能力和参数对应表,能看到 Llama 3 的两个模型的表现都相当亮眼。这,可以说是给大模型的开源派大涨了一波士气。反正消息一出炉,开源社区立马就沸腾了,各种梗图满天飞, 感谢着小扎又带兄弟们冲了一次。不过,世超觉得既然模型已经上线了,看再多的技术细节和跑分数据,都不如咱们亲自上手试试。稍微有些可惜的是,目前发出的这两个版本,还没有办法支持中文输出。也暂时只有文字对话和画图这两个简单的功能。在各家多模态打磨得出神入化的现在,多少有点 OUT 了。不过好在这次 Meta 的图片输出,有一个挺新奇的功能。我们在聊天框里输入文字,不需要发送, Llama 3 就会实时根据内容生成图像。比如我分几次在对话框输入了【 一只猫在睡觉、跳舞和跳跃 】,就能看到屏幕上生成的图片内容在跟着实时变化。到了文字输出这边,惊喜度就不高了。既然它在测试中,说自己在编程、多选题等等方面,都赶超 Claude 3 的中型版本,咱也着重测了测这方面的虚实。世超测了很多题,这里就只放出两边有差别的地方。比如简单的逻辑推理:我今天有 3 个苹果,昨天吃了一个,今天还剩几个?Llama 3 完全没有压力,轻松驾驭。但同样的题抛给 Claude 3 ,却被完全绕进去了。不过,后面世超后面简单测了几道代码能力,反而 Claude 3 的表现更让人惊艳。世超要求 Llama 3 给我做两个简单的 html 小游戏。结果,做出的贪吃蛇和打砖块游戏,都没有办法正常运行。游戏还没有开始,就显示 Game Over 了。但 Claude 3 这边做的,虽说有点小瑕疵,游戏重新开始之后,分数不会刷新。但除此之外都很完美,游戏能有正常运行。而且生成速度巨快,几秒钟就做出来。上一次见到这个速度的,还是 GPT-4 。而在后面的开放题, Llama 3 则又马上扳回了一城。世超给了一个开放性的问题:类人机器人的未来会是什么样子?几个字的小问题, Llama 3 按照短期、中期和远期,三个阶段来分点构思了一下可能性。由于篇幅限制,这里只截取了短期Claude 3 这边就有些中规中矩了,跟上面分时间、分点罗列的优等生比,逊色不少。整体测试下来,Llama 3 和闭源的 Claude 3 基本打得有来有回,甚至一些方面小胜。但如果只能做到这个程度, Meta 这次更新根本没法在圈子里掀起这么大风浪。这俩模型并不是重头戏,真正牛叉的地方,是官网里提到的一个信息: 400B+ 参数级的 Llama 3 正在训练准备中了。从纸面的各项数据上看,它各方面都强得可怕。Llama 的产品副总裁 Ragavan Srinivasan 在一次采访中说,这个版本可以媲美同类的一流专业模型。不仅做到媲美,很多功能表现,还要强过 Claude 3 的超大杯版本和 GPT-4 。虽说 Meta 认为还要评估一下安全性,再决定开不开源,但消息一出,业内早已经开始狂欢了。因为开源社区的人,或许不用等着 OpenAI 重拾初心,就能到调教、魔改上GPT-4 级别的模型了。英伟达科学家直接就发文说,小扎这个 400B+ 的模型,将会是 行业的一个分水岭,会改变很多公司和研究的未来。刚好今天过生日的前百度首席科学家、Google大脑之父吴恩达,也说 Meta 这次更新,是他 有史以来收到过最好的生日礼物。可想而知, Llama 3 给行业带来的震撼。目前,这个 400B+ 的终极版本预计将会在夏天发布。OpenAI 再不发力, Llama 3 为代表的开源大模型,彻底超车闭源大模型的历史时刻,可能真的就要来临了。而早在 Llama 3 发布之前,大模型是开源牛,还是闭源好的问题,其实早就吵得不可开交了。两边阵营都不缺大佬,李彦宏所说的, “ 开源模型会越来越落后 ” ,世超觉得逻辑上是很自洽的。因为闭源公司有成熟的商业模式,有更多的资金和人力砸进去搞研究,自己辛苦研发的成果,也可以得到保护。简而言之就是能赚钱,能赚钱才能聚集算力、聚集人才。反观很多开源模型,不仅商业模式还在探索中,有的也都是零零散散的小规模产品。月之暗面的杨植麟就曾发表过类似的观点,说是大部分基于开源大模型的应用,没有经过大算力的验证,它们在性能的稳定性、未来的可扩展性都不好说。而支持开源的这一派,世超同样也觉得不无道理。朱啸虎曾经表达过一个看法, 闭源现在确实领先于开源,但开源模型最终会追上。“OpenAI 就一两百个工程师,开源的全世界几百万、几千万工程师在用,怎么可能一直比非开源的落后? ”开源社区用了一年时间,就超过了 GPT-3.5 ,现在已经来到 GPT-4 水平。而现在 Llama 3 等模型的大力赶超,正在不断验证这句话。比尔盖茨早年间,曾经公开吐槽过 Linux 系统。觉得它从商业上来看根本不可行,既不能保护自己的知识产权,又没法赚取收入来搞研发, 最多就是个半吊子。《 乔布斯传 》中也提到过,乔布斯也怒喷过隔壁Android就是 shit ,认为它的开源给它带来各种麻烦。最后这俩超级大佬都被打脸了……甚至比尔盖茨后来公开承认微软在偷学 Linux ,Android也丝毫不比 iOS 差。而世超觉得,很可能大模型的开源闭源之间,根本就不是你死我活、不是谁强谁就一定弱。就比如Google,基本就是两手抓,既有闭源的 Gemini ,也有开源的 Gemma 。曾靠开源出圈的 Mistral 在拿了微软投资之后,它的 Mistral Large 也不再对外开源。所以开源和闭源很可能只是路线之别,哪有啥对错,只是有合适与否。而唯一能确定就是,甭管你是开源还是闭源,烧钱都是逃不开的,无论是 OpenAI 背后的微软,还是 Llama 背后的 Meta ,亦或是国内的 BAT ,大模型的战场还是这帮顶级资本之间的斗争。咱们就搬好小板凳,磕着瓜子继续吃瓜吧。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人