Pi AI从 LLM升级到Inflection-2.5 使其变得聪明而富有同情心

Pi AI从 LLM升级到Inflection-2.5 使其变得聪明而富有同情心 Inflection AI 表示,在这次更新中,它在编码和数学等领域取得了长足进步,从而在行业基准测试中取得了更好的成绩。这次更新还让 Pi 具备了实时网络搜索的能力,因此它可以获得最新的信息。该公司表示,更新已经向用户推出,这使得用户情绪、参与度和留存率都得到了改善。对于没有尝试过它的人来说,它很像 ChatGPT,甚至支持语音通话;不想使用该应用的人也可以通过 WhatsApp、Instagram、Messenger 和 Telegram 与人工智能聊天。在 MMLU、GPQA、BIG-Bench-Hard、Mathematics、Coding 和 Common Sense 基准测试中,Inflection-2.5 稍微落后于 GPT-4,但也只是稍稍落后,而与 Inflection-1 相比则取得了长足进步。您可以查看下面的结果:Inflection AI 表示,尽管此次更新提高了智商,但其 LLM 的情商仍然很高,因此非常友好和平易近人。该公司还表示,它采用了非凡的安全标准。继Claude 3 系列模型 Haiku、Sonnet 和 Opus 发布之后,Inflection-2.5 也紧随其后发布。这些模型与 OpenAI 的 GPT-4 不相上下,甚至更胜一筹。Google最新的 Gemini 型号也具有类似的性能。据称,Meta 正在准备在七月左右发布 Llama 3 LLM,它也很可能与 GPT-4 不相上下。由于大多数竞争对手都在追赶 GPT-4,OpenAI 可能会感到压力,不得不发布其模型的更新;GPT-4 于 2023 年 3 月 14 日发布。了解更多: ... PC版: 手机版:

相关推荐

封面图片

LLM竞争白热化了,Inflection发布Inflection-2.5模型,他们称这是世界上最好的语言模型,Inflectio

LLM竞争白热化了,Inflection发布Inflection-2.5模型,他们称这是世界上最好的语言模型,Inflection-2.5 现已向所有 Pi 用户开放。 Inflection-2.5 接近 GPT-4 的性能,但仅使用了 40% 的计算量用于训练。 我们在编码和数学等智商领域取得了特别的进步。 Pi 现在还融入了世界一流的实时网络搜索功能,以确保用户获得高质量的突发新闻和最新信息。 Inflection-1 使用的训练 FLOP 约为 GPT-4 的 4%,平均而言,在各种 IQ 导向的任务中,其表现约为 GPT-4 水平的 72%。现在为 Pi 提供支持的 Inflection-2.5,尽管只使用了 40% 的训练 FLOP,但其平均性能却达到了 GPT-4 的 94% 以上。 详细信息:

封面图片

阿里云发布通义千问2.5 称性能赶超GPT-4

阿里云发布通义千问2.5 称性能赶超GPT-4 中国云计算及人工智能科技公司阿里云发布聊天机器人通义千问2.5大模型,并称该模型性能全面赶超GPT-4。 据第一财经报道,阿里云星期四(5月9日)正式发布通义千问2.5。该公司说,与通义千问2.1版本相比,通义千问2.5的理解能力、逻辑推理、指令遵循、代码能力分别提升9%、16%、19%、10%;与GPT-4相比,中文语境下,通义千问2.5文本理解、文本生成、知识问答及生活建议、闲聊及对话、安全风险等多项能力赶超GPT-4。 阿里云称,随着通义千问2.5的发布,在权威基准OpenCompass上,该模型得分追平GPT-4 Turbo,是中国国产大模型首次在该基准取得该项成绩。 GPT-4 Turbo是人工智能聊天机器人ChatGPT的研发公司OpenAI推出的最新大型语言模型。 此前,中国人工智能巨头商汤科技4月也发布全新升级的日日新SenseNova5.0大模型。澎湃新闻报道,该模型采用混合专家架构(MoE),超10TB tokens训练,覆盖大量合成数据,推理时上下文窗口达200K左右,综合能力全面对标GPT-4 Turbo。 2024年5月9日 7:30 PM

封面图片

OpenAI强敌出手:Inflection-2.5 训练计算量仅40%、性能直逼GPT-4

OpenAI强敌出手:Inflection-2.5 训练计算量仅40%、性能直逼GPT-4 让Pi聊天机器人比较Inflection-2.5与GPT-4试用直通车:https:// 1.5 Pro、Claude 3 Opus,以及最新登场的Infection-2.5。这意味着GPT-4独霸时代已经过去,大模型王者之战还有很多可能。在这场激烈的战事中,Inflection AI既年轻又锋芒毕露,成立刚满两年,由前DeepMind首席科学家Karén Simonyan、LinkedIn联合创始人Reid Hoffman、DeepMind联合创始人Mustafa Suleyman共同创办,2023年6月获得英伟达、微软等参投的13亿美元融资,估值达40亿美元(折合约287亿人民币),是当前全球第四大生成式AI独角兽。它是OpenAI的大语言模型劲敌之一,以“为每个人创造一个个性化的AI”为使命,2023年5月推出了一款具有同理心、乐于助人和安全的个性化AI聊天助手Pi,11月推出基础模型Inflection-2。与此同时,Inflection AI正在构建由22000万块H100 GPU组成的世界最大AI计算集群。现在,Inflection AI进一步给Pi加料新升级的Inflection-2.5有“世界级的智商”、“独特的善良”、“好奇的个性”,并具备4个主要亮点:1、在关键基准测试中与GPT-4并驾齐驱,并且使用40%的计算量来训练,与其他顶级基础模型相比训练效率优势显著。2、在编程、数学等STEM(科学、技术、工程、数学)领域进步显著。3、“世界级”实时网络搜索功能:确保用户能获得高质量、最新的新闻和信息,增强用户体验和交互的即时性。4、广泛可用性+显著满意度:对所有Pi用户开放,支持多平台访问,对用户情绪、参与度和留存率产生显著影响,加速了有机用户增长。继Anthropic后,又一家初创公司推出了性能强大、能与GPT-4一较高下的大语言模型,并在优化模型训练方法上大秀肌肉。 这展现了创业团队在大模型竞赛中的潜力和冲劲,随着大模型性能不断升级,如何用更少计算资源训出更强模型,将是接下来产学界都重点探索的方向。01.用40%的计算量,训练出接近GPT-4的性能Inflection-1用了GPT-4训练FLOPs的约4%,在不同的智商导向任务中,平均性能达到GPT-4水平的大约72%。Inflection-2.5用了GPT-4训练FLOPs的40%,在不同的智商导向任务中,平均性能达到GPT-4的94%以上。Inflection-2.5在MMLU基准测试上的成绩相较Inflection-1进步明显,略低于GPT-4。MMLU基准测试衡量了从高中到专业难度的各种任务的性能。Inflection AI还根据GPQA钻石基准进行评估,这是一个极难的专家级基准。其测试还包括两种不同的STEM(科学、技术、工程、数学)考试的结果:匈牙利数学考试和物理GRE(物理研究生入学考试)的表现。在BIG-Bench-Hard(大语言模型难以解决的BIG-Bench问题的子集)上,Inflection-2.5性能比Inflection-1提高10%以上,接近GPT-4。在MT-Bench上评估模型后,Inflection AI意识到,在推理、数学、编程类别中,有很大一部分(接近25%)的示例具有不正确的参考解决方案或具有错误前提的问题。因此Inflection AI更正了这些示例,并发布了该版本的数据集。在评估这两个子集时,Inflection AI发现在正确修正的版本中,其模型更符合他们基于其他基准的期望。与Inflection-1相比,Inflection-2.5在数学和编程性能方面有了显著进步。下表是在MBPP+和HumanEval+两个编程基准上的评测结果对比。在HellaSwag和ARC-C常识和科学基准测试上进行评估,Inflection-2.5同样表现强劲。02.特别致谢微软Azure和CoreWeave,正构建世界最大AI集群上面所有的评估都是用现在为Pi提供动力的模型Inflection-2.5完成的,但是Inflection AI注意到,受web检索的影响(没有使用web检索的基准测试),少量提示词的结构以及其他生产端差异,用户体验可能会略有不同。这家独角兽企业还专门致谢了为其提供算力资源的合作伙伴Azure和CoreWeave。Azure是微软云计算服务,CoreWeave则是去年凭借英伟达的支持坐拥数万块芯片狂揽算力大单的GPU云服务黑马。2023年初,CoreWeave找到Inflection并为其提供几千张H100 GPU。英伟达看中了这个组合的巨大潜力,先后向两家公司投资数亿美元,抬高了Coreweave的H100供货优先级。2023年6月,Inflection AI宣布与将与合作伙伴CoreWeave、英伟达一起,构建世界上最大的AI集群,包含22000个H100 GPU。CoreWeave-Infection AI超算的信息推测(图源:The Next Platform)就在宣布最大AI集群的一个月前,Inflection AI推出Pi聊天机器人,向OpenAI正式下战书。不同于ChatGPT等产品的“生产力工具”定位,Pi想做“个人AI”,成为用户24小时在线的数字朋友,更注重为用户带来友好、丰富的社交互动体验。Pi能记住与跨平台登录用户的100次对话,支持网页、APP、短信、社交平台等设备交互。相比其他AI聊天机器人,Pi可能在文本生成、代码生成等能力上不算出众,但在安全、同理心等特性上独树一帜。这也是为什么这家创企刚创办就从微软等公司处筹集2.25亿美元,一年后又拿到微软、英伟达、微软联合创始人比尔·盖茨、Alphabet前CEO Eric Schmidt等的13亿美元融资,飞速成为全球最大的生成式AI独角兽之一。截至2023年年底,Inflection AI估值约为40亿美元,是全球第四大生成式AI独角兽,仅次于OpenAI、Anthropic、Character.AI。03.联创团队有钱有技术:曾创办DeepMind,曾投资OpenAI2022年3月成立的年轻AI团队,能赢得微软和英伟达两大巨头的青睐,与其创始团队密不可分。Inflection AI联合创始人Reid Hoffman被称作“硅谷人脉王”,是硅谷最有名的天使投资人之一,他是全球最大专业社交网站LinkedIn的联合创始人,以及风险投资机构Greylock Partners的合伙人,曾是OpenAI的创始投资者。截至2023年5月,Reid Hoffman和Greylock Partners已投资至少37家AI公司。左为Mustafa Suleyman,右为Reid Hoffman(图源:福布斯、Business Insider)另一位联合创始人Mustafa Suleyman,2009年与几位合伙人共同创立DeepMind,并将研究重点放到AI在医疗健康和气候变化中的应用,但连年亏损压得Suleyman喘不过气。2014年,Google抛出橄榄枝,6亿美元将DeepMind收入麾下。背靠金主的DeepMind终于可以没有资金之忧地继续从事前沿研究,然而5年后,Suleyman却选择离开DeepMind,加入Google并担任AI产品管理和AI政策副总裁。背后原因,据说是由于一些同事曾抱怨他在工作上骚扰和欺凌同事。Suleyman也曾坦言,作为DeepMind联合创始人,他对员工的要求过于苛刻,有时他的管理风格并不具有建设性。2022年,他离开Google,创办Inflection AI并担任CEO,“希望与有远见和无所畏惧的创始人在一起”。第三位联合创始人是前DeepMind首席科学家Karén Simonyan,现任Inflection AI首席科学家。他是同代中成就突出的深度学习研究者之一,其出版物(包括5篇在学术顶级期刊Nature和Science上的论文)吸引了超过18万次引用。Karén Simonyan部分高引用量学术成果Karén Simonyan在牛津大学完成了博士学位和博士后学位,期间设计了VGGNet图像处理框架并在赢得了知名的ImageNet挑战赛。随后他创办Vision Factory AI公司,将VGGNet商业化。这家公司很快就被DeepMind收购,karsamyn的身份则变成了DeepMind首席科学家。任职DeepMind首席科学家期间,karsamyn建立并领导了大规模深度学习团队,开发了基于真实世界数据的大型AI模型。他在AlphaZero、AlphaFold、WaveNet、BigGAN和Flamingo等AI突破中均发挥了关键作用。04.结语:团队不到50人,Pi每日聊天消息数超40亿据外媒Axios援引Suleyman的话,当前Inflection AI团队拥有70名员工。据Inflection AI透露,其100万日活跃用户和600万月活跃用户与Pi聊天机器人往来了超过40亿条消息。与Pi的平均谈话时间为33分钟,每天有1/10的谈话时间超过1小时。在任何一周与Pi交谈的用户中,约... PC版: 手机版:

封面图片

| Copilot - 分流规则

| Copilot - 分流规则 在近期更新的版本中,Copilot允许用户免费访问OpenAI开发的最新大型语言模型(LLM)GPT-4 但该服务有地区限制,恰巧逼逼看到֍可莉日常֎的频道(频道地址:https://t.me/ibilibili ) 发布了新的规则,无需更改账号属地即可使用Copilot的GPT-4,逼逼不敢私藏,分享给大家~ https://gitlab.com/lodepuly/vpn_tool/-/raw/master/Tool/Loon/Rule/Copilot.list 标签: #IOS 频道: @me888888888888 群组:https://t.me/imbbbbbbbbbbb 合作&推广:@imbbbbbbbb 消息怕错过?请及时收藏频道并开启推送!

封面图片

谷歌新Bard逆袭GPT-4冲上LLM排行榜第二 Jeff Dean高呼我们回来了

谷歌新Bard逆袭GPT-4冲上LLM排行榜第二 Jeff Dean高呼我们回来了 基于此,Bard相较于3月份的首次亮相,不仅在表现上有了显著的提升,而且还具备了更多的能力。可以看到,在最新的Gemini Pro-scale加持下,Bard直接蹿升到了排行榜第二名的位置。一口气把之前的两款GPT-4模型斩于马下,甚至和排名第一的GPT-4 Turbo的差距也非常小。虽然Jeff Dean并没有具体阐述“scale”的含义,但从名称上推测,很可能是一个比初代Gemini Pro规模更大的版本。而根据前段时间外媒曝出的内部邮件,搭载Gemini Ultra的Bard Advanced已经全面开放给Google员工试用。也就是说,距离Google最强模型的上线,已经不远了。随着Google对Gemini Pro更新后不断大幅上涨的表现,也让所有人对完全体Gemini Ultra的能力有了更多的期待。不过,新推出的Bard目前只接受了约3,000次评价,而GPT-4的评价次数已高达30,000次。因此,这个结果后续很可能还会发生变动。但不管怎样,这对于Google来说是一项令人瞩目的成就,也让人对即将发布的、预期将超过Gemini Pro-Scale性能的最强AI模型Gemini Ultra充满期待。GoogleBard超越GPT-4跃居第二简单介绍一下,这个由UC伯克利主导,CMU,UCSD等顶级高校共同参与创建的聊天机器人竞技场“Chatbot Arena”,是学术圈内一个很权威的大模型对话能力排行榜。榜单通过类似Moba游戏中的“排位赛”机制,让各家大模型通过PvP的方式来排出性能高低。期间,用户会与模型(不知道具体型号)进行互动,并选择他们更喜欢的回答。而这些投票将会决定模型在排行榜上的名次。这种方式能够有效地避免很多PvE基准测试中可能出现的,通过“刷题”来提高成绩的问题,被业界认为是一个比较客观的大模型能力排行榜。为了便于区分,LMSYS Org指出,目前Gemini Pro市面上总共有3个版本:- Gemini Pro API:用户可以通过Google云的Vertex AI API进行访问- Gemini Pro(dev)API:开发者API可以通过Google AI Studio进行访问- Bard(1月4日更新的Gemini Pro):是目前唯一可以访问到1月24日更新的Gemini Pro的方式同时,GoogleBard项目的高级总监Sadovsky也透露,排行榜上的Bard和Gemini Pro(API)是两个在微调层面不同的模型,而且Bard可以检索互联网上的信息。在ChatBot Arena中,1月24号更新的Bard由于支持检索互联网,相比于之前放出的Gemini Pro(API)对于实时信息问题的回复提升巨大。从Google的这波更新可以看出,Gemini Pro的潜力似乎远远没有被完全释放,希望Google能再接再厉,对OpenAI一家独大的格局形成挑战。以下是1月14号更新的Bard在ChatBot Arena中的成绩的明细:模型A相对于模型B在所有非平局对决中获胜的比例不同模型组合间对决的次数统计(排除平局情况)通过1000轮随机抽样对Elo评分进行的自举法(Bootstrap)估计在假设等概率抽样和不存在平局的情况下,相对于所有其他模型的平均胜率Elo评分系统Elo等级分制度(Elo rating system)是一种计算玩家相对技能水平的方法,广泛应用在竞技游戏和各类运动当中。其中,Elo评分越高,那么就说明这个玩家越厉害。比如英雄联盟、Dota 2以及吃鸡等等,系统给玩家进行排名的就是这个机制。举个例子,当你在英雄联盟里面打了很多场排位赛后,就会出现一个隐藏分。这个隐藏分不仅决定了你的段位,也决定了你打排位时碰到的对手基本也是类似水平的。而且,这个Elo评分的数值是绝对的。也就是说,当未来加入新的聊天机器人时,我们依然可以直接通过Elo的评分来判断哪个聊天机器人更厉害。具体来说,如果玩家A的评分为Ra,玩家B的评分为Rb,玩家A获胜概率的精确公式(使用以10为底的logistic曲线)为:然后,玩家的评分会在每场对战后线性更新。假设玩家A(评分为Ra)预计获得Ea分,但实际获得Sa分。更新该玩家评分的公式为:网友热议对此,网友提问:现在能够访问的Bard就是这个排名第二的Bard了吗?Google官方回复,是的,而且现在访问的Bard比排行榜的上的Bard还能支持更多的像地图扩展等应用。不过还是有网友吐槽,即使在PvP排行榜上Bard已经取得了很好的成绩,但是对于理解用户需求和解决实际问题的能力,Bard和GPT-4依然还有很大差距。也有网友认为,用能联网的Bard和离线的GPT-4打有失公平。甚至,就这样还没打过……而最有意思的,还要数网友在排行榜中发现的“华点”了:号称是GPT-4最大竞品的Claude居然越更新越弱了。对此,之前有分析认为,Anthropic一直在大力发展的与人类对齐,会严重影响模型的性能。GPT-4 Turbo超长上下文A/B测试有趣的是,这个连Jeff Dean都亲自下场的“刷榜”,正巧就在OpenAI连发5款新模型的第二天。根据OpenAI的介绍,新版GPT-4 Turbogpt-4-0125-preview,不仅大幅改善了模型“偷懒”的情况,而且还极大地提升了代码生成的能力。不过,正如大家对Bard的怀疑,GPT-4这次到底有没有变强也有待验证。对此,AI公司Smol的创始人Shawn Wang,就在超过100k单词的超长上下文中,对比测试了新旧GPT4-Turbo的总结能力。Wang表示,两次测试使用的是完全相同提示词,以及基本相同的语料库。虽然没有严格严格,但每个模型都进行了超过300次的API调用,因此对于总结任务而言,这一结果还是具有一定参考价值的。结果显示,2024年1月的GPT4-Turbo花费了19分钟来生成20,265个单词,相比之下,2023年11月的用16分钟生成了18,884个单词。也就是说,新模型的生成速度大约慢了 18%,且生成文本的长度平均偏长约7%。质量方面:- 2024年1月的模型在主题选择上略有改善,但仍存在问题- 2023年11月的模型会产生更多错误信息- 2024年1月的模型在总结中添加小标题的能力略有提升- 2024年1月的模型出现了一次严重的格式错误,而这在之前是极为罕见的- 2023年11月的模型文本详情更加丰富总体而言,新版GPT4-Turbo在总结这一应用场景上有所退步。左侧:2023年11月;右侧:2024年1月(左右滑动查看全部)OpenAI最后的“开源遗作”两周年不得不说,AI领域的发展过于迅猛,甚至让人对时间的流速都产生了错觉。今天,英伟达高级科学家Jim Fan发推纪念了InstructGPT发布二周年。在这里,OpenAI定义了一套标准流程:预训练 -> 监督式微调 -> RLHF。直到今天,这依然是大家遵循的基本策略(尽管有些许变化,比如DPO)。它不仅仅是大语言模型从学术探索(GPT-3)到转化为具有实际影响力的产品(ChatGPT)的关键转折点,而且也是最后一篇OpenAI详细说明他们如何训练前沿模型的论文。论文地址: InstructGPT在2022年的NeurIPS会议上首次亮相,但它并不是RLHF的发明者。实际上,相关博客将读者引向了OpenAI团队在2017年完成的原始RLHF研究。这项研究最初的目的是解决模拟机器人领域中难以明确定义的任务通过一名人类标注者提供的900个二选一偏好,RLHF让一个简单的“跳跃”机器人在模拟环境中学会了后空翻。论文地址: 模型提供了三种规模:1.3B、6B、175B。与旧的、需要复杂提示设计的GPT-3-175B相比,标注者明显更喜欢Instruct-1.3B。微软最知名的“小模型”Phi-1也是1.3B。- InstructGPT展示了如何精彩地呈现研究成果。三个步骤的图表清晰易懂,并且成为AI领域最标志性的图像之一。引言部分直接了当,用粗体突出了8个核心观点。对局限性和偏见的讨论实事求是、坦诚直接。 ... PC版: 手机版:

封面图片

OpenAI的GPT-4可通过阅读安全公告自主利用真实漏洞

OpenAI的GPT-4可通过阅读安全公告自主利用真实漏洞 为了说明这一点,研究人员收集了 15 个单日漏洞的数据集,其中包括在 CVE 描述中被归类为严重程度的漏洞。"当给出 CVE 描述时,GPT-4 能够利用其中 87% 的漏洞,而我们测试的其他模型(GPT-3.5、开源 LLM)和开源漏洞扫描器(ZAP 和 Metasploit)利用率为 0%"。所谓"单日漏洞",是指已经披露但尚未修补的漏洞。该团队所说的 CVE 描述指的是 NIST 共享的 CVE 标记咨询例如,这个针对 CVE-2024-28859 的咨询。测试的失败模型包括 GPT-3.5、OpenHermes-2.5-Mistral-7B、Llama-2 Chat (70B)、LLaMA-2 Chat (13B)、LLaMA-2 Chat (7B)、Mixtral-8x7B Instruct、Mistral (7B) Instruct v0.2、Nous Hermes-2 Yi 34B 和 OpenChat 3.5。2 、Nous Hermes-2 Yi 34B 和 OpenChat 3.5,但不包括 GPT-4 的两个主要商业竞争对手:Anthropic 的 Claude 3 和 Google 的 Gemini 1.5 Pro。尽管 UIUC 的工程师们希望能在某个时候对它们进行测试,但他们无法获得这些模型。研究人员的工作基于之前的发现,即 LLM 可用于在沙盒环境中自动攻击网站。UIUC 助理教授丹尼尔-康(Daniel Kang)在一封电子邮件中说,GPT-4"实际上可以自主执行某些步骤,以实施开源漏洞扫描程序(在撰写本文时)无法发现的某些漏洞利用"。Kang 说,他希望通过将聊天机器人模型与在 LangChain 中实施的ReAct自动化框架相连接而创建的 LLM 代理(在本例中)能让每个人都更容易地利用漏洞。据悉,这些代理可以通过 CVE 描述中的链接获取更多信息。此外,如果推断 GPT-5 和未来机型的功能,它们很可能比现在的脚本小子们能获得的功能要强得多。拒绝 LLM 代理(GPT-4)访问相关的 CVE 描述使其成功率从 87% 降至仅 7%。不过,Kang 表示,他并不认为限制安全信息的公开是抵御 LLM 代理的可行方法。他解释说:"我个人认为,'隐蔽安全'是站不住脚的,这似乎是安全研究人员的普遍看法。我希望我的工作和其他工作能够鼓励人们采取积极主动的安全措施,比如在安全补丁发布时定期更新软件包。"LLM 代理仅未能利用 15 个样本中的两个:Iris XSS(CVE-2024-25640)和 Hertzbeat RCE(CVE-2023-51653)。论文称,前者之所以存在问题,是因为 Iris 网络应用的界面对于代理来说非常难以浏览。而后者的特点是有详细的中文说明,这大概会让在英文提示下运行的 LLM 代理感到困惑。在测试的漏洞中,有 11 个是在 GPT-4 的训练截止日期之后出现的,这意味着模型在训练过程中没有学习到有关这些漏洞的任何数据。这些 CVE 的成功率略低,为 82%,即 11 个中有 9 个。至于这些漏洞的性质,在上述论文中都有列出,并告诉我们:"我们的漏洞涉及网站漏洞、容器漏洞和易受攻击的 Python 软件包,根据 CVE 描述,超过一半的漏洞被归类为'高度'或'严重'严重性。"Kang 和他的同事计算了成功进行一次 LLM 代理攻击的成本,得出的数字是每次利用漏洞的成本为 8.8 美元,他们说这比雇用一名人工渗透测试人员 30 分钟的成本低 2.8 倍。根据 Kang 的说法,代理代码只有 91 行代码和 1056 个提示令牌。GPT-4的制造商OpenAI要求研究人员不要向公众公布他们的提示信息,不过他们表示会应要求提供。OpenAI 没有立即回应置评请求。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人