LLM竞争白热化了,Inflection发布Inflection-2.5模型,他们称这是世界上最好的语言模型,Inflectio

LLM竞争白热化了,Inflection发布Inflection-2.5模型,他们称这是世界上最好的语言模型,Inflection-2.5现已向所有Pi用户开放。Inflection-2.5接近GPT-4的性能,但仅使用了40%的计算量用于训练。我们在编码和数学等智商领域取得了特别的进步。Pi现在还融入了世界一流的实时网络搜索功能,以确保用户获得高质量的突发新闻和最新信息。Inflection-1使用的训练FLOP约为GPT-4的4%,平均而言,在各种IQ导向的任务中,其表现约为GPT-4水平的72%。现在为Pi提供支持的Inflection-2.5,尽管只使用了40%的训练FLOP,但其平均性能却达到了GPT-4的94%以上。详细信息:

相关推荐

封面图片

Pi AI从 LLM升级到Inflection-2.5 使其变得聪明而富有同情心

PiAI从LLM升级到Inflection-2.5使其变得聪明而富有同情心InflectionAI表示,在这次更新中,它在编码和数学等领域取得了长足进步,从而在行业基准测试中取得了更好的成绩。这次更新还让Pi具备了实时网络搜索的能力,因此它可以获得最新的信息。该公司表示,更新已经向用户推出,这使得用户情绪、参与度和留存率都得到了改善。对于没有尝试过它的人来说,它很像ChatGPT,甚至支持语音通话;不想使用该应用的人也可以通过WhatsApp、Instagram、Messenger和Telegram与人工智能聊天。在MMLU、GPQA、BIG-Bench-Hard、Mathematics、Coding和CommonSense基准测试中,Inflection-2.5稍微落后于GPT-4,但也只是稍稍落后,而与Inflection-1相比则取得了长足进步。您可以查看下面的结果:InflectionAI表示,尽管此次更新提高了智商,但其LLM的情商仍然很高,因此非常友好和平易近人。该公司还表示,它采用了非凡的安全标准。继Claude3系列模型Haiku、Sonnet和Opus发布之后,Inflection-2.5也紧随其后发布。这些模型与OpenAI的GPT-4不相上下,甚至更胜一筹。Google最新的Gemini型号也具有类似的性能。据称,Meta正在准备在七月左右发布Llama3LLM,它也很可能与GPT-4不相上下。由于大多数竞争对手都在追赶GPT-4,OpenAI可能会感到压力,不得不发布其模型的更新;GPT-4于2023年3月14日发布。了解更多:https://inflection.ai/inflection-2-5...PC版:https://www.cnbeta.com.tw/articles/soft/1422946.htm手机版:https://m.cnbeta.com.tw/view/1422946.htm

封面图片

Inflection AI 推出 Pi 聊天机器人新模型,几乎匹配 GPT-4

近日,由DeepMind联合创始人MustafaSuleyman和LinkedIn联合创始人ReidHoffman创立的位于帕洛阿尔托的初创公司InflectionAI宣布了一个名为Inflection-2.5的新模型。Inflection-2.5的性能显着优于该公司最初的Inflection-1,并且几乎与OpenAI的GPT-4模型相匹配。此外,与GPT-4一样,该模型还集成了实时网络搜索功能,为用户提供最新的时事信息。鉴于该公司已将Pi助手定位为每个人的人工智能,这将是一次重大升级。就基准测试性能而言,升级后的模型比Inflection1全面改进,并接近GPT-4,尽管仍然落后。目前,Pi聊天机器人可在Android、iOS、Web和桌面应用程序上使用。Pi使用地址:https://pi.ai/talkvia匿名标签:#Inflection#AI频道:@GodlyNews1投稿:@GodlyNewsBot

封面图片

OpenAI强敌出手:Inflection-2.5 训练计算量仅40%、性能直逼GPT-4

OpenAI强敌出手:Inflection-2.5训练计算量仅40%、性能直逼GPT-4让Pi聊天机器人比较Inflection-2.5与GPT-4试用直通车:https://pi.ai/talk一个月之内,GPT-4连迎三个强劲的新竞争对手:Gemini1.5Pro、Claude3Opus,以及最新登场的Infection-2.5。这意味着GPT-4独霸时代已经过去,大模型王者之战还有很多可能。在这场激烈的战事中,InflectionAI既年轻又锋芒毕露,成立刚满两年,由前DeepMind首席科学家KarénSimonyan、LinkedIn联合创始人ReidHoffman、DeepMind联合创始人MustafaSuleyman共同创办,2023年6月获得英伟达、微软等参投的13亿美元融资,估值达40亿美元(折合约287亿人民币),是当前全球第四大生成式AI独角兽。它是OpenAI的大语言模型劲敌之一,以“为每个人创造一个个性化的AI”为使命,2023年5月推出了一款具有同理心、乐于助人和安全的个性化AI聊天助手Pi,11月推出基础模型Inflection-2。与此同时,InflectionAI正在构建由22000万块H100GPU组成的世界最大AI计算集群。现在,InflectionAI进一步给Pi加料——新升级的Inflection-2.5有“世界级的智商”、“独特的善良”、“好奇的个性”,并具备4个主要亮点:1、在关键基准测试中与GPT-4并驾齐驱,并且使用40%的计算量来训练,与其他顶级基础模型相比训练效率优势显著。2、在编程、数学等STEM(科学、技术、工程、数学)领域进步显著。3、“世界级”实时网络搜索功能:确保用户能获得高质量、最新的新闻和信息,增强用户体验和交互的即时性。4、广泛可用性+显著满意度:对所有Pi用户开放,支持多平台访问,对用户情绪、参与度和留存率产生显著影响,加速了有机用户增长。继Anthropic后,又一家初创公司推出了性能强大、能与GPT-4一较高下的大语言模型,并在优化模型训练方法上大秀肌肉。这展现了创业团队在大模型竞赛中的潜力和冲劲,随着大模型性能不断升级,如何用更少计算资源训出更强模型,将是接下来产学界都重点探索的方向。01.用40%的计算量,训练出接近GPT-4的性能Inflection-1用了GPT-4训练FLOPs的约4%,在不同的智商导向任务中,平均性能达到GPT-4水平的大约72%。Inflection-2.5用了GPT-4训练FLOPs的40%,在不同的智商导向任务中,平均性能达到GPT-4的94%以上。Inflection-2.5在MMLU基准测试上的成绩相较Inflection-1进步明显,略低于GPT-4。MMLU基准测试衡量了从高中到专业难度的各种任务的性能。InflectionAI还根据GPQA钻石基准进行评估,这是一个极难的专家级基准。其测试还包括两种不同的STEM(科学、技术、工程、数学)考试的结果:匈牙利数学考试和物理GRE(物理研究生入学考试)的表现。在BIG-Bench-Hard(大语言模型难以解决的BIG-Bench问题的子集)上,Inflection-2.5性能比Inflection-1提高10%以上,接近GPT-4。在MT-Bench上评估模型后,InflectionAI意识到,在推理、数学、编程类别中,有很大一部分(接近25%)的示例具有不正确的参考解决方案或具有错误前提的问题。因此InflectionAI更正了这些示例,并发布了该版本的数据集。在评估这两个子集时,InflectionAI发现在正确修正的版本中,其模型更符合他们基于其他基准的期望。与Inflection-1相比,Inflection-2.5在数学和编程性能方面有了显著进步。下表是在MBPP+和HumanEval+两个编程基准上的评测结果对比。在HellaSwag和ARC-C常识和科学基准测试上进行评估,Inflection-2.5同样表现强劲。02.特别致谢微软Azure和CoreWeave,正构建世界最大AI集群上面所有的评估都是用现在为Pi提供动力的模型Inflection-2.5完成的,但是InflectionAI注意到,受web检索的影响(没有使用web检索的基准测试),少量提示词的结构以及其他生产端差异,用户体验可能会略有不同。这家独角兽企业还专门致谢了为其提供算力资源的合作伙伴Azure和CoreWeave。Azure是微软云计算服务,CoreWeave则是去年凭借英伟达的支持坐拥数万块芯片狂揽算力大单的GPU云服务黑马。2023年初,CoreWeave找到Inflection并为其提供几千张H100GPU。英伟达看中了这个组合的巨大潜力,先后向两家公司投资数亿美元,抬高了Coreweave的H100供货优先级。2023年6月,InflectionAI宣布与将与合作伙伴CoreWeave、英伟达一起,构建世界上最大的AI集群,包含22000个H100GPU。CoreWeave-InfectionAI超算的信息推测(图源:TheNextPlatform)就在宣布最大AI集群的一个月前,InflectionAI推出Pi聊天机器人,向OpenAI正式下战书。不同于ChatGPT等产品的“生产力工具”定位,Pi想做“个人AI”,成为用户24小时在线的数字朋友,更注重为用户带来友好、丰富的社交互动体验。Pi能记住与跨平台登录用户的100次对话,支持网页、APP、短信、社交平台等设备交互。相比其他AI聊天机器人,Pi可能在文本生成、代码生成等能力上不算出众,但在安全、同理心等特性上独树一帜。这也是为什么这家创企刚创办就从微软等公司处筹集2.25亿美元,一年后又拿到微软、英伟达、微软联合创始人比尔·盖茨、Alphabet前CEOEricSchmidt等的13亿美元融资,飞速成为全球最大的生成式AI独角兽之一。截至2023年年底,InflectionAI估值约为40亿美元,是全球第四大生成式AI独角兽,仅次于OpenAI、Anthropic、Character.AI。03.联创团队有钱有技术:曾创办DeepMind,曾投资OpenAI2022年3月成立的年轻AI团队,能赢得微软和英伟达两大巨头的青睐,与其创始团队密不可分。InflectionAI联合创始人ReidHoffman被称作“硅谷人脉王”,是硅谷最有名的天使投资人之一,他是全球最大专业社交网站LinkedIn的联合创始人,以及风险投资机构GreylockPartners的合伙人,曾是OpenAI的创始投资者。截至2023年5月,ReidHoffman和GreylockPartners已投资至少37家AI公司。左为MustafaSuleyman,右为ReidHoffman(图源:福布斯、BusinessInsider)另一位联合创始人MustafaSuleyman,2009年与几位合伙人共同创立DeepMind,并将研究重点放到AI在医疗健康和气候变化中的应用,但连年亏损压得Suleyman喘不过气。2014年,Google抛出橄榄枝,6亿美元将DeepMind收入麾下。背靠金主的DeepMind终于可以没有资金之忧地继续从事前沿研究,然而5年后,Suleyman却选择离开DeepMind,加入Google并担任AI产品管理和AI政策副总裁。背后原因,据说是由于一些同事曾抱怨他在工作上骚扰和欺凌同事。Suleyman也曾坦言,作为DeepMind联合创始人,他对员工的要求过于苛刻,有时他的管理风格并不具有建设性。2022年,他离开Google,创办InflectionAI并担任CEO,“希望与有远见和无所畏惧的创始人在一起”。第三位联合创始人是前DeepMind首席科学家KarénSimonyan,现任InflectionAI首席科学家。他是同代中成就突出的深度学习研究者之一,其出版物(包括5篇在学术顶级期刊Nature和Science上的论文)吸引了超过18万次引用。KarénSimonyan部分高引用量学术成果KarénSimonyan在牛津大学完成了博士学位和博士后学位,期间设计了VGGNet图像处理框架并在赢得了知名的ImageNet挑战赛。随后他创办VisionFactoryAI公司,将VGGNet商业化。这家公司很快就被DeepMind收购,karsamyn的身份则变成了DeepMind首席科学家。任职DeepMind首席科学家期间,karsamyn建立并领导了大规模深度学习团队,开发了基于真实世界数据的大型AI模型。他在AlphaZero、AlphaFold、WaveNet、BigGAN和Flamingo等AI突破中均发挥了关键作用。04.结语:团队不到50人,Pi每日聊天消息数超40亿据外媒Axios援引Suleyman的话,当前InflectionAI团队拥有70名员工。据InflectionAI透露,其100万日活跃用户和600万月活跃用户与Pi聊天机器人往来了超过40亿条消息。与Pi的平均谈话时间为33分钟,每天有1/10的谈话时间超过1小时。在任何一周与Pi交谈的用户中,约...PC版:https://www.cnbeta.com.tw/articles/soft/1422897.htm手机版:https://m.cnbeta.com.tw/view/1422897.htm

封面图片

人工智能军备竞赛白热化:谷歌最新AI大语言模型数据量扩充5倍

人工智能军备竞赛白热化:谷歌最新AI大语言模型数据量扩充5倍令牌指的是单词串,这是训练大语言模型的重要基础,因为这可以教给模型如何预测字符串中可能出现的下一个单词。之前版本的PaLM发布于2022年,当时使用的令牌为7800亿个。虽然谷歌很希望展示其人工智能技术的实力,以及嵌入搜索、电子邮件、字处理和电子表格后的效果,但该公司却不愿发布其训练数据的规模和其他细节。微软支持的OpenAI也对其最新的GPT-4大语言模型的细节信息保密。这些公司表示,之所以不披露这些信息,是出于商业竞争考虑。谷歌和OpenAI都在努力吸引想要用聊天机器人代替传统搜索引擎,从而直接获取答案的用户。但随着人工智能军备竞赛日趋白热化,相关研究人员也呼吁企业加大透明度。自从发布PaLM2之后,谷歌一直表示新的模型比之前的大语言模型更小,这就意味着该公司的技术效率得以提升,但却可以完成更加复杂的任务。内部文件显示,PaLM2基于3400亿个参数训练——这项指标可以说明该模型的复杂程度。最初的PaLM则基于5400亿个参数训练。目前,谷歌尚未对此置评。谷歌在一篇关于PaLM2的博文中表示,该模型使用了一种名为“计算机优化扩张”的新技术。这就让大语言“更高效、整体性能更好,包括加快推理速度、减少参数调用和降低服务成本。”在宣布PaLM2时,谷歌证实了此前的媒体报道,计该模型针对100种语言进行训练,可以执行更广泛的任务。它已经被用于25项功能和产品,包括该公司的实验性聊天机器人Bard。按照从小到大的规模划分,该模型共有4种,分别是壁虎(Gecko)、水獭(Otter)、野牛(Bison)和独角兽(Unicorn)。根据公开披露的信息,PaLM2比现有的任何模型都更加强大。Facebook在2月份宣布的的LLaMA大语言模型采用1.4万亿个令牌。OpenAI上一次披露GPT-3的训练规模时表示,它当时基于3000亿个令牌。OpenAI今年3月发布GPT-4时表示,它在许多专业测试中展示出“与人类媲美的表现”。LAMDA是谷歌两年前推出的一个对话型大语言模型,在今年2月还与Bard一同对外宣传。该模型基于1.5万亿个令牌训练。随着新的人工智能应用快速进入主流,围绕底层技术的争议也越来越激烈。谷歌高级研究科学家艾尔·迈赫迪·艾尔·麦哈麦迪(ElMahdiElMhamdi)于今年2月辞职,主要原因就是人工智能技术缺乏透明度。本周二,OpenAICEO山姆·阿尔特曼(SamAltman)出席美国国会针对隐私和技术举行的听证会,他也认为需要设立一套新的制度来应对人工智能的潜在问题。“对于一种全新的技术,我们需要一套全新的框架。”阿尔特曼说,“当然,像我们这样的公司应当为我们推出的工具承担许多责任。”...PC版:https://www.cnbeta.com.tw/articles/soft/1360049.htm手机版:https://m.cnbeta.com.tw/view/1360049.htm

封面图片

美国或放松绿卡配额 中美人才竞争白热化

美国或放松绿卡配额中美人才竞争白热化美国国会众议院通过的《2022年美国竞争法》纳入了理工科博士学历人士的绿卡发放国别配额豁免的条款。分析认为,该条款如果生效,中国顶尖科技人才留美将更加便利,同时为美国在美中科技人才争夺战中提高竞争力。据美国之音报道,美国国会众议院2月4日通过的《2022年美国竞争法》(AmericaCOMPETESActof2022)法案中包括了两项对中国技术人才赴美创业和希望获得美国绿卡的中国博士生颇具吸引力的条款。法案提议为外国科技公司创业者设立“W”非移民签证类别。根据这一条款,外国新创企业的创业者的持股额度和公司投资规模如果满足一定要求,该创业者可以申请美国“W”签证赴美,在美国扩展业务,在满足一定的经营条件后可以获得美国永久居民(绿卡)身份。法案还为STEM(科学、技术、工程和数学类)专业的外国博士毕业生申请美国绿卡豁免国别配额限制。目前美国每年发放给职业移民的绿卡数约为14万份,但任何国家申请者获批的上限不能超过总移民配额7%,因此造成包括中国、印度等国的职业类移民申请者绿卡申请积压的情况。部分国家申请人等待时间长达20多年。有分析说,《美国竞争法》相关的移民条款若生效,美国雇主能够为来自世界各地的优秀研究人员快速争取到绿卡,包括那些职业生涯早期和从事尖端工作的技术行业人士,为美国获得显著的人才竞争优势。美国国会众议院通过的《2022年美国竞争法》还需要与国会参议院的相关法案进行两院协调,达成一致协议后才能正式在国会通过、并送交白宫由总统签署生效。如果法案中的移民条款能够施行,将对美国吸引和留住外国技术人才增加更多吸引力。美国《福布斯》杂志高级撰稿人、非政府组织美国政策全球基金会(NFAP)执行总监安德森(StuartAnderson)撰文说,如果条款生效,将是美国国会30年来最重大的移民立法。...发布:2022年2月9日3:13PM

封面图片

阿里云发布通义千问2.5 称性能赶超GPT-4

阿里云发布通义千问2.5称性能赶超GPT-4中国云计算及人工智能科技公司阿里云发布聊天机器人通义千问2.5大模型,并称该模型性能全面赶超GPT-4。据第一财经报道,阿里云星期四(5月9日)正式发布通义千问2.5。该公司说,与通义千问2.1版本相比,通义千问2.5的理解能力、逻辑推理、指令遵循、代码能力分别提升9%、16%、19%、10%;与GPT-4相比,中文语境下,通义千问2.5文本理解、文本生成、知识问答及生活建议、闲聊及对话、安全风险等多项能力赶超GPT-4。阿里云称,随着通义千问2.5的发布,在权威基准OpenCompass上,该模型得分追平GPT-4Turbo,是中国国产大模型首次在该基准取得该项成绩。GPT-4Turbo是人工智能聊天机器人ChatGPT的研发公司OpenAI推出的最新大型语言模型。此前,中国人工智能巨头商汤科技4月也发布全新升级的日日新SenseNova5.0大模型。澎湃新闻报道,该模型采用混合专家架构(MoE),超10TBtokens训练,覆盖大量合成数据,推理时上下文窗口达200K左右,综合能力全面对标GPT-4Turbo。2024年5月9日7:30PM

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人