Pi AI从 LLM升级到Inflection-2.5 使其变得聪明而富有同情心

PiAI从LLM升级到Inflection-2.5使其变得聪明而富有同情心InflectionAI表示,在这次更新中,它在编码和数学等领域取得了长足进步,从而在行业基准测试中取得了更好的成绩。这次更新还让Pi具备了实时网络搜索的能力,因此它可以获得最新的信息。该公司表示,更新已经向用户推出,这使得用户情绪、参与度和留存率都得到了改善。对于没有尝试过它的人来说,它很像ChatGPT,甚至支持语音通话;不想使用该应用的人也可以通过WhatsApp、Instagram、Messenger和Telegram与人工智能聊天。在MMLU、GPQA、BIG-Bench-Hard、Mathematics、Coding和CommonSense基准测试中,Inflection-2.5稍微落后于GPT-4,但也只是稍稍落后,而与Inflection-1相比则取得了长足进步。您可以查看下面的结果:InflectionAI表示,尽管此次更新提高了智商,但其LLM的情商仍然很高,因此非常友好和平易近人。该公司还表示,它采用了非凡的安全标准。继Claude3系列模型Haiku、Sonnet和Opus发布之后,Inflection-2.5也紧随其后发布。这些模型与OpenAI的GPT-4不相上下,甚至更胜一筹。Google最新的Gemini型号也具有类似的性能。据称,Meta正在准备在七月左右发布Llama3LLM,它也很可能与GPT-4不相上下。由于大多数竞争对手都在追赶GPT-4,OpenAI可能会感到压力,不得不发布其模型的更新;GPT-4于2023年3月14日发布。了解更多:https://inflection.ai/inflection-2-5...PC版:https://www.cnbeta.com.tw/articles/soft/1422946.htm手机版:https://m.cnbeta.com.tw/view/1422946.htm

相关推荐

封面图片

LLM竞争白热化了,Inflection发布Inflection-2.5模型,他们称这是世界上最好的语言模型,Inflectio

LLM竞争白热化了,Inflection发布Inflection-2.5模型,他们称这是世界上最好的语言模型,Inflection-2.5现已向所有Pi用户开放。Inflection-2.5接近GPT-4的性能,但仅使用了40%的计算量用于训练。我们在编码和数学等智商领域取得了特别的进步。Pi现在还融入了世界一流的实时网络搜索功能,以确保用户获得高质量的突发新闻和最新信息。Inflection-1使用的训练FLOP约为GPT-4的4%,平均而言,在各种IQ导向的任务中,其表现约为GPT-4水平的72%。现在为Pi提供支持的Inflection-2.5,尽管只使用了40%的训练FLOP,但其平均性能却达到了GPT-4的94%以上。详细信息:

封面图片

OpenAI强敌出手:Inflection-2.5 训练计算量仅40%、性能直逼GPT-4

OpenAI强敌出手:Inflection-2.5训练计算量仅40%、性能直逼GPT-4让Pi聊天机器人比较Inflection-2.5与GPT-4试用直通车:https://pi.ai/talk一个月之内,GPT-4连迎三个强劲的新竞争对手:Gemini1.5Pro、Claude3Opus,以及最新登场的Infection-2.5。这意味着GPT-4独霸时代已经过去,大模型王者之战还有很多可能。在这场激烈的战事中,InflectionAI既年轻又锋芒毕露,成立刚满两年,由前DeepMind首席科学家KarénSimonyan、LinkedIn联合创始人ReidHoffman、DeepMind联合创始人MustafaSuleyman共同创办,2023年6月获得英伟达、微软等参投的13亿美元融资,估值达40亿美元(折合约287亿人民币),是当前全球第四大生成式AI独角兽。它是OpenAI的大语言模型劲敌之一,以“为每个人创造一个个性化的AI”为使命,2023年5月推出了一款具有同理心、乐于助人和安全的个性化AI聊天助手Pi,11月推出基础模型Inflection-2。与此同时,InflectionAI正在构建由22000万块H100GPU组成的世界最大AI计算集群。现在,InflectionAI进一步给Pi加料——新升级的Inflection-2.5有“世界级的智商”、“独特的善良”、“好奇的个性”,并具备4个主要亮点:1、在关键基准测试中与GPT-4并驾齐驱,并且使用40%的计算量来训练,与其他顶级基础模型相比训练效率优势显著。2、在编程、数学等STEM(科学、技术、工程、数学)领域进步显著。3、“世界级”实时网络搜索功能:确保用户能获得高质量、最新的新闻和信息,增强用户体验和交互的即时性。4、广泛可用性+显著满意度:对所有Pi用户开放,支持多平台访问,对用户情绪、参与度和留存率产生显著影响,加速了有机用户增长。继Anthropic后,又一家初创公司推出了性能强大、能与GPT-4一较高下的大语言模型,并在优化模型训练方法上大秀肌肉。这展现了创业团队在大模型竞赛中的潜力和冲劲,随着大模型性能不断升级,如何用更少计算资源训出更强模型,将是接下来产学界都重点探索的方向。01.用40%的计算量,训练出接近GPT-4的性能Inflection-1用了GPT-4训练FLOPs的约4%,在不同的智商导向任务中,平均性能达到GPT-4水平的大约72%。Inflection-2.5用了GPT-4训练FLOPs的40%,在不同的智商导向任务中,平均性能达到GPT-4的94%以上。Inflection-2.5在MMLU基准测试上的成绩相较Inflection-1进步明显,略低于GPT-4。MMLU基准测试衡量了从高中到专业难度的各种任务的性能。InflectionAI还根据GPQA钻石基准进行评估,这是一个极难的专家级基准。其测试还包括两种不同的STEM(科学、技术、工程、数学)考试的结果:匈牙利数学考试和物理GRE(物理研究生入学考试)的表现。在BIG-Bench-Hard(大语言模型难以解决的BIG-Bench问题的子集)上,Inflection-2.5性能比Inflection-1提高10%以上,接近GPT-4。在MT-Bench上评估模型后,InflectionAI意识到,在推理、数学、编程类别中,有很大一部分(接近25%)的示例具有不正确的参考解决方案或具有错误前提的问题。因此InflectionAI更正了这些示例,并发布了该版本的数据集。在评估这两个子集时,InflectionAI发现在正确修正的版本中,其模型更符合他们基于其他基准的期望。与Inflection-1相比,Inflection-2.5在数学和编程性能方面有了显著进步。下表是在MBPP+和HumanEval+两个编程基准上的评测结果对比。在HellaSwag和ARC-C常识和科学基准测试上进行评估,Inflection-2.5同样表现强劲。02.特别致谢微软Azure和CoreWeave,正构建世界最大AI集群上面所有的评估都是用现在为Pi提供动力的模型Inflection-2.5完成的,但是InflectionAI注意到,受web检索的影响(没有使用web检索的基准测试),少量提示词的结构以及其他生产端差异,用户体验可能会略有不同。这家独角兽企业还专门致谢了为其提供算力资源的合作伙伴Azure和CoreWeave。Azure是微软云计算服务,CoreWeave则是去年凭借英伟达的支持坐拥数万块芯片狂揽算力大单的GPU云服务黑马。2023年初,CoreWeave找到Inflection并为其提供几千张H100GPU。英伟达看中了这个组合的巨大潜力,先后向两家公司投资数亿美元,抬高了Coreweave的H100供货优先级。2023年6月,InflectionAI宣布与将与合作伙伴CoreWeave、英伟达一起,构建世界上最大的AI集群,包含22000个H100GPU。CoreWeave-InfectionAI超算的信息推测(图源:TheNextPlatform)就在宣布最大AI集群的一个月前,InflectionAI推出Pi聊天机器人,向OpenAI正式下战书。不同于ChatGPT等产品的“生产力工具”定位,Pi想做“个人AI”,成为用户24小时在线的数字朋友,更注重为用户带来友好、丰富的社交互动体验。Pi能记住与跨平台登录用户的100次对话,支持网页、APP、短信、社交平台等设备交互。相比其他AI聊天机器人,Pi可能在文本生成、代码生成等能力上不算出众,但在安全、同理心等特性上独树一帜。这也是为什么这家创企刚创办就从微软等公司处筹集2.25亿美元,一年后又拿到微软、英伟达、微软联合创始人比尔·盖茨、Alphabet前CEOEricSchmidt等的13亿美元融资,飞速成为全球最大的生成式AI独角兽之一。截至2023年年底,InflectionAI估值约为40亿美元,是全球第四大生成式AI独角兽,仅次于OpenAI、Anthropic、Character.AI。03.联创团队有钱有技术:曾创办DeepMind,曾投资OpenAI2022年3月成立的年轻AI团队,能赢得微软和英伟达两大巨头的青睐,与其创始团队密不可分。InflectionAI联合创始人ReidHoffman被称作“硅谷人脉王”,是硅谷最有名的天使投资人之一,他是全球最大专业社交网站LinkedIn的联合创始人,以及风险投资机构GreylockPartners的合伙人,曾是OpenAI的创始投资者。截至2023年5月,ReidHoffman和GreylockPartners已投资至少37家AI公司。左为MustafaSuleyman,右为ReidHoffman(图源:福布斯、BusinessInsider)另一位联合创始人MustafaSuleyman,2009年与几位合伙人共同创立DeepMind,并将研究重点放到AI在医疗健康和气候变化中的应用,但连年亏损压得Suleyman喘不过气。2014年,Google抛出橄榄枝,6亿美元将DeepMind收入麾下。背靠金主的DeepMind终于可以没有资金之忧地继续从事前沿研究,然而5年后,Suleyman却选择离开DeepMind,加入Google并担任AI产品管理和AI政策副总裁。背后原因,据说是由于一些同事曾抱怨他在工作上骚扰和欺凌同事。Suleyman也曾坦言,作为DeepMind联合创始人,他对员工的要求过于苛刻,有时他的管理风格并不具有建设性。2022年,他离开Google,创办InflectionAI并担任CEO,“希望与有远见和无所畏惧的创始人在一起”。第三位联合创始人是前DeepMind首席科学家KarénSimonyan,现任InflectionAI首席科学家。他是同代中成就突出的深度学习研究者之一,其出版物(包括5篇在学术顶级期刊Nature和Science上的论文)吸引了超过18万次引用。KarénSimonyan部分高引用量学术成果KarénSimonyan在牛津大学完成了博士学位和博士后学位,期间设计了VGGNet图像处理框架并在赢得了知名的ImageNet挑战赛。随后他创办VisionFactoryAI公司,将VGGNet商业化。这家公司很快就被DeepMind收购,karsamyn的身份则变成了DeepMind首席科学家。任职DeepMind首席科学家期间,karsamyn建立并领导了大规模深度学习团队,开发了基于真实世界数据的大型AI模型。他在AlphaZero、AlphaFold、WaveNet、BigGAN和Flamingo等AI突破中均发挥了关键作用。04.结语:团队不到50人,Pi每日聊天消息数超40亿据外媒Axios援引Suleyman的话,当前InflectionAI团队拥有70名员工。据InflectionAI透露,其100万日活跃用户和600万月活跃用户与Pi聊天机器人往来了超过40亿条消息。与Pi的平均谈话时间为33分钟,每天有1/10的谈话时间超过1小时。在任何一周与Pi交谈的用户中,约...PC版:https://www.cnbeta.com.tw/articles/soft/1422897.htm手机版:https://m.cnbeta.com.tw/view/1422897.htm

封面图片

Inflection AI 推出 Pi 聊天机器人新模型,几乎匹配 GPT-4

近日,由DeepMind联合创始人MustafaSuleyman和LinkedIn联合创始人ReidHoffman创立的位于帕洛阿尔托的初创公司InflectionAI宣布了一个名为Inflection-2.5的新模型。Inflection-2.5的性能显着优于该公司最初的Inflection-1,并且几乎与OpenAI的GPT-4模型相匹配。此外,与GPT-4一样,该模型还集成了实时网络搜索功能,为用户提供最新的时事信息。鉴于该公司已将Pi助手定位为每个人的人工智能,这将是一次重大升级。就基准测试性能而言,升级后的模型比Inflection1全面改进,并接近GPT-4,尽管仍然落后。目前,Pi聊天机器人可在Android、iOS、Web和桌面应用程序上使用。Pi使用地址:https://pi.ai/talkvia匿名标签:#Inflection#AI频道:@GodlyNews1投稿:@GodlyNewsBot

封面图片

OpenAI强化GPT-4并使其更加便宜

OpenAI强化GPT-4并使其更加便宜该公司在周一举行的首次开发者大会上宣布,目前通过API预览版提供的GPT-4Turbo已对2023年4月之前的信息进行了培训。3月份发布的GPT-4早期版本只能学习到2021年9月之前的数据。OpenAI计划在未来几周内发布可量产的Turbo模型,但没有给出确切日期。GPT-4Turbo还能"看到"更多数据,其上下文窗口为128K,OpenAI称这"相当于在单个提示符中显示300多页文本"。一般来说,更大的上下文窗口可以让GPT等大型语言模型理解更多问题,并提供更深思熟虑的回答。在此之前,OpenAI发布了两个版本的GPT-4,一个版本的上下文窗口只有8K,另一个版本为32K。OpenAI表示,GPT-4Turbo对开发者来说运行成本更低。与GPT-4的0.03美元相比,每1000个标记(LLM阅读文本或代码的基本单位)的输入成本仅为0.01美元。每输出1000个单位的成本为0.03美元。总体而言,OpenAI表示新版GPT-4比旧版便宜三倍。最新版本的GPT-4仍将接受图像提示、文本到语音请求,并集成了10月份首次发布的DALL-E3功能。该公司表示,GPT-4Turbo的改进意味着用户可以在一次提示中要求模型执行更复杂的任务。用户甚至可以让GPT-4Turbo特别使用自己选择的编程语言来获取结果,比如XML或JSON编码。使用GPT-3.5Turbo模型的公司还将看到上下文窗口、功能和价格方面的改进。它的默认上下文窗口为16K,功能更新与GPT-4Turbo相同。GPT-3.5Turbo的输入费用为0.01美元,输出费用为0.002美元。OpenAI于3月发布了GPT-3.5Turbo,并称其为非聊天用途的最佳模型。8月,该公司又发布了一个可以微调的版本。除了改进旗舰模型,OpenAI还宣布效仿微软和Google,通过一项名为CopyrightShield的计划为企业用户提供版权赔偿。该公司在一份声明中说:"如果你面临有关版权侵权的法律索赔,我们现在将出面为我们的客户辩护,并支付由此产生的费用。"版权保护计划将涵盖ChatGPTEnterprise和OpenAI开发者平台的一般可用功能。Google表示,如果使用其嵌入式生成式人工智能功能的客户被起诉侵犯版权,公司将承担法律责任。微软也为其Copilot人工智能产品的企业用户提供了同样的保护。...PC版:https://www.cnbeta.com.tw/articles/soft/1394925.htm手机版:https://m.cnbeta.com.tw/view/1394925.htm

封面图片

斯坦福2024 AI报告:中国AI专利全球第一 顶级AI模型主要来自美国

斯坦福2024AI报告:中国AI专利全球第一顶级AI模型主要来自美国StanfordHAI官方介绍道,‘这是我们迄今为止最全面的报告,而且是在人工智能对社会的影响从未如此明显的重要时刻发布的。’StanfordHAI研究项目主任VanessaParli表示,‘我认为最令人兴奋的人工智能研究优势是将这些大型语言模型与机器人或智能体(agent)相结合,这标志着机器人在现实世界中更有效地工作迈出了重要一步。’附上《2024年人工智能指数报告》下载地址:https://aiindex.stanford.edu/wp-content/uploads/2024/04/HAI_AI-Index-Report-2024.pdf与往年不同,StanfordHAI今年扩大了研究范围,更广泛地涵盖了人工智能的技术进步、公众对该技术的看法等基本趋势。新报告揭示了2023年人工智能行业的10大主要趋势:1.人工智能在某些任务上胜过人类,但并非在所有任务上人工智能已在多项基准测试中超越人类,包括在图像分类、视觉推理和英语理解方面。然而,它在竞赛级数学、视觉常识推理和规划等更复杂的任务上依然落后于人类。2.产业界继续主导人工智能前沿研究2023年,产业界产生了51个著名的机器学习模型,而学术界只贡献了15个。2023年,产学合作还产生了21个著名模型,创下新高。此外,108个新发布的基础模型来自工业界,28个来自学术界。3.前沿模型变得更加昂贵根据AIIndex的估算,最先进的人工智能模型的训练成本已经达到了前所未有的水平。例如,OpenAI的GPT-4估计使用了价值7800万美元的计算资源进行训练,而Google的GeminiUltra的计算成本则高达1.91亿美元。相比之下,几年前发布的一些最先进的模型,即原始transformer模型(2017年)和RoBERTaLarge(2019年),训练成本分别约为900美元和16万美元。4.美国成为顶级人工智能模型的主要来源国2023年,61个著名的人工智能模型源自美国的机构,超过欧盟的21个和中国的15个。美国也仍然是人工智能投资的首选之地。2023年,美国在人工智能领域的私人投资总额为672亿美元,是中国的近9倍。然而,中国依然是美国最大的竞争对手,中国的机器人安装量居世界首位;同样,世界上大多数人工智能专利(61%)都来自中国。5.严重缺乏对LLM责任的可靠和标准化评估AIIndex的最新研究显示,负责任的人工智能严重缺乏标准化。包括OpenAI、Google和Anthropic在内的领先开发商主要根据不同的负责任人工智能基准测试他们的模型。这种做法使系统地比较顶级人工智能模型的风险和局限性的工作变得更加复杂。6.生成式人工智能投资激增尽管去年人工智能私人投资整体下降,但对生成式人工智能的投资激增,比2022年(约30亿美元)增长了近八倍,达到252亿美元。生成式人工智能领域的主要参与者,包括OpenAI、Anthropic、HuggingFace和Inflection,都获得了一轮可观的融资。7.数据显示,人工智能让打工人更有生产力,工作质量更高2023年,多项研究评估了人工智能对劳动力的影响,表明人工智能可以让打工人更快地完成任务,并提高他们的产出质量。这些研究还表明,人工智能有可能缩小低技能和高技能工人之间的技能差距。还有一些研究警告说,在没有适当监督的情况下使用人工智能可能会起到负面作用。8.得益于人工智能,科学进步进一步加速2022年,人工智能开始推动科学发现。然而,2023年,与科学相关的更重要的人工智能应用启动——使算法排序更高效的AlphaDev、促进材料发现过程的GNoME、可在一分钟内提供极其准确的10天天气预报的GraphCast、成功对7100万种可能的错义突变中的约89%进行分类的AlphaMissence。如今,人工智能现在可以完成人类难以完成的、但对解决一些最复杂的科学问题至关重要的粗暴计算。在医疗方面,新的研究表明,医生可以利用人工智能更好地诊断乳腺癌、解读X射线和检测致命的癌症。9.美国的人工智能法规数量急剧增加2023年,全球立法程序中有2175次提及人工智能,几乎是上一年的两倍。美国人工智能相关法规的数量在过去一年大幅增加。2023年,与人工智能相关的法规有25项,而2016年只有1项。仅去年一年,人工智能相关法规的总数就增长了56.3%。其中一些法规包括生成式人工智能材料的版权指南和网络安全风险管理框架。10.人们对人工智能的潜在影响有了更深刻的认识,同时也更焦虑来自市场研究公司Ipsos的一项调查显示,在过去一年中,认为人工智能将在未来3-5年内极大地影响他们生活的人,比例从60%上升到66%。此外,52%的人对人工智能产品和服务表示焦虑,比2022年上升了13个百分点。在美国,来自皮尤研究中心(Pew)的数据显示,52%的美国人表示对人工智能的担忧多于兴奋,这一比例比2022年的38%有所上升。附:来自AIIndex联合主任RayPerrault的一封信十年前,世界上最好的人工智能系统也无法以人类的水平对图像中的物体进行分类。人工智能在语言理解方面举步维艰,也无法解决数学问题。如今,人工智能系统在标准基准上的表现经常超过人类。2023年,人工智能进步加速。GPT-4、Gemini和Claude3等先进模型展示出了令人印象深刻的多模态能力:它们可以生成数十种语言的流畅文本,处理音频,甚至可以解释备忘录。随着人工智能的进步,它也越来越多地进入我们的生活。公司竞相打造基于人工智能的产品,普通大众也越来越多地使用人工智能。但是,当前的人工智能技术仍然存在重大问题。它无法可靠地处理事实、进行复杂的推理或解释其结论。人工智能面临两个相互关联的未来。第一个,技术不断改进,应用日益广泛,对生产力和就业产生重大影响。人工智能的用途有好有坏。第二个,人工智能的应用受到技术局限的制约。无论是哪一种,政府都越来越关注。政府正在积极参与,鼓励人工智能的发展,比如资助大学研发和激励私人投资。政府还致力于管理潜在的不利因素,如对就业的影响、隐私问题、错误信息和知识产权。在技术方面,今年的AIIndex报告称,2023年全球发布的新大型语言模型数量比上一年翻了一番。三分之二的模型是开源的,但性能最高的模型来自拥有封闭系统的行业参与者。GeminiUltra成为首个在大规模多任务语言理解(MMLU)基准上达到人类水平的LLM;自去年以来,模型在该基准上的性能表现提高了15个百分点。此外,GPT-4在综合语言模型整体评估(HELM)基准上取得了令人印象深刻的0.97平均胜率分数。虽然全球对人工智能的私人投资连续第二年减少,但对生成式人工智能的投资却急剧上升。财富500强企业财报电话会议中提及人工智能的次数比以往任何时候都多,而且新的研究表明,人工智能明显提高了打工人的生产率。在政策制定方面,全球在立法程序中提及人工智能的次数前所未有。美国监管机构在2023年通过的人工智能相关法规比以往任何时候都多。尽管如此,许多人仍对人工智能生成深度伪造等能力表示担忧。公众对人工智能有了更多的认识,研究表明,他们的反应也是焦虑的。...PC版:https://www.cnbeta.com.tw/articles/soft/1427593.htm手机版:https://m.cnbeta.com.tw/view/1427593.htm

封面图片

阿里版ChatGPT上线,谁会是大模型生态的下一个卷王?

阿里版ChatGPT上线,谁会是大模型生态的下一个卷王?在通义千问上线测试之前,阿里云已经对该款产品进行过一波预热。4月4日,国内脱口秀演员鸟鸟就在微博秀出了“鸟鸟分鸟”的聊天AI分身,并与这个数字分身进行了多轮对话。鸟鸟在视频中介绍称,该分身采用了阿里的类ChatGPT语音助手,能够模仿她的音色、语气以及文本风格。测试版的通义千问与目前市面上的大型语言模型(LLM)产品的界面类似,都是左边对话列表,右边对话窗口的布局,对话也是采用一问一答的形式。通义千问在单纯的对话模式之上,制作了9款称为“百宝袋”的小应用。答题一般,但似乎更好玩相比当前上线的大模型应用,通义千问多了一个“百宝袋”功能。通义千问的“百宝袋”中一共有9款小应用。其中包括,效率类:写提纲、SWOT分析、商品描述生成;生活类:会放飞的菜谱、小学生作文、然后呢;娱乐类:彩虹屁专家、写情书、为你写诗。设定场景对于普通用户来说是一个非常友好的体验类功能,给用户提供了更强的可玩性。“我们曾经对ChatGPT的测试用户做过问题收集,一开始用户并不知道怎么对ChatGPT提问,多数问题都是‘你是谁?OpenAI是谁?’。”某国内大模型研发机构专家告诉虎嗅,普通用户玩ChatGPT的上手速度很慢,使用之初很难感受到基于大模型的对话机器人与传统NLP有什么差别,因此在之后的使用中,很难保持热度——用一段时间就没什么问题可问了。而像通义千问这样,提供了设定场景的对话,可以在一定程度上提高用户的试玩兴趣,保持使用粘性。“留住用户对一款大型语言模型来说非常重要,用户的真实问答和反馈,可以说是大模型生存发展的根基。”前述大模型专家对虎嗅说,对于大模型,算法的可延展性很高,但这仍需要基于足够的数据进行优化,只要有大量不断的数据输入,算法是可以持续改进的。OpenAI的算法优势最为明显,这源自于其先发优势,真正壁垒实际上是GPT前三个版本的持续迭代。在ChatGPT上线后的3个月中,OpenAI就根据用户反馈的数据对ChatGPT进行了两次升级。对于国产大型语言模型来说,现阶段的研发工作固然重要,但留住真实的测试用户,收集他们的反馈数据,对于大模型的迭代和后续的研发工作来说,更加关键。大模型只是基础,生态为王事实上,应用不仅是现阶段积累用户的手段,更是大模型的未来。在ChatGPT的插件功能上线之后,AI大模型的商业化路线,在公众的视野中,开始逐渐清晰:AI通用大模型可能就是未来的Window、iOS、Android。无论通义千问还是ChatGPT,任何一款问答机器人产品都只是它背后的大型语言模型能力的体现,单纯的操作系统是没法赚钱的,生态才是最关键的。真正在iOS和Android上创造价值,赚到钱的还是抖音、美团、滴滴这样的产品以及它们背后广阔的应用场景。对于通义千问未来的应用方向,虎嗅从阿里内部人士处得到的回答是“皆有可能”。该人士表示,阿里巴巴集团的业务范围很广,数字化产品线丰富,通义千问的AI能力在很多场景和产品中均有施展空间。与海外先行者微软、Google相比,阿里巴巴的业务不仅覆盖了互联网、软件服务,还包括了大量的在线购物、生活服务、物流,以及文娱产业。“淘宝、天猫的客服,肯定是AI大模型最直接的应用场景。”某淘宝店主告诉虎嗅,目前淘宝的AI客服对于店家和卖家来说,体验都很一般。免费的机器人明显“不太聪明”,高级的付费机器人对于很多中小型卖家来说,不仅操作复杂,而且还会多出一笔“不必要的开支”。在这方面,ChatGPT类的大模型产品明显可以提升体验,不过在成本方面或许还有长期优化的空间。目前,国外已经有一些基于ChatGPT等LLM模型,给网站构建聊天机器人的服务上线,例如一家名为Chatbase的网站。“办公软件和SaaS行业现在是最有动力‘卷’大模型的行业,毕竟微软已经公布了GPT-4版本的MicrosoftCopilot,现在不追上,以后可能就连追的机会都没有了。”某阿里云研发人员对虎嗅表示,钉钉在SaaS办公软件行业的市场份额在国内相当领先,这也给应用落地提供了很强的市场基础,“目前国内用户试用欲望很强,但是它们对产品要求也很高。”达摩院研发的通义千问最先实践的场景很可能会直线对接在阿里云的业务当中,钉钉无疑是最佳落地场景之一。在3月28日,阿里巴巴官宣分设六大业务集团,并计划各自独立上市,这或许能促进通义千问在阿里云业务中更快推广。通义千问,源自阿里达摩院在2022年9月发布的“通义”大模型。而阿里对大模型的研究可以追溯到2019年的PLUG,以及10万亿参数的多模态大模型M6。随着OpenAI发布ChatGPT,微软、Google、Meta等硅谷互联网巨头纷纷宣布加入大型语言模型战局,中国厂商也不甘示弱,密切跟进。这些大厂们都在竞相开发自己的大模型,试图在大模型研发中争夺生态的主导权。在这样的背景下,如何打造大模型的生态成了互联网大厂需要考虑的问题。如今,各家大厂都在秀肌肉。微软与OpenAI直接达成合作,Google公布了LAMDA、PaLM等大模型和聊天机器人Bard,Meta发布了开源大模型LLaMA系列并在多个测试中取得了出色成绩。国内厂商如阿里、百度和华为也在加紧布局,阿里达摩院发布通义千问之前,百度刚刚推出了基于文心大模型的聊天机器人“文心一言”。4月8日,华为云人工智能领域首席科学家田奇在人工智能学会的人工智能大模型技术高峰论坛上,更新了一些盘古大模型的最新进展,并展示了盘古大模型在多个专业领域的应用场景,以及模型能力。在此之前不久,华为云盘古AI大模型中的NLP大模型、CV大模型、多模态大模型以及科学计算大模型均已被标记为即将上线状态。目前,国外的深度学习框架如TensorFlow(Google开发)、PyTorch(Facebook开发)、Keras(基于TensorFlow或Theano的高级API)和MXNet(亚马逊开发)已经聚拢了一众开发者。国内,百度有飞桨PaddlePaddle社区,阿里有魔搭ModelScope社区,华为有升思MindSpore社区。围绕这些社区,各大厂商也在打造自己的开发者生态。谁能率先在生态上占据有利地位,就能够在这场AI之争中拔得头筹,这不仅意味着应用,也意味着拥有更多的训练数据。“中国的AI大模型,先不管好不好用,先要有。”一位AI芯片企业创始人对虎嗅说。...PC版:https://www.cnbeta.com.tw/articles/soft/1353727.htm手机版:https://m.cnbeta.com.tw/view/1353727.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人