Meta 发布 Llama 3 —— 迄今最强大的公开语言模型

Meta发布Llama3——迄今最强大的公开语言模型Llama3的8B和70B型号拥有8K上下文窗口,经过15Ttokens预训练,训练数据比Llama2大了七倍,并且包含四倍多的代码。其中Llama3-8B的性能就已优于Llama2-70B。人类择优测试中Llama3-70B远胜于Claude3Sonnet、MistralMedium和GPT-3.5。Llama3的多模态和更大的版本将在数月内推出,其中最为强大的Llama3-400B+仍在训练中,三天前的基准测试结果已经持平Claude3Opus超过GeminiPro1.5,仅数学落后最先进的GPT-4-2024-04-09。线索:@ZaiHuabot投稿:@TNSubmbot频道:@TestFlightCN

相关推荐

封面图片

4050亿参数!Meta或将7月23日发布迄今最强大Llama 3模型

4050亿参数!Meta或将7月23日发布迄今最强大Llama3模型不到两周后,我们可能就会见到迄今为止最强大的开源Llama3模型。美东时间7月12日周五,媒体援引一名MetaPlatforms的员工消息称,Meta计划7月23日发布Llama3模型的最大版本。这一最新版模型将拥有4050亿参数,也将是多模态模型,这意味着它将能够理解和生成图像和文本。Meta公司拒绝对上述消息置评。周五盘中,低开的Meta股价跌幅收窄,盘初曾跌3.6%,午盘跌不足2%,仍将在周四大幅回落超4%后连跌两日,或将刷新6月28日以来收盘低位。标签:#Meta#Llama3#AI频道:@GodlyNews1投稿:@GodlyNewsBot

封面图片

Meta发布Llama 3 称其是目前最好的开放式模型之一

Meta发布Llama3称其是目前最好的开放式模型之一Meta称,与上一代Llama模型Llama28B和Llama270B相比,新模型Llama38B(包含80亿个参数)和Llama370B(包含700亿个参数)在性能上有了"重大飞跃"。(参数从本质上定义了人工智能模型处理问题的能力,比如分析和生成文本;一般来说,参数数越高的模型比参数数越低的模型能力越强)。事实上,Meta表示,就各自的参数数而言,Llama38B和Llama370B是在两个定制的24,000GPU集群上训练出来的,是当今性能最好的生成式人工智能模型之一。话说得很满,那么,Meta公司是如何证明这一点的呢?该公司指出了Llama3模型在MMLU(用于测量知识)、ARC(用于测量技能习得)和DROP(用于测试模型对文本块的推理能力)等流行的人工智能基准上的得分。正如我们之前所写,这些基准的实用性和有效性还有待商榷。但无论好坏,它们仍然是Meta等人工智能玩家评估其模型的少数标准化方法之一。在至少九项基准测试中,Llama38B优于其他开源模型,如Mistral的Mistral7B和Google的Gemma7B,这两个模型都包含70亿个参数:这些基准包括:MMLU、ARC、DROP、GPQA(一组生物、物理和化学相关问题)、HumanEval(代码生成测试)、GSM-8K(数学单词问题)、MATH(另一种数学基准)、AGIEval(解决问题测试集)和BIG-BenchHard(常识推理评估)。现在,Mistral7B和Gemma7B并不完全处于最前沿(Mistral7B于去年9月发布),在Meta引用的一些基准测试中,Llama38B的得分仅比这两款产品高几个百分点。但Meta还声称,参数数更多的Llama3型号Llama370B与旗舰生成式人工智能模型(包括GoogleGemini系列的最新产品Gemini1.5Pro)相比也具有竞争力。图片来源:MetaLlama370B在MMLU、HumanEval和GSM-8K三项基准测试中均优于Gemini1.5Pro,而且,虽然它无法与Anthropic性能最强的Claude3Opus相媲美,但Llama370B在五项基准测试(MMLU、GPQA、HumanEval、GSM-8K和MATH)中的得分均优于Claude3系列中性能最弱的Claude3Sonnet。值得注意的是,Meta还开发了自己的测试集,涵盖了从编码、创作到推理、总结等各种用例,令人惊喜的是,Llama370B在与MistralMedium模型、OpenAI的GPT-3.5和ClaudeSonnet的竞争中脱颖而出!-Llama370B在与Mistral的MistralMedium模型、OpenAI的GPT-3.5和ClaudeSonnet的竞争中脱颖而出。Meta表示,为了保持客观性,它禁止其建模团队访问这组数据,但很明显,鉴于Meta自己设计了这项测试,我们必须对结果持谨慎态度。在质量方面,Meta表示,新Llama模型的用户可以期待更高的"可操控性"、更低的拒绝回答问题的可能性,以及更高的琐碎问题、与历史和STEM领域(如工程和科学)相关的问题和一般编码建议的准确性。这在一定程度上要归功于一个更大的数据集:一个由15万亿个标记组成的集合,或者说一个令人难以置信的750,000,000,000单词,是Llama2训练集的七倍。这些数据从何而来?Meta公司不愿透露,只表示数据来自"公开来源",包含的代码数量是Llama2训练数据集的四倍,其中5%包含非英语数据(约30种语言),以提高非英语语言的性能。Meta还表示,它使用了合成数据(即人工智能生成的数据)来创建较长的文档,供Llama3模型训练使用,由于这种方法存在潜在的性能缺陷,因此颇受争议。Meta在一篇博文中写道:"虽然我们今天发布的模型仅针对英语输出进行了微调,但数据多样性的增加有助于模型更好地识别细微差别和模式,并在各种任务中表现出色。"许多生成式人工智能供应商将训练数据视为一种竞争优势,因此对训练数据和相关信息守口如瓶。但是,训练数据的细节也是知识产权相关诉讼的潜在来源,这是另一个不愿意透露太多信息的原因。最近的报道显示,Meta公司为了追赶人工智能竞争对手的步伐,曾一度不顾公司律师的警告,将受版权保护的电子书用于人工智能训练;包括喜剧演员莎拉-西尔弗曼(SarahSilverman)在内的作者正在对Meta和OpenAI提起诉讼,指控这两家公司未经授权使用受版权保护的数据进行训练。那么,生成式人工智能模型(包括Llama2)的另外两个常见问题--毒性和偏差又是怎么回事呢?Llama3是否在这些方面有所改进?Meta声称:是的。Meta表示,公司开发了新的数据过滤管道,以提高模型训练数据的质量,并更新了一对生成式人工智能安全套件LlamaGuard和CybersecEval,以防止Llama3模型和其他模型的滥用和不必要的文本生成。该公司还发布了一款新工具CodeShield,旨在检测生成式人工智能模型中可能引入安全漏洞的代码。不过,过滤并非万无一失,LlamaGuard、CybersecEval和CodeShield等工具也只能做到这一步。我们需要进一步观察Llama3型号在实际运用时的表现如何,包括学术界对其他基准的测试。Meta公司表示,Llama3模型现在已经可以下载,并在Facebook、Instagram、WhatsApp、Messenger和网络上为Meta公司的Meta人工智能助手提供支持,不久将以托管形式在各种云平台上托管,包括AWS、Databricks、GoogleCloud、HuggingFace、Kaggle、IBM的WatsonX、MicrosoftAzure、NVIDIA的NIM和Snowflake。未来,还将提供针对AMD、AWS、戴尔、英特尔、NVIDIA和高通硬件优化的模型版本。而且,功能更强大的型号即将问世。Meta表示,它目前正在训练的Llama3模型参数超过4000亿个--这些模型能够"用多种语言交流"、接收更多数据、理解图像和其他模式以及文本,这将使Llama3系列与HuggingFace的Idefics2等公开发布的版本保持一致。"我们近期的目标是让Llama3成为多语言、多模态、具有更长上下文的产品,并继续提高推理和编码等核心(大型语言模型)功能的整体性能,"Meta在一篇博文中写道。"还有很多事情要做"。...PC版:https://www.cnbeta.com.tw/articles/soft/1427836.htm手机版:https://m.cnbeta.com.tw/view/1427836.htm

封面图片

Meta 发布 Llama 3 开源模型

Meta发布Llama3开源模型Meta发布了其Llama系列开源生成式AI模型的最新成员:Llama3。该公司已经开源了其新Llama3系列中的两种模型,其余模型将在未指定的未来日期推出。Meta称,新模型Llama38B和Llama370B与上一代Llama模型Llama28B和Llama270B相比,在性能方面实现了“重大飞跃”,是目前性能最好的生成式AI模型之一。——

封面图片

最强开源大模型!Llama 3下周“小试牛刀”?

最强开源大模型!Llama3下周“小试牛刀”?当地时间周一,科技媒体TheInformation援引一位Meta员工消息报道称,该公司计划在下周推出两个小型的Llama3大语言模型(LLM),作为夏季推出正式版Llama3的先行版本。这两个小模型的发布,预计将为Llama3的正式亮相进行铺垫。Meta在去年7月份发布了Llama2,此后,包括谷歌、马斯克旗下的xAI与Mistral等在内的数家公司发布了开源的大语言模型,竞争十分激烈。Llama3直接对标OpenAI的GPT-4,后者已经成为一个强大的多模态模型,不仅能够处理更长的文本,还支持图像输入。报道称,正式版Llama3也将支持多模态处理,即同时理解和生成文本及图片;而先行推出的两个小版本则不具备这一能力。标签:#Meta#Llama#AI频道:@GodlyNews1投稿:@GodlyNewsBot

封面图片

Meta 已经在训练 Llama 3 更强大的继任者

Meta已经在训练Llama3更强大的继任者Meta公司首席人工智能科学家杨立昆在麻省理工学院的ImaginationinAction会议上透露,4月18日发布的开源Llama3人工智能模型仅仅只是开始。该公司正在酝酿一项更加雄心勃勃的计划,可以重新定义人工智能格局的新模型。他在会上讨论了Meta正在进行的人工智能工作。他表示,Meta正在积极研究更大的模型,目前正在训练的最雄心勃勃的模型拥有超过4000亿个参数。虽然这款强大产品的发布时间表仍不确定,但杨立昆的声明强调了Meta致力于突破人工智能界限的承诺。——、

封面图片

Meta称其LLaMA语言模型比OpenAI的GPT-3更有前景

Meta称其LLaMA语言模型比OpenAI的GPT-3更有前景LLaMA有多种尺寸,从70亿个参数到650亿个参数不等。Meta方面称,尽管LLaMA-13B的尺寸较小,而且少了1620亿个参数,但“在大多数基准测试中”表现优于OpenAI的GPT-3。据报道,最大的模型LLaMA-65B与DeepMind的Chinchilla70B和PaLM-540B等模型可相提并论。LLaMA是一个基础模型:它在大量未标记数据上进行训练,这使得研究人员更容易针对特定任务微调模型。由于模型更小,因此更容易针对用例进行再训练。LLaMA不仅仅是使用英语文本构建的。Meta使用20种使用拉丁语或西里尔语脚本的语言训练其模型。然而,大多数训练数据都是英语,因此模型性能更好。Meta的研究人员声称,由于模型的大小,对当前大型语言模型的访问受到限制。Meta认为“这种受限访问限制了研究人员理解这些大型语言模型如何工作以及为何工作的能力,阻碍了提高其稳健性和解决已知问题(例如偏见、侮辱和产生错误信息的可能性)的努力”。除了使模型更小之外,Meta还试图让LLaMA更易于访问,包括在非商业许可下发布它。对各种LLaMA模型的访问权限只会根据具体情况授予学术研究人员,例如隶属于政府、民间组织和学术界的研究人员。与ChatGPT一样,LLaMA与其他语言模型一样存在生成有偏见或不准确的信息。Meta的LLaMA声明承认了这一点,并表示通过共享模型,研究人员可以“更轻松地测试新方法来限制或消除大型语言模型中的这些问题。”Meta在去年5月曾推出一款面向研究人员的名为OPT-175B的大型语言模型,去年年底还发布过另一款模型Galactica,但后者被发现经常分享有偏见或不准确的信息,在48小时内被迅速下架。...PC版:https://www.cnbeta.com.tw/articles/soft/1346899.htm手机版:https://m.cnbeta.com.tw/view/1346899.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人