:首个中文微调LLaMa 3模型,基于 Meta-Llama-3-8B-Instruct 模型,使用 ORPO 对其进行了微调,

None

相关推荐

封面图片

Meta发布其最新的语言模型Llama 3

封面图片

Meta 确认其 Llama 3 开源大型语言模型将于下个月推出

Meta 确认其 Llama 3 开源大型语言模型将于下个月推出 在4月9日于伦敦举行的一次活动中,Meta 确认计划在下个月内首次发布 Llama 3,这是用于驱动生成式人工智能助手的下一代大型语言模型。Meta 全球事务总裁 Nick Clegg 说:“在接下来的一个月内,实际上更短,我们希望开始推出我们的新一代模型套件 Llama 3。”他的描述听起来像是要发布该产品的几个不同迭代或版本。“今年[发布]的不同版本,将有许多不同的模型具有不同的功能,而且很快就会开始。”Meta 首席产品官 Chris Cox 补充说,该计划将通过 Llama 3 为 Meta 的多种产品提供动力。

封面图片

Meta确认其Llama 3开源大语言模型将于下个月推出

Meta确认其Llama 3开源大语言模型将于下个月推出 Meta 公司全球事务总裁尼克-克莱格(Nick Clegg)说:"我们希望在下个月内,甚至更短的时间内,开始推出我们新的下一代基础模型套件 Llama 3。"他的描述听起来像是要发布该产品的几个不同迭代或版本。"今年内,我们将发布一系列具有不同功能、不同通用性的模型,很快就会开始发布。"Meta 首席产品官 Chris Cox 补充说,计划用 Llama 3 支持 Meta 的多个产品。一年多前,OpenAI 推出了 ChatGPT,并将人工智能生成式问答变成了日常的主流体验,这让 Meta 和Google等其他大型科技公司措手不及。Meta 公司在人工智能方面基本上采取了非常谨慎的态度,但这并没有得到公众的认可,以前版本的 Llama 被批评为能力过于有限。(Llama 2于 2023 年 7 月公开发布)。第一版 Llama 并未对外发布,但仍在网上泄露)。与前几代产品相比,Llama 3 的功能更强大,不仅能更准确地回答问题,还能回答更广泛的问题,其中可能包括更具争议性的话题。该公司希望这将使产品受到用户的欢迎。"随着时间的推移,我们的目标是让由 Llama 驱动的 Meta AI 成为世界上最有用的助手,"人工智能研究副总裁 Joelle Pineau 说。"要达到这个目标,还有相当多的工作要做。"该公司没有谈及《Llama 3》中使用的参数的大小,也没有提供它将如何工作的任何演示。预计它将拥有约 1400 亿个参数,而最大的 Llama 2 型号只有 700 亿个参数。最值得注意的是,Meta 的 Llama 系列是作为开源产品构建的,代表了一种不同的哲学方法,即人工智能作为一种更广泛的技术应如何发展。与专有模式相比,Meta 希望通过这种方式获得更多开发者的青睐。但 Meta 似乎也在谨慎行事,尤其是在文本生成之外的其他生成式人工智能方面。皮诺说,公司尚未发布图像生成工具 Emu。考克斯说:"延迟、安全性和易用性都非常重要,只有这样才能生成令你自豪的图像,并代表你的创意背景。"具有讽刺意味的是,或者可以说是意料之中的,即使在 Meta 公司努力推出 Llama 3 的同时,公司内部也有一些对生成式人工智能持怀疑态度的重要人士。兼任 Meta 首席人工智能科学家的著名人工智能学者 Yann LeCun 对生成式人工智能的整体局限性进行了抨击,并表示他将赌注押在生成式人工智能之后。他预测这将是联合嵌入式预测架构(JEPA),这是一种训练模型和产生结果的不同方法,Meta 公司一直在使用这种方法在图像生成领域构建更准确的预测性人工智能。"人工智能的未来是 JEPA。它不是生成式人工智能,"他说。"我们得给克里斯的产品部门改个名字"。 ... PC版: 手机版:

封面图片

Meta在其App搜索栏中添加了由基于Llama 3模型的AI机器人

Meta在其App搜索栏中添加了由基于Llama 3模型的AI机器人 此外,公司还推出了一个新的meta.ai网站,供用户访问聊天机器人。这一消息凸显了Meta公司在当前消费者热衷于使用人工智能生成工具的背景下,努力确立自己的地位。马克-扎克伯格(Mark Zuckerberg)追随市场上其他流行服务(如 OpenAI 的服务),今天声称 Meta AI 可能是"你可以自由使用的最智能的人工智能助手"。Meta去年首次在美国推出了 Meta AI。现在,它正在澳大利亚、加拿大、加纳、牙买加、马拉维、新西兰、尼日利亚、巴基斯坦 、新加坡、南非、乌干达、赞比亚和津巴布韦等十多个国家推广英语聊天机器人 。该公司上周开始在印度和尼日利亚等国测试Meta AI,但值得注意的是,这些国家没有出现在今天的公告中。Meta 表示,它计划在印度保持 Meta AI 的测试模式。"我们将继续从印度的用户测试中学习。正如我们对许多人工智能产品和功能所做的那样,我们会在不同阶段和有限的范围内对它们进行公开测试,"该公司发言人在一份声明中说。用户已经可以向 Meta AI 咨询写作或食谱建议。现在,他们还可以询问由Google和必应提供的网络相关结果。该公司表示,图像生成的速度也在加快。此外,用户还可以要求 Meta AI 为图像制作动画,或将图像转化为 GIF。用户可以在输入时看到人工智能工具实时修改图片。该公司还致力于提高人工智能生成的照片的图像质量。人工智能驱动的图像生成工具一直不擅长拼写单词。Meta 声称,它的新模型在这方面也有所改进。Meta 采用的方法是在尽可能多的地方提供 Meta AI。它在搜索栏、个人和群组聊天中,甚至在 Feed 中都提供了机器人。用户可以提出与各自 Facebook feed 中的帖子相关的问题。例如,如果你看到一张极光的照片,就可以向 Meta AI 提出建议,询问什么是去冰岛看北极光的最佳时间。Meta AI 已经可以在雷朋智能眼镜上使用,该公司表示很快也将在 Meta Quest 头衔上使用。在许多地方使用人工智能也有其弊端。具体来说,人工智能模型可能会产生"幻觉",做出随机的、通常是无意义的回应,因此在多个平台上使用人工智能可能会成为内容审核的噩梦。相关文章:Meta发布Llama 3 称其是目前最好的开放式模型之一 ... PC版: 手机版:

封面图片

Meta发布Llama 3 称其是目前最好的开放式模型之一

Meta发布Llama 3 称其是目前最好的开放式模型之一 Meta 称,与上一代 Llama 模型 Llama 2 8B 和 Llama 2 70B 相比,新模型 Llama 3 8B(包含 80 亿个参数)和 Llama 3 70B(包含 700 亿个参数)在性能上有了"重大飞跃"。(参数从本质上定义了人工智能模型处理问题的能力,比如分析和生成文本;一般来说,参数数越高的模型比参数数越低的模型能力越强)。事实上,Meta 表示,就各自的参数数而言,Llama 3 8B 和 Llama 3 70B 是在两个定制的 24,000 GPU 集群上训练出来的,是当今性能最好的生成式人工智能模型之一。话说得很满,那么,Meta 公司是如何证明这一点的呢?该公司指出了 Llama 3 模型在 MMLU(用于测量知识)、ARC(用于测量技能习得)和 DROP(用于测试模型对文本块的推理能力)等流行的人工智能基准上的得分。正如我们之前所写,这些基准的实用性和有效性还有待商榷。但无论好坏,它们仍然是 Meta 等人工智能玩家评估其模型的少数标准化方法之一。在至少九项基准测试中,Llama 3 8B 优于其他开源模型,如 Mistral 的Mistral 7B和 Google 的Gemma 7B,这两个模型都包含 70 亿个参数:这些基准包括:MMLU、ARC、DROP、GPQA(一组生物、物理和化学相关问题)、HumanEval(代码生成测试)、GSM-8K(数学单词问题)、MATH(另一种数学基准)、AGIEval(解决问题测试集)和 BIG-Bench Hard(常识推理评估)。现在,Mistral 7B 和 Gemma 7B 并不完全处于最前沿(Mistral 7B 于去年 9 月发布),在 Meta 引用的一些基准测试中,Llama 3 8B 的得分仅比这两款产品高几个百分点。但 Meta 还声称,参数数更多的 Llama 3 型号 Llama 3 70B 与旗舰生成式人工智能模型(包括Google Gemini 系列的最新产品 Gemini 1.5 Pro)相比也具有竞争力。图片来源:MetaLlama 3 70B 在 MMLU、HumanEval 和 GSM-8K 三项基准测试中均优于 Gemini 1.5 Pro,而且,虽然它无法与 Anthropic 性能最强的 Claude 3 Opus 相媲美,但 Llama 3 70B 在五项基准测试(MMLU、GPQA、HumanEval、GSM-8K 和 MATH)中的得分均优于 Claude 3 系列中性能最弱的 Claude 3 Sonnet。值得注意的是,Meta 还开发了自己的测试集,涵盖了从编码、创作到推理、总结等各种用例,令人惊喜的是,Llama 3 70B 在与 Mistral Medium 模型、OpenAI 的 GPT-3.5 和 Claude Sonnet 的竞争中脱颖而出!- Llama 3 70B 在与 Mistral 的 Mistral Medium 模型、OpenAI 的 GPT-3.5 和 Claude Sonnet 的竞争中脱颖而出。Meta 表示,为了保持客观性,它禁止其建模团队访问这组数据,但很明显,鉴于 Meta 自己设计了这项测试,我们必须对结果持谨慎态度。在质量方面,Meta 表示,新 Llama 模型的用户可以期待更高的"可操控性"、更低的拒绝回答问题的可能性,以及更高的琐碎问题、与历史和 STEM 领域(如工程和科学)相关的问题和一般编码建议的准确性。这在一定程度上要归功于一个更大的数据集:一个由 15 万亿个标记组成的集合,或者说一个令人难以置信的 750,000,000,000 单词,是 Llama 2 训练集的七倍。这些数据从何而来?Meta 公司不愿透露,只表示数据来自"公开来源",包含的代码数量是 Llama 2 训练数据集的四倍,其中 5%包含非英语数据(约 30 种语言),以提高非英语语言的性能。Meta 还表示,它使用了合成数据(即人工智能生成的数据)来创建较长的文档,供 Llama 3 模型训练使用,由于这种方法存在潜在的性能缺陷,因此颇受争议。Meta 在一篇博文中写道:"虽然我们今天发布的模型仅针对英语输出进行了微调,但数据多样性的增加有助于模型更好地识别细微差别和模式,并在各种任务中表现出色。"许多生成式人工智能供应商将训练数据视为一种竞争优势,因此对训练数据和相关信息守口如瓶。但是,训练数据的细节也是知识产权相关诉讼的潜在来源,这是另一个不愿意透露太多信息的原因。最近的报道显示,Meta 公司为了追赶人工智能竞争对手的步伐,曾一度不顾公司律师的警告,将受版权保护的电子书用于人工智能训练;包括喜剧演员莎拉-西尔弗曼(Sarah Silverman)在内的作者正在对 Meta 和 OpenAI 提起诉讼,指控这两家公司未经授权使用受版权保护的数据进行训练。那么,生成式人工智能模型(包括 Llama 2)的另外两个常见问题毒性和偏差又是怎么回事呢?Llama 3 是否在这些方面有所改进?Meta 声称:是的。Meta 表示,公司开发了新的数据过滤管道,以提高模型训练数据的质量,并更新了一对生成式人工智能安全套件 Llama Guard 和 CybersecEval,以防止 Llama 3 模型和其他模型的滥用和不必要的文本生成。该公司还发布了一款新工具 Code Shield,旨在检测生成式人工智能模型中可能引入安全漏洞的代码。不过,过滤并非万无一失,Llama Guard、CybersecEval 和 Code Shield 等工具也只能做到这一步。我们需要进一步观察 Llama 3 型号在实际运用时的表现如何,包括学术界对其他基准的测试。Meta公司表示,Llama 3模型现在已经可以下载,并在Facebook、Instagram、WhatsApp、Messenger和网络上为Meta公司的Meta人工智能助手提供支持,不久将以托管形式在各种云平台上托管,包括AWS、Databricks、Google Cloud、Hugging Face、Kaggle、IBM的WatsonX、Microsoft Azure、NVIDIA的NIM和Snowflake。未来,还将提供针对 AMD、AWS、戴尔、英特尔、NVIDIA 和高通硬件优化的模型版本。而且,功能更强大的型号即将问世。Meta 表示,它目前正在训练的 Llama 3 模型参数超过 4000 亿个这些模型能够"用多种语言交流"、接收更多数据、理解图像和其他模式以及文本,这将使 Llama 3 系列与 Hugging Face 的Idefics2 等公开发布的版本保持一致。"我们近期的目标是让 Llama 3 成为多语言、多模态、具有更长上下文的产品,并继续提高推理和编码等核心(大型语言模型)功能的整体性能,"Meta 在一篇博文中写道。"还有很多事情要做"。 ... PC版: 手机版:

封面图片

Meta 发布的关于 Llama 入门指南也是个好东西啊,里面包括了想要使用和训练Llama的所有内容,包括模型的微调、量化、提

Meta 发布的关于 Llama 入门指南也是个好东西啊,里面包括了想要使用和训练Llama的所有内容,包括模型的微调、量化、提示工程、推理和测试一整个链路。 并且在一些深入内容上也介绍了应该看的其他详细教程,如果有一些基础想要微调Llama的可以看一下这个教程。 链接:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人