谷歌发布开源 AI 大模型 Gemma 称其性能在同等规模中最为先进

谷歌发布开源AI大模型Gemma称其性能在同等规模中最为先进当地时间周三(2月21日),科技巨头谷歌发布了新一代开源模型“Gemma”,公司称其是轻量级中“最先进的”开放模型系列,超越了原本最强的Mistral7B。目前,Gemma系列有两种权重规模的模型,分别为“Gemma2B”和“Gemma7B”,即20亿参数和70亿参数,以满足开发人员的不同需求。谷歌在新闻稿中写道,Gemma2B和7B与其他开放模型相比,展现出在同等参数规模中最先进的性能,甚至超过了一些更大的模型,这得益于与公司最强的AI模型Gemini共享技术和基础架构。

相关推荐

封面图片

谷歌为开源开发者发布人工智能模型GEMMA

谷歌为开源开发者发布人工智能模型GEMMA2024年2月21日,谷歌发布了GEMMA,一个面向开源开发者的AI模型。该系列采用轻量化设计并对外公开,旨在为广大开发者和研究人员提供更加便捷的AI构建工具。其中包括Gema2B和7B模型,可在普通笔记本电脑或计算机上运行。https://blog.google/technology/developers/gemma-open-models/线索:@ZaiHuabot投稿:@TNSubmbot频道:@TestFlightCN

封面图片

最强开源大模型一夜易主:谷歌Gemma 7B碾压Llama 2 13B 重燃开源之战

最强开源大模型一夜易主:谷歌Gemma7B碾压Llama213B重燃开源之战与此同时,谷歌还放出了16页的技术报告。谷歌表示,Gemma这个名字源自拉丁语「gemma」,也就是「宝石」的意思,似乎是在象征着它的珍贵性。历史上,Transformers、TensorFlow、BERT、T5、JAX、AlphaFold和AlphaCode,都是谷歌为开源社区贡献的创新。而谷歌今天在全球范围内同步推出的Gemma,必然会再一次掀起构建开源AI的热潮。同时也坐实了OpenAI「唯一ClosedAI」的名头。OpenAI最近刚因为Sora火到爆,Llame据称也要有大动作,谷歌这就又抢先一步。硅谷大厂,已经卷翻天了!HuggingFaceCEO也跟帖祝贺。还贴出了Gemma登上HuggingFace热榜的截图。Keras作者FrançoisChollet直言:最强开源大模型,今日易主了。有网友已经亲自试用过,表示Gemma7B真是速度飞快。谷歌简直是用Gemini拳打GPT-4,用Gemma脚踢Llama2!网友们也是看热闹不嫌事大,召唤MistralAI和OpenAI今晚赶快来点大动作,别让谷歌真的抢了头条。(手动狗头)可以看到,Gemma-7B模型在涵盖一般语言理解、推理、数学和编码的8项基准测试中,性能已经超越了Llama27B和13B!并且,它也超越了Mistral7B模型的性能,尤其是在数学、科学和编码相关任务中。在安全性方面,经过指令微调的Gemma-2BIT和Gemma-7BIT模型,在人类偏好评估中都超过了Mistal-7Bv0.2模型。特别是Gemma-7BIT模型,它在理解和执行具体指令方面,表现得更加出色。这次,除了模型本身,谷歌还提供了一套工具帮助开发者,确保Gemma模型负责任的使用,帮助开发者用Gemma构建更安全的AI应用程序。-谷歌为JAX、PyTorch和TensorFlow提供了完整的工具链,支持模型推理和监督式微调(SFT),并且完全兼容最新的Keras3.0。-通过预置的Colab和Kagglenotebooks,以及与HuggingFace、MaxText、NVIDIANeMo和TensorRT-LLM等流行工具的集成,用户可以轻松开始探索Gemma。-Gemma模型既可以在个人笔记本电脑和工作站上运行,也可以在GoogleCloud上部署,支持在VertexAI和GoogleKubernetesEngine(GKE)上的简易部署。-谷歌还对Gemma进行了跨平台优化,确保了它在NVIDIAGPU和GoogleCloudTPU等多种AI硬件上的卓越性能。并且,使用条款为所有组织提供了负责任的商业使用和分发权限,不受组织规模的限制。不过,Gemma并没有能够在所有的榜单中,都拿下SOTA。在官方放出的评测中,Gemma7B在MMLU、HellaSwag、SIQA、CQA、ARC-e、HumanEval、MBPP、GSM8K、MATH和AGIEval中,成功击败了Llama27B和13B模型。相比之下,Gemma7B在Boolq测试中,只与Mistral7B打了个平手。而在PIQA、ARC-c、Winogrande和BBH中,则不敌Mistral7B。在OBQA和trivalentQA中,更是同时被7B和13B规模的Llama27B斩于马下。谷歌这次发布的两个版本的Gemma模型,70亿参数的模型用于GPU和TPU上的高效部署和开发,20亿参数的模型用于CPU和端侧应用程序。在18个基于文本的任务中的11个中,Gemma都优于相似参数规模的开源模型,例如问答、常识推理、数学和科学、编码等任务。模型架构方面,Gemma在Transformer的基础上进行了几项改进,从而在处理复杂任务时能够展现出更加出色的性能和效率。-多查询注意力机制其中,7B模型采用了多头注意力机制,而2B模型则使用了多查询注意力机制。结果显示,这些特定的注意力机制能够在不同的模型规模上提升性能。-RoPE嵌入与传统的绝对位置嵌入不同,模型在每一层都使用了旋转位置嵌入技术,并且在模型的输入和输出之间共享嵌入,这样做可以有效减少模型的大小。-GeGLU激活函数将标准的ReLU激活函数替换成GeGLU激活函数,可以提升模型的表现。-归一化化位置(NormalizerLocation)每个Transformer子层的输入和输出都进行了归一化处理。这里采用的是RMSNorm作为归一化层,以确保模型的稳定性和效率。架构的核心参数如下:两种规模的参数如下:Gemma2B和7B分别针对来自网络文档、数学和代码的主要英语数据的2T和6Ttoken,进行了训练。与Gemini不同,这些模型不是多模态的,也没有针对多语言任务的SOTA进行训练。谷歌使用了Gemini的SentencePiece分词器的子集,来实现兼容性。团队对Gemma2B和7B模型进行了微调,包括有监督的微调(SFT)和基于人类反馈的强化学习(RLHF)。在有监督的微调阶段,研究者使用了一个由纯文本、英文、由人工和机器生成的问题-答案对组成的数据集。在强化学习阶段,则是使用了一个基于英文偏好数据训练出的奖励模型,以及一套精心挑选的高质量提示作为策略。研究者发现,这两个阶段对于提升模型在自动评估和人类偏好评估中的表现,至关重要。研究者根据基于LM的并行评估,选择了数据混合物进行监督微调。给定一组保留prompt,研究者会从测试模型中生成响应,从基准模型中生成对相同提示的响应,随机洗牌,然后要求一个更大、能力更强的模型在两种响应之间表达偏好。研究者构建了不同的提示集,以突出特定的能力,如遵循指令、实事求是、创造性和安全性。我们使用了不同的基于LM的自动评委,采用了一系列技术,如思维链提示、使用评分标准和章程等,以便与人类偏好保持一致。研究者进一步利用来自人类反馈的强化学习(RLHF),对已经进行过有监督微调的模型进行了优化。他们从人类评估者那里收集他们的偏好选择,并在Bradley-Terry模型的基础上,训练了一个奖励函数,这与Gemini项目的做法相似。研究者采用了一个改进版的REINFORCE算法,加入了Kullback–Leibler正则化项,目的是让策略优化这个奖励函数,同时保持与最初调整模型的一致性。与之前的有监督微调阶段相似,为了调整超参数并进一步防止奖励机制被滥用,研究者使用了一个高性能模型作为自动评估工具,并将其与基准模型进行了直接对比。谷歌在多个领域对Gemma进行了性能评估,包括物理和社会推理、问答、编程、数学、常识推理、语言建模、阅读理解等。Gemma2B和7B模型与一系列学术基准测试中的多个外部开源大语言模型进行了比较。在MMLU基准测试中,Gemma7B模型不仅超过了所有规模相同或更小的开源模型,还超过了一些更大的模型,包括Llama213B。然而,基准测试的制定者评估人类专家的表现为89.8%,而GeminiUltra是首个超越此标准的模型,这表明Gemma在达到Gemini和人类水平的性能上,还有很大的提升空间。并且,Gemma模型在数学和编程的基准测试中表现尤为突出。在通常用于评估模型分析能力的数学任务中,Gemma模型在GSM8K和更具挑战性的MATH基准测试上至少领先其他模型10分。同样,在HumanEval上,它们至少领先其他开源模型6分。Gemma甚至在MBPP上超过了专门进行代码微调的CodeLLaMA7B模型的性能(CodeLLaMA得分为41.4%,而Gemma7B得分为44.4%)。近期研究发现,即便是经过精心对齐的人工智能模型,也可能遭受新型对抗攻击,这种攻击能够规避现有的对齐措施。这类攻击有可能使模型行为异常,有时甚至会导致模型重复输出它在训练过程中记住的数据。因此,研究者专注于研究模型的「可检测记忆」能力,这被认为是评估模型记忆能力的一个上限,并已在多项研究中作为通用定义。研究者对Gemma预训练模型进行了记忆测试。具体来说,他们从每个数据集中随机选择了10,000篇文档,并使用文档开头的50个词元作为模型的prompt。测试重点是精确记忆,即如果模型能够基于输入,精确地生成接下来的50token,与原文完全一致,便认为模型「记住了」这段文本。此外,为了探测模型是否能够以改写的形式记忆信息,研究者还测试了模型的「近似记忆」能力,即允许在生成的文本和原文之间存...PC版:https://www.cnbeta.com.tw/articles/soft/1420977.htm手机版:https://m.cnbeta.com.tw/view/1420977.htm

封面图片

重磅:Google 刚刚发布了一个超强的开源模型 Gemma

重磅:Google刚刚发布了一个超强的开源模型Gemma这是AI开源模型生态的一大步。GoogleDeepMindCEODemis表示:「我们长期以来一直支持负责任的开放源代码和科学,这可以推动快速的研究进展,因此我们很自豪地发布了Gemma:一套轻量级的开放模型,其大小在同类产品中名列前茅,其灵感来源于双子座所使用的相同技术。」Gemma开放模型的特点-Gemma是一个轻量级、最先进的开放式模型系列,采用了与Gemini相同的研究和技术。-Gemma由GoogleDeepMind和Google的其他团队共同开发,其灵感来源于双子座,名字反映了拉丁语gemma,意为「宝石」。-两种尺寸:Gemma2B和Gemma7B。每种规模都发布了预训练和指令调整变体。(Hans注,在图2中,你能看到7B在多项核心指标,大幅领先Llama-2。)-经过预训练和指令调整的Gemma模型可在你的笔记本电脑、工作站或GoogleCloud上运行,并可在VertexAI和谷歌KubernetesEngine上轻松部署。使用、研究和AI伦理方面的补充:-允许所有组织(无论规模大小)以负责任的方式进行商业使用和分发。-Gemma专为推动人工智能创新的开发人员和研究人员组成的开放社区而打造。-现在就可以开始使用Gemma,免费访问Kaggle,免费使用Colab笔记本,首次使用GoogleCloud的用户还可获得300美元的积分。-研究人员还可以申请高达500,000美元的GoogleCloud信用额度来加速他们的项目。详情部署和使用,现在就可以访问:http://ai.google.dev/gemma

封面图片

Google 推出开源大模型更新 Gemma 2

Google推出开源大模型更新Gemma2Google今天发布了其下一代开源大模型Gemma2,有9B和27B两种参数大小。与第一代相比,其性能更高、推理效率更高,并且内置了显著的安全改进。Google称,27B的模型性能可以与比其大两倍的模型相媲美。这些大模型可在单个NVIDIAH100GPU或TPU主机实现全精度推理,从而显著降低部署成本。Gemma2也可以在CPU上使用量化版本进行本地推理,或者在配备NVIDIARTX或GeForceRTX的个人电脑上使用。——

封面图片

Google 推出 Gemma 开源模型

这是一款轻量级、先进的开源模型,供开发者和研究人员用于AI构建。Gemma模型家族包括Gemma2B和Gemma7B两种尺寸,能够在不同的设备类型上运行,包括笔记本电脑、桌面电脑、IoT设备、移动设备和云端。性能和设计Gemma模型在技术和基础设施组件上与Gemini共享,这使得Gemma2B和7B在其大小范围内相比其他开放模型具有最佳性能。Gemma模型不仅可以直接在开发者的笔记本电脑或桌面电脑上运行,而且在关键基准测试中的表现超过了更大的模型,同时遵循严格的安全和负责任输出标准。主要特点:1、轻量级、高性能模型:Gemma模型家族包括Gemma2B和Gemma7B.两种尺寸,提供预训练和指令调优的变体,针对其大小范围内相比其他开放模型具有最佳性能。2、跨框架工具链支持:支持JAX、PyTorch和TensorFlow通过原生Keras3.0.进行推理和监督式微调(SFT),适应多种开发需求和环境。3、易于入门和集成:提供准备就绪的Colab和Kaggle笔记本,以及与HuggingFace、MaxText、NVIDIANeMo.和TensorRT-LLM等流行工具的集成,方便开发者快速上手。4.高效的运算能力:针对多个AI硬件平台上进行优化,确保在NVIDIAGPU和GoogleCloudTPU上的行业领先性能。通过与NVIDIA的合作,无论是在数据中心、云端还是本地RTXAIPC上,都确保了行业领先的性能和与尖端技术的集成。Gemma模型能够在不同的设备类型上运行,这种广泛的兼容性使得模型能够适应各种应用场景和需求。HuggingFace测试链接:https://huggingface.co/models?other=gemmavia匿名标签:#Google#Gemma频道:@GodlyNews1投稿:@GodlyNewsBot

封面图片

Google加入开源战局 低配版Gemma相当于OpenAI把GPT-3开源了

Google加入开源战局低配版Gemma相当于OpenAI把GPT-3开源了怎么理解这个动作的重要性呢?你可以粗暴的理解为:这有点像现在正在训练更强大的GPT-5的OpenAI,把GPT3的低参数版给开源了。(前几天SamAltman被问过这个问题,你们是否会在未来把GPT3开源,他没有直接回答。现在看来Google针对性很强啊。)(X上一张有意思的图)根据Google官方对Gemma的介绍,它的基本信息如下:Gemma是Google开源的一个大型语言模型,而非像Gemini那样是多模态的,它基于与Gemini相同的技术构建,但完全公开并允许商用授权。Gemma模型有两个主要版本,分别是Gemma7B(70亿参数)和Gemma2B(20亿参数)。这些模型在大规模的数据集上进行了训练,数据集包含了以英语为主的网络文档、数学数据以及代码数据,总量达到了6万亿tokens。Gemma模型的特点包括:架构细节:Gemma模型具有不同的参数规模,Gemma-2B有18层,d_model为2048,而Gemma-7B有28层,d_model为3072。这些模型还具有不同的前馈隐藏维度、头数和KV头数,以及词汇量。新技术:Gemma采用了一些新技术,如Multi-QueryAttention、RoPEEmbeddings、GeGLU激活函数以及NormalizerLocation,这些技术有助于提高模型的性能。评测结果:Google官方宣称Gemma模型在70亿参数规模的语言模型中表现最佳,甚至超过了一些参数量更大的模型。开源情况:Gemma模型遵循一个自定义的开源协议,允许商业使用。发布完,JeffDean就对这个系列模型划了重点:Gemma-7B模型在涵盖通用语言理解、推理、数学和编程的8项基准测试中,性能超过了广泛使用的Llama-27B和13B模型。它在数学/科学和编程相关任务上,通常也超过了Mistral7B模型的性能。Gemma-2BIT和Gemma-7BIT这两个经过指令调整的模型版本,在基于人类偏好的安全评估中,都优于Mistral-7Bv0.2指令模型。特别是Gemma-7BIT模型在遵循指令方面也表现更佳。(有意思的是,在Google晒出的成绩对比中,阿里的千问背后的模型Qwen系列表现也很亮眼)我们也发布了一个负责任的生成性人工智能工具包(ResponsibleGenerativeAIToolkit),它为负责任地使用像Gemma模型这样的开放模型提供了资源,包括:关于设定安全政策、安全调整、安全分类器和模型评估的指导。学习可解释性工具(LearningInterpretabilityTool,简称LIT),用于调查Gemma的行为并解决潜在问题。一种构建具有最小样本量的强大安全分类器的方法论。我们发布了两个版本的模型权重:Gemma2B和Gemma7B。每个版本都提供了预训练和指令调整的变体。我们为所有主要框架提供了推理和监督式微调(SFT)的工具链:通过原生Keras3.0支持的JAX、PyTorch和TensorFlow。提供了即用型的Colab和Kaggle笔记本,以及与流行的工具如HuggingFace、MaxText、NVIDIANeMo和TensorRT-LLM的集成,使得开始使用Gemma变得简单。预训练和指令调整的Gemma模型可以在您的笔记本电脑、工作站或GoogleCloud上运行,并且可以轻松部署在VertexAI和GoogleKubernetesEngine(GKE)上。在多个AI硬件平台上的优化确保了行业领先的性能,包括NVIDIAGPU和GoogleCloudTPUs。使用条款允许所有规模的组织负责任地进行商业使用和分发。可以看到JeffDean和Google这次都十分强调开源模型的安全性和具体的实打实的配套设施和举措。这似乎也直至被诟病CloseAI且被外界质疑安全性保障的OpenAI。现在,憋坏了的Google正式四面开战了。未来它将用Gemma对抗Llama,用Gemini对抗GPT。无论是开源还是闭源,竞争越来越焦灼了。相关文章:Google发布了一对开源人工智能模型Gemma2B和7B适用于较小的任务...PC版:https://www.cnbeta.com.tw/articles/soft/1419839.htm手机版:https://m.cnbeta.com.tw/view/1419839.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人