NVIDIA 宣布对其所有平台进行优化,以加速最新一代大语言模型 Meta Llama 3。开源模型与 NVIDIA 加速计算相

NVIDIA 宣布对其所有平台进行优化,以加速最新一代大语言模型 Meta Llama 3。开源模型与 NVIDIA 加速计算相结合,使开发人员、研究人员和企业能够在各种应用程序中负责任地进行创新。 接受过 NVIDIA AI 培训的 Meta 工程师在包含 24,576 个 NVIDIA H100 Tensor Core GPU(与 RoCE 和 NVIDIA Quantum-2 InfiniBand 网络连接)的计算机集群上训练 Llama 3。在 NVIDIA 的支持下,Meta 为其旗舰模型调整了网络、软件和模型架构。为了进一步推进生成式 AI 的最先进水平,Meta 最近透露了将其基础设施扩展到 350,000 个 H100 GPU 的计划。 开发人员可以通过浏览器在上试用 Llama 3。 标签: #NVIDIA #Meta #AI 频道: @GodlyNews1 投稿: @GodlyNewsBot

相关推荐

封面图片

Meta 开源最新的 Llama 3.1 大模型

Meta 开源最新的 Llama 3.1 大模型 其它科技公司都想把 AI 产品买给你们,但扎克伯格(Mark Zuckerberg)选择免费送给你们。Meta 周一宣布了其最新的 Llama 3.1 大模型,其最大规模版本的参数有 4050 亿个,较小规模的版本有 700 亿和 80 亿个参数。Meta 称,Llama 3.1 在基准测试中的表现超过了 OpenAI 的 GPT-4o 和 Anthropic 的 Claude 3.5 Sonnet。Meta 表示,Llama 3.1 使用了逾 16,000 个英伟达 H100 GPU 进行训练,它认为相比私有大模型,部署成本会更低。扎克伯格称他与世界各地的开发者、企业和政府官员交流时,他们都表达了不希望被私有封闭供应商锁定的愿望,希望自己能控制模型,而 Llama 3.1 将能满足他们的要求。 via Solidot

封面图片

帮开发者构建生成式 AI 应用,Meta 和微软合作推出开源模型 Llama 2

帮开发者构建生成式 AI 应用,Meta 和微软合作推出开源模型 Llama 2 Meta 和微软近日合作推出 Llama 2,这是 Meta 公司的下一代开源大型语言模型,可以免费用于研究和商业用途。 微软在新闻稿中表示,Llama 2 旨在帮助开发者和组织,构建生成式人工智能工具和体验。 Azure 客户可以在 Azure 平台上更轻松、更安全地微调和部署 7B、13B 和 70B 参数的 Llama 2 模型,此外通过优化可以在 Windows 本地运行。 Llama 2 模型与 Azure AI 的结合使开发人员能够利用 Azure AI 的强大工具进行模型训练、微调、推理,特别是支持 AI 安全的功能。 微软表示在 Windows 中加入 Llama 2 模型,有助于推动 Windows 成为开发人员根据客户需求构建人工智能体验的最佳场所,并释放他们使用 Windows Subsystem for Linux (WSL)、Windows 终端、Microsoft Visual Studio 和 VS Code 等世界级工具进行构建的能力。 、 、

封面图片

谷歌与 Hugging Face 合作,帮助开发人员训练 AI 模型

谷歌与 Hugging Face 合作,帮助开发人员训练 AI 模型 谷歌云与 AI 模型托管平台 Hugging Face 建立了新的合作伙伴关系,让开发人员无需支付谷歌云订阅费用即可构建、训练和部署 AI 模型。现在,使用 Hugging Face 平台的外部开发人员将能够 “经济高效” 地访问谷歌的张量处理单元 (TPU) 和 GPU 超级计算机,其中包括数千台 Nvidia 的热门且出口受限的 H100。谷歌表示,Hugging Face 用户可以在 “2024 年上半年” 开始使用人工智能应用构建平台 Vertex AI 和 Kubernetes 引擎,帮助训练和微调模型。 一一

封面图片

Meta发布全新大型语言模型LLaMA,加入硅谷AI竞赛

Meta发布全新大型语言模型LLaMA,加入硅谷AI竞赛 当地时间2月24日,Meta公司发布一款新的人工智能大型语言模型LLaMA,加入微软、谷歌等硅谷公司的竞赛。Meta首席执行官扎克伯格在Instagram表示,LLaMA模型旨在帮助研究人员推进工作,在生成文本、对话、总结书面材料、证明数学定理或预测蛋白质结构等更复杂的任务方面“有很大的前景”。Meta表示,在大多数基准测试中,参数仅为十分之一的LLaMA-13B的性能优于OpenAI推出的GPT3(175B),也即支持ChatGPT的GPT3.5的前身。 来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

Meta 确认其 Llama 3 开源大型语言模型将于下个月推出

Meta 确认其 Llama 3 开源大型语言模型将于下个月推出 在4月9日于伦敦举行的一次活动中,Meta 确认计划在下个月内首次发布 Llama 3,这是用于驱动生成式人工智能助手的下一代大型语言模型。Meta 全球事务总裁 Nick Clegg 说:“在接下来的一个月内,实际上更短,我们希望开始推出我们的新一代模型套件 Llama 3。”他的描述听起来像是要发布该产品的几个不同迭代或版本。“今年[发布]的不同版本,将有许多不同的模型具有不同的功能,而且很快就会开始。”Meta 首席产品官 Chris Cox 补充说,该计划将通过 Llama 3 为 Meta 的多种产品提供动力。

封面图片

Meta新一代AI芯片亮相:优化推荐系统 但不能训练大模型

Meta新一代AI芯片亮相:优化推荐系统 但不能训练大模型 这款芯片是Meta训练与推理加速器项目(MTIA)的最新版本,MTIA是Meta专门为AI工作负载设计的定制芯片系列,可以对Facebook和Instagram上的内容进行排名和推荐。该公司去年发布了首款MTIA产品。据Meta介绍,新一代AI芯片由台积电代工,采用了其5纳米工艺制程。MTIA也是该公司更广泛产品开发的一部分,针对Meta独特的工作负载和系统进行了优化。与前一个版本相比,新的MTIA在计算能力和内存带宽上都提高了一倍多,同时保持了与其工作负载的紧密联系,可以更好地服务全球用户,提供个性化的推荐和优化的用户体验。Meta表示:“为了实现我们定制芯片的雄心壮志,我们不仅要投资于计算芯片,还要投资于内存带宽、网络、容量以及其他下一代硬件系统。”Meta转向AI服务使其对计算能力的需求不断增长,一方面,该公司要让Facebook、Instagram等应用接入AI功能,另一方面,Meta正在开发自己的大语言模型,以期与OpenAI的ChatGPT展开竞争。去年10月,Meta表示,将在支持AI的基础设施上投入多达350亿美元,包括数据中心和硬件。“到2024年,AI将成为我们最大的投资领域,”首席执行官扎克伯格当时告诉投资者。后续发展也确如扎克伯格所言,但这笔支出的很大一部分流向了英伟达。据悉,此前Meta已经购买了数十万张英伟达上一代芯片H100,以支持其升级内容推荐系统和生成式AI产品。到2024年底,Meta的基础设施将包括35万张H100,每张售价为2.5万-3万美元。当然,不单单是Meta,越来越多的公司都在开发AI芯片,包括微软、谷歌、亚马逊等科技公司。不过,这显然不是一个快速解决方案。到目前为止,这些努力并没有减少业界对英伟达AI芯片的需求。AI热潮使英伟达成为世界第三大最有价值的科技公司,仅次于微软和苹果公司。在2024财年,该公司数据中心业务营收475亿美元,而前一年仅为150亿美元。分析人士预测,到2025财年,这一数字将再增加一倍以上。相关文章:Meta推出新款AI芯片 旨在降低对英伟达的依赖 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人