【Meta和Microsoft联手推出开源大型语言模型Llama 2】

【Meta和Microsoft联手推出开源大型语言模型Llama2】2023年07月19日10点52分7月19日消息,Meta和Microsoft联手推出开源大型语言模型Llama2,将在Microsoft的Windows和云计算平台Azure上运行。Llama2免费用于研究和商业用途,同时还针对在Windows上运行进行了优化。Meta称Llama2接受的公开在线数据源的训练量比Llama1多40%,处理的上下文量是Llama1的两倍。

相关推荐

封面图片

帮开发者构建生成式 AI 应用,Meta 和微软合作推出开源模型 Llama 2

帮开发者构建生成式AI应用,Meta和微软合作推出开源模型Llama2Meta和微软近日合作推出Llama2,这是Meta公司的下一代开源大型语言模型,可以免费用于研究和商业用途。微软在新闻稿中表示,Llama2旨在帮助开发者和组织,构建生成式人工智能工具和体验。Azure客户可以在Azure平台上更轻松、更安全地微调和部署7B、13B和70B参数的Llama2模型,此外通过优化可以在Windows本地运行。Llama2模型与AzureAI的结合使开发人员能够利用AzureAI的强大工具进行模型训练、微调、推理,特别是支持AI安全的功能。微软表示在Windows中加入Llama2模型,有助于推动Windows成为开发人员根据客户需求构建人工智能体验的最佳场所,并释放他们使用WindowsSubsystemforLinux(WSL)、Windows终端、MicrosoftVisualStudio和VSCode等世界级工具进行构建的能力。——、、

封面图片

Meta 确认其 Llama 3 开源大型语言模型将于下个月推出

Meta确认其Llama3开源大型语言模型将于下个月推出在4月9日于伦敦举行的一次活动中,Meta确认计划在下个月内首次发布Llama3,这是用于驱动生成式人工智能助手的下一代大型语言模型。Meta全球事务总裁NickClegg说:“在接下来的一个月内,实际上更短,我们希望开始推出我们的新一代模型套件Llama3。”他的描述听起来像是要发布该产品的几个不同迭代或版本。“今年[发布]的不同版本,将有许多不同的模型具有不同的功能,而且很快就会开始。”Meta首席产品官ChrisCox补充说,该计划将通过Llama3为Meta的多种产品提供动力。——

封面图片

Meta 开源发布能力比肩 ChatGPT 的 Llama 2

Meta开源发布能力比肩ChatGPT的Llama2Llama2相较于Llama1的许可证更加开放,个人和公司都可将其免费用于研究和商业目的(月活超7亿的巨头除外)。Meta还禁止使用Llama2的材料或输出来改进其它大型语言模型(不包括Llama2的衍生作品)。值得注意的是,Llama2的训练数据集是闭源且保密的,这可能与版权纠纷的担忧有关。Llama2训练数据比Llama1多了40%,上下文长度是原来的两倍,有70亿、130亿、700亿三种参数版本。Llama2在大多数基准测试中击败了其它开源模型,在人类评估中与闭源模型GPT-3.5相当(除代码能力)。Meta还与微软、亚马逊、HuggingFace等公司深度合作,Llama2可以在MicrosoftAzure、AWS等云服务上直接使用。频道:@TestFlightCN

封面图片

Meta可以随意称呼Llama 2为“开源”,但这并不意味着它就是开源的

Meta可以随意称呼Llama2为“开源”,但这并不意味着它就是开源的Meta最近发布的大型语言模型Llama2并称其为“开源”,但事实上它并不是“开源”的。Llama2社区许可证禁止使用该技术来训练其他语言模型,需要Meta的特殊许可证才能将其用于拥有超过7亿月活跃用户的应用程序或服务中。OSI和SoftwareFreedomConservancy均认为该许可证不符合开源定义,限制了用户的自由。开源许可专家强调开源许可证不应对使用领域施加限制,Meta应重新考虑Llama2的许可证限制。来源:投稿人:DaneelGod投稿:@ZaiHuaBot频道:@TestFlightCN

封面图片

Meta宣布推出Llama 2(羊驼2) 提供7B~70B模型 开源免费可商用

Meta宣布推出Llama2(羊驼2)提供7B~70B模型开源免费可商用今天Meta发布Llama2也就是羊驼2模型,提供7B、13B和70B参数版本,该模型开源、免费、可商用,这也是为什么最近一段时间有大量新模型出现,对开源社区来说,只要有高质量模型被开源出来,那接下来就是社区成员登场,微调、优化、定制、整合,然后就可以生成更多模型了。羊驼2预训练模型接受了2万亿个tokens的训练,上下文长度是Llama1的两倍,是的其上下文长度从2048提升到了4096,其微调模型接受了超过100万个人类标注的训练。根据MetaAI研究团队的测试,羊驼2在不少测试中表现都比较优异(相对其他开源模型),包括推理、编程、熟练程度和知识测试。(需要提供Email地址)来源,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

Meta 发布开源大模型 Code Llama 70B

Meta发布开源大模型CodeLlama70B当地时间1月29日,Meta发布了开源大模型CodeLlama70B,Meta表示这是“CodeLlama家族中体量最大、性能最好的模型版本”。CodeLlama70B与先前其他家族模型一样提供三种版本,且均可免费用于研究和商业用途。从基准测试结果来看,CodeLlama的表现优于编码专用的开源Llama,甚至超越了Llama2。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人