Stability AI 发布了其新的开放大型语言模型(LLM)StableCode

StabilityAI发布了其新的开放大型语言模型(LLM)StableCodeStabilityAI刚刚宣布推出了StableCode,这是他们首个用于编码的LLM生成式人工智能产品。该产品旨在帮助程序员完成日常工作,同时也为准备将技能提升到新水平的新开发人员提供了一个出色的学习工具。旨在帮助开发人员生成代码,并提供三个版本:通用用例的、和,其中长上下文窗口模型支持多达16,000个令牌以进行更高级的编程。StableCode是使用来自开源BigCode项目的编码数据进行训练的,支持Python、Go、Java、JavaScript、C、Markdown和C++等语言的开发。BigCode项目被用作ServiceNowInc.的StarCoderLLM的基础,该项目是与HuggingFaceInc.合作开发的,并于五月份推出。——

相关推荐

封面图片

Stability AI 发布日语 StableLM 模型

StabilityAI发布日语StableLM模型StabilityAI今天发布了日语StableLMAlpha,将其语言模型产品扩展至国际市场,这是面向日语使用者的性能最佳的公开语言模型。新的70亿参数通用语言模型旨在为日本用户提供增强的人工智能文本生成能力。StabilityAI表示,在该公司进行的评估中,日语StableLM的表现优于其他四种基准日语模型。新模型发布了两个版本:和。基础模型设计用于使用大规模日语和英语训练数据进行一般文本生成。指令模型使用监督微调技术进行额外调整,以遵循用户提示和说明。此次发布为日本人工智能开发人员和研究人员提供了适合其语言的新生成模型。这也标志着StabilityAI首次扩展到StableDiffusion等英语语言模型之外。此举标志着随着全球生成式人工智能应用的增加,未来可能会进入其他国际市场。——

封面图片

【Nvidia 发布用于创建安全 AI 模型的工具】

【Nvidia发布用于创建安全AI模型的工具】2023年04月26日08点08分老不正经报道,Nvidia推出NeMoGuardrails工具,以帮助开发人员确保生成AI的准确性、相关性和安全性。NeMoGuardrails允许开发人员对其语言模型(LLM)应用三种不同类型的限制。据Nvidia称,NeMoGuardrails适用于所有语言模型,包括ChatGPT。该公司还声称几乎所有软件开发人员都可以使用该工具。

封面图片

Awesome-LLM-SoftwareTesting:关于在软件测试中使用大型语言模型 (LLM) 的论文和资源的集合。

:关于在软件测试中使用大型语言模型(LLM)的论文和资源的集合。LLM已成为自然语言处理和人工智能领域的突破性技术。这些模型能够执行各种与编码相关的任务,包括代码生成和代码推荐。因此,在软件测试中使用LLM预计会产生显着的改进。一方面,软件测试涉及诸如单元测试生成之类的任务,这些任务需要代码理解和生成。另一方面,LLM可以生成多样化的测试输入,以确保全面覆盖正在测试的软件。此存储库对LLM在软件测试中的运用进行了全面回顾,收集了102篇相关论文,并从软件测试和法学硕士的角度进行了全面的分析。

封面图片

微软研究院发布了Orca 2 LLM 其性能可媲美大语言模型

微软研究院发布了Orca2LLM其性能可媲美大语言模型微软在一篇博文中表示,Orca2是专为小规模LM设计的,但仍可用于回答LLM等复杂问题。Orca2有两种大小(70亿和130亿个参数),部分是利用今年早些时候微软帮助Meta推出的Llama2LLM制作的。该公司"根据量身定制的高质量合成数据"对基于Llama2的模型进行了微调。微软表示,这使得Orca2模型在处理问题时能够与其他"5-10倍大"的语言模型相媲美:Orca2使用扩展的、高度定制的合成数据集进行训练。这些训练数据的生成,向Orca2传授了各种推理技术,如逐步处理法、回忆然后生成法、回忆-推理-生成法、提取-生成法和直接回答法,同时还教会它针对不同的任务选择不同的解决策略。Orca2模型与Llama2和WizardLM等大型语言模型进行了一系列基准测试,测试内容包括"语言理解、常识推理、多步骤推理、数学问题解决、阅读理解"等。微软官方博客称:我们的初步测试结果表明,Orca2的性能大大超越了类似规模的模型。它还达到了类似或优于至少比它大10倍的模型的性能水平,展示了为更小的模型配备更好的推理能力的潜力。虽然微软承认Orca2确实存在局限性,但迄今为止的测试显示了"未来进步的潜力"。微软将把Orca2作为一个开源项目发布,以便其他人也能对其进行开发。...PC版:https://www.cnbeta.com.tw/articles/soft/1398829.htm手机版:https://m.cnbeta.com.tw/view/1398829.htm

封面图片

为了让开发者也能用上 AI 大型语言模型 (LLM) 的能力,微软在 GitHub 上开源了一个轻量级 SDK:semantic

为了让开发者也能用上AI大型语言模型(LLM)的能力,微软在GitHub上开源了一个轻量级SDK:,可以说是部分Copilot的解决方案。该SDK支持和封装了来自最新AI研究的多种设计模式,以便开发人员可以将复杂的技能注入他们的应用程序。SDK提供了提示链、递归推理、总结、零/少样本学习、上下文记忆、长期记忆、嵌入、语义索引、规划和访问外部知识存储以及内部数据等功能。

封面图片

谷歌的又一波反击!开放大语言模型PaLM API

谷歌的又一波反击!开放大语言模型PaLMAPI但在今日,Google组织了第二波反击:开放自家的大语言模型API“PaLMAPI”,此外今天Google还发布了一款帮助开发者快速构建AI程序的工具MakerSuite。Google表示,此举是为了帮助开发者们快速构建生成式AI应用。但略为遗憾的是,Google目前是向选定的开发人员提供这些工具,而非全面开放。基于PaLM模型的API毫无疑问,PaLMAPI是今天Google发布的公告的核心。Google介绍称,PaLMAPI是Google大型语言模型的入口,可用于各种应用程序。它将为开发者提供面向对轮交互而优化的模型,如内容生成与对话。它也能为开发者提供摘要、分类等多种任务的通用模型。从名字可以开出,此次开放的大语言模型API是基于Google去年发布的PaLM。这是Google基于Pathways系统训练的一个5400亿参数的大型语言模型。为了训练这个模型,Google动用了6144块TPU,让Pathways在两个CloudTPUv4Pods上训练PaLM。强大的系统和算力投入带来了惊艳的结果。Google在数百个语言理解和生成任务上评估了PaLM,发现它在大多数任务上实现了SOTA少样本学习性能,可以出色地完成笑话解读、bug修复、从表情符号中猜电影等语言、代码任务。随着规模的增加,模型在处理多个任务时的性能逐渐提高,而且还在不断解锁新的能力关于PaLM,读者们可以查看论文《PaLM:ScalingLanguageModelingwithPathways》。此外,Google公告称,后续会开放更多规模与功能不同的模型。PaLM是Google选择的第一个版本,所以后续我们也可以期待下LAMDAAPI等。MakerSuite工具在过去的几年里,Google一直在构建和部署大型语言模型——从将MUM引入搜索到在AITestKitchen中使用LaMDA构建APP。Google表示,开发人员必须使用不同的工具来完成任务,例如制作和迭代prompt、生成合成数据以及精调自定义模型。MakerSuite是一种简化此工作流程的工具,让用户将能够根据prompt进行迭代,使用合成数据扩充数据集,并轻松调整自定义模型。当你准备好编程时,MakerSuite允许将prompt导出为你最喜欢的语言和框架(如Python和Node.js)的代码。Google表示,借助MakerSuite,你能够直接在浏览器中快速测试和迭代调整后的模型。最后补充一句我们观察到的结果:Google今日的两篇博客发布后,似乎已经引起了一些人的不满:并非全面开放、也没有定价。也许,可以说相比之前ChatGPTAPI的开放,Google这一波反击,也略显失败。...PC版:https://www.cnbeta.com.tw/articles/soft/1349461.htm手机版:https://m.cnbeta.com.tw/view/1349461.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人