基于LLM的系统和产品的构建模式 | link

基于LLM的系统和产品的构建模式讨论了如何将大型语言模型(LLM)应用于系统和产品中的实用模式,介绍了七种关键模式,包括评估性能、使用外部知识、微调模型、缓存技术以减少延迟和成本、设置保护措施确保输出质量、设计防御性用户体验来处理错误、收集用户反馈来建立数据循环。深入讨论了如何使用各种评估指标来衡量模型性能,包括BLEU、ROUGE、BERTScore和MoverScore等;提到了如何使用检索增强生成技术(RAG)将外部信息嵌入到模型中,提高生成质量和可用性。

相关推荐

封面图片

Apple发布大模型论文:多模式LLM预培训的方法、分析和见解

Apple发布大模型论文:多模式LLM预培训的方法、分析和见解2024年3月14日,苹果公司发布了自家的大型多模态基础模型MM1,该模型拥有高达300亿参数,并采用混合专家(MoE)架构。超过半数的论文作者是华人。MM1模型在多模态任务上显示出强大的性能,尤其是在少样本学习和上下文预测方面。研究团队通过对不同架构组件和数据选择的深入分析,提出了几条关键的设计准则。他们发现,图像分辨率、视觉编码器损失和容量,以及预训练数据的类型对模型性能有显著影响。MM1模型的开发,标志着苹果在生成式人工智能领域的重要进展。线索:@ZaiHuabot投稿:@TNSubmbot频道:@TestFlightCN

封面图片

Poly:用Rust编写的GPU加速语言模型(LLM)服务器,可高效提供多个本地LLM模型的服务。

:用Rust编写的GPU加速语言模型(LLM)服务器,可高效提供多个本地LLM模型的服务。主要提供:为多个本地LLM模型提供高性能、高效和可靠的服务可选择通过CUDA或Metal进行GPU加速可配置的LLM完成任务(提示、召回、停止令牌等)通过HTTPSSE流式传输完成响应,使用WebSockets聊天使用JSON模式对完成输出进行有偏差的采样使用向量数据库(内置文件或Qdrant等外部数据库)进行记忆检索接受PDF和DOCX文件并自动将其分块存储到内存中使用静态API密钥或JWT标记确保API安全简单、单一的二进制+配置文件服务器部署,可水平扩展附加功能:用于轻松测试和微调配置的Web客户端用于本地运行模型的单二进制跨平台桌面客户端

封面图片

Awesome-LLM-SoftwareTesting:关于在软件测试中使用大型语言模型 (LLM) 的论文和资源的集合。

:关于在软件测试中使用大型语言模型(LLM)的论文和资源的集合。LLM已成为自然语言处理和人工智能领域的突破性技术。这些模型能够执行各种与编码相关的任务,包括代码生成和代码推荐。因此,在软件测试中使用LLM预计会产生显着的改进。一方面,软件测试涉及诸如单元测试生成之类的任务,这些任务需要代码理解和生成。另一方面,LLM可以生成多样化的测试输入,以确保全面覆盖正在测试的软件。此存储库对LLM在软件测试中的运用进行了全面回顾,收集了102篇相关论文,并从软件测试和法学硕士的角度进行了全面的分析。

封面图片

字节发布的这个MegaScale估计只有超级大厂才有用,一个在超过一万个 GPU 上训练 LLM 的生产系统。#ai##llm#

字节发布的这个MegaScale估计只有超级大厂才有用,一个在超过一万个GPU上训练LLM的生产系统。整个系统涵盖了从模型块和优化器设计到计算与通信的重叠、运算符优化、数据管道以及网络性能调整的算法和系统组件。MegaScale在训练一个175B参数的LLM模型时,在12,288GPU上实现了55.2%的模型浮点运算利用率(ModelFLOPsUtilization,MFU),相比Megatron-LM提升了1.34倍。论文地址:

封面图片

见鬼了,谷歌居然开源LLM模型了,Meta要慌了。#ai##llm#

见鬼了,谷歌居然开源LLM模型了,Meta要慌了。Gemma采用了和Gemini一样技术的开源LLM,同时质量也比同规模的模型要强。下面是一些要点:◈两种尺寸的模型权重:Gemma2B和Gemma7B。每种尺寸都有预训练和指导调整的变体。◈一个生成式人工智能工具包,为使用Gemma创建更安全的人工智能应用提供指导和必要工具。◈通过原生Keras3.0为所有主要框架(JAX、PyTorch和TensorFlow)提供推理和监督微调(SFT)的工具链。◈准备好的Colab和Kaggle笔记本,以及与HuggingFace、MaxText、NVIDIANeMo和TensorRT等流行工具的集成,使得开始使用Gemma变得非常容易。◈预先训练和经过调整的Gemma模型可以在您的笔记本电脑、工作站或GoogleCloud上运行,并可以轻松部署到VertexAI和GoogleKubernetesEngine(GKE)。◈跨多个人工智能硬件平台的优化确保了行业领先的性能,包括NVIDIAGPU和GoogleCloudTPU。◈允许所有组织进行负责任的商业使用和分发,无论规模大小。◈未来还会发布Gemma更大模型变体。了解更多:

封面图片

一篇写的非常好的文章,详细介绍了如何对大语言模型的质量进行评估。

一篇写的非常好的文章,详细介绍了如何对大语言模型的质量进行评估。流程包括单元测试、人工评估、模型评估和A/B测试,强调快速迭代和数据管理的重要性。一个好的测试流程是模型进步的必要条件,如果没办法准确测试模型质量,就没办法帮助模型进步。下面是大致的内容整理,后面有全文翻译:大语言模型产品的评估系统评估系统对大语言模型(LLM)产品的成功至关重要。许多LLM产品之所以失败,根本原因在于未能创建健壮的评估系统。评估、调试和改进是LLM产品成功的关键,而良好的评估系统可以创造一个良性循环,加速产品的迭代和改进。案例研究中的Lucy就是一个典型的例子,它初期通过提示工程取得了进展,但后来遇到了性能瓶颈,需要建立系统的评估方法来突破瓶颈。评估的类型LLM产品的评估主要分为三个层次:单元测试、人工评估和模型评估、A/B测试。单元测试是通过编写一些断言语句,在开发过程中快速获得反馈。人工评估和模型评估是通过人工检查和训练评估模型来评估整个系统。A/B测试则用于确保AI产品能够驱动期望的用户行为或结果。除了评估整个系统,还需要对子组件如RAG进行单独评估。单元测试的步骤单元测试是LLM产品评估的基础,通常包括三个步骤:编写特定范围的测试、创建测试用例和定期执行测试并追踪结果。编写测试时要针对LLM的不同功能和场景,检验相应的断言。可以利用LLM自动生成测试用例,触发不同的场景。测试应当定期执行,利用CI基础设施可以很方便地实现自动化测试和结果跟踪。测试通过率并不一定要达到100%,而是要在错误容忍度和产品目标之间取得平衡。人工评估和模型评估人工评估和模型评估是更高层次的测试手段。首先要记录LLM系统的跟踪数据,包括用户的输入和系统的响应,为后续分析提供数据基础。在查看数据时,定制化的查看工具和良好的可视化非常重要。将人工评估结果与评估模型的预测对齐,可以极大提高评估的效率。随着评估模型性能的提升,可以渐进式地用自动评估来替代人工评估。微调和数据合成与管理

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人