目前工程实践上,大家把优化的重点基本都放在了retrieve环节里,这里面涉及三个重要的问题:

目前工程实践上,大家把优化的重点基本都放在了retrieve环节里,这里面涉及三个重要的问题:1⃣howandwhatdoIretrieve:从传统的相似性检索、文本检索,到目前最常用的依托于embedding的语义检索,大家在实践中仍在不断迭代。Kiela后面也提到有研究希望把整个retriever过程做成一个模型,他也在课程中构想未来应该把retriever的训练也纳入到LLM的训练架构中。文本的embedding可简化理解为文本的向量化表达,并且可根据不同文本的向量化表达,判断出文本之间语义的远近亲疏关系。目前的文本emebedding也都是通过模型来实现的,这类模型也在不断迭代。OpenAI在今年1月份推出了text-embedding-3(small和large两版),相比其2022年12月推出的ada-002模型,在性能上获得了显著提升。用于多语言检索的常用基准(MIRACL)平均分数已从31.4%(ada-002)增加到44.0%(3-small)和54.9%(3-large)。附图之一是OpenAI对其textemebedding模型作用机制的示意。2⃣Whentoretrieve:一般就两种思路。一种是在获得检索范围后即retrieve,另一种是让模型判断何时retrieve。3⃣Howtoencode:如何编码也直接影响了如何检索的过程。其他问题:1⃣howtopre-process:实际上强调就是input要包含systemprompt,可设定角色、技能、任务、工作流、限制条件等。2⃣howtoprompt:涉及提示词工程的方法论。3⃣howtopasscontext:可以把context作为prompt的一部分以文本形式输入,也可通过代码的方式代入。4⃣howtopost-process:比如格式化输出的处理,如固定输出json格式,或固定在末尾输出reference列表等。5⃣howtoverify:指的是如何验证output的效果或质量,比如验证output与知识库的相关性、准确性等。最后,还有关于RAG整体架构的审视框架:1⃣Howtooptimize:各环节哪些地方可以优化。架构中已经列出的问题都是思考的重点。2⃣Howtolearn:这里的learn应该指的是机器学习的learn,探讨各环节从software1.0的静态架构向机器学习和software2.0的演进。3⃣howtoscale:如何应对规模化的问题。比如关于知识库如何chunk、何时编码,在知识库过大时就不适合提前预处理好chunk和编码。或者大量用户同时prompt该如何应对。前段时间判断过2024年会是RAG应用爆发的一年https://m.okjike.com/originalPosts/6602dca712ed2fda687ec0a3?s=ewoidSI6ICI2M2VlMjQ0NjhhMGY3NzVjODQyMmY1NzEiCn0=,自己在2B业务中也涉及RAG工程的落地,所以花了些精力来学习这节课。以上内容夹杂了不少自己的个人理解,欢迎批评指正,一起交流学习~links:StanfordCS25V42024春季课程(面向公众开放,有人想一起学习搭子么?)https://web.stanford.edu/class/cs25/StanfordCS25V3:RetrievalAugmentedLanguageModelshttps://www.youtube.com/watch?v=mE7IDf2SmJgRAG论文原文https://arxiv.org/abs/2005.11401OpenAItext-embedding-3modelshttps://openai.com/blog/new-embedding-models-and-api-updates?tOpenAItext-embedding-ada-002modelhttps://openai.com/blog/new-and-improved-embedding-model?tSoftware2.0byAndrejKarpathyhttps://karpathy.medium.com/software-2-0-a64152b37c35Kiela在讲这节课几个月后在其创立的ContextualAI正式推出RAG2.0https://contextual.ai/introducing-rag2/

相关推荐

封面图片

ThinkAny 新版本发布了,本次更新了很多重要特性:

ThinkAny新版本发布了,本次更新了很多重要特性:1.多模式使用Multi-Usage-Mode支持Search/Chat/Summarize三种模式,对应RAG检索/大模型对话/网页摘要三种使用场景。2.多模型对话Multi-Chat-Model集成了包括Llama370B/Claude3Opus/GPT-4Turbo在内的10+大语言模型。3.多模态检索Multi-Mode-Search支持检索链接/图片/视频等模态内容4.多维度输出Multi-Form-Output支持以对话/大纲/思维导图/时间线等形式输出搜索问答内容。5.多信源检索Multi-Retrieve-Source支持检索Google/Wikipedia/Github等信息源的内容,作为搜索问答的挂载上下文。6.其他更好看的UI/更流畅的体验欢迎体验,感谢支持

封面图片

AI套壳应用如何把壳做厚?

AI套壳应用如何把壳做厚?1.一阶:直接引用Openai接口,ChatGPT回答什么,套壳产品回答什么。卷UI、形态、成本。2.二阶:构建Prompt。大模型可以类比为研发,Prompt可以类比为需求文档,需求文档越清晰,研发实现得越精准。套壳产品可以积累自己的优质Prompt,卷Prompt质量高,卷Prompt分发。3.三阶:Embedding特定数据集。把特定数据集进行向量化,在部分场景构建自己的向量数据库,以达到可以回答ChatGPT回答不出来的问题。比如垂直领域、私人数据等。Embedding可以将段落文本编码成固定维度的向量,从而便于进行语义相似度的比较,相较于Prompt可以进行更精准的检索从而获得更专业的回答。4.四阶:微调Fine-Tuning。使用优质的问答数据进行二次训练,让模型更匹配对特定任务的理解。相较于Embedding和Prompt两者需要消耗大量的Token,微调是训练大模型本身,消耗的token更少,响应速度也更快。一个AI应用产品如果停留在做一阶和二阶,注定是个门槛极低的产品,没有任何壁垒。而什么场景,何时以及如何使用三阶和四阶的能力,是个关键性的问题。

封面图片

在 arxiv.org 链接前面加上“talk2”,可直接针对论文内容进行问答(需要自备OpenAI key)| github

在arxiv.org链接前面加上“talk2”,可直接针对论文内容进行问答(需要自备OpenAIkey)Talk2Arxiv是专为学术论文PDF构建的开源RAG(检索增强生成)系统,由talk2arxiv服务器提供支持特征PDF解析:利用GROBID从PDF中高效提取文本。分块算法:用于最佳文本分块的定制算法。按逻辑部分(简介、摘要、作者等)进行分块,并且还利用递归细分分块(块为512个字符,然后是256个字符,然后是128个字符......)文本嵌入:使用Cohere的EmbedV3模型进行准确的文本嵌入。矢量数据库集成:使用Pinecone来存储和查询嵌入。这也可以缓存研究论文,因此论文只需要嵌入一次。上下文相关性:采用重新排名过程来根据用户输入选择最相关的内容。

封面图片

GPTs已经上线两个多月了,但我发现大多数制作GPTs的人对其中的「Knowledge」能力都有相当大的误解和错用:

GPTs已经上线两个多月了,但我发现大多数制作GPTs的人对其中的「Knowledge」能力都有相当大的误解和错用:1、许多类型的文件都可以上传到Knowledge,比如图片文件(jpg、png)、音视频文件(mp3、mov)、书籍格式文件(epub、mobi)、数据文件(csv、xlsx)、文本文件(md)等都可以,但以上所列文件上传后都不会作为所谓的「资料库」索引,而是可以用来在代码解释器中被加工,比如你要压缩转换图片格式,或者分析数据,这些文件上传后会被提示“ThefollowingfilesareonlyavailableforCodeInterpreter”。2、pdf、doc等少量文本文件会被作为「资料库」索引,检索方式是RAG(Retrieval-AugmentedGeneration),在这种情况下适合实现的能力是让他帮你检索相关知识,比如客服机器人、或者个人分身助理等;但是很多人会期望在其中投喂文章素材,让GPTs学习文章写作技巧去生成文本,这是需要通过微调(finetunning)才可以的,或者你干脆直接在instructions多放些示例,通过Knowledge形式是做不到的。

封面图片

Google发布了一个生成式AI学习路径,包括8门课和2个测试,从技术原理、实现方式到应用场景和开发部署都包括,完全免费。

Google发布了一个生成式AI学习路径,包括8门课和2个测试,从技术原理、实现方式到应用场景和开发部署都包括,完全免费。1.:什么是生成式AI,有什么应用,和传统机器学习有什么不同。2.:什么是大语言模型(LLM),大语言模型的应用场景,以及提示词(prompt)和微调(fine-tuning)如何提升模型性能。3.:什么是负责任的AI(ResponsibleAI),为什么AI模型安全可靠且道德很重要,以及如何打造一个使用负责任AI的产品。4.:DiffusionModels图像生成模型理论、模型训练方法以及如何部署模型到云端5.:机器翻译、语音识别等任务广泛应用的encoder-decoder模型架构原理以及如何在TensorFlow中构建一个此架构的诗歌生成AI。6.:神经网络中的注意力机制(AttentionMechanism)如何在计算能力有限的情况下将计算资源分配给更重要的任务,提高翻译、总结、问答等性能。7.:自然语言处理中的预训练技术BERT(BidirectionalEncoderRepresentationsfromTransformers)的基础原理,以及其如何可以让AI在许多不同任务中的显著提升在上下文中理解无标记文本的能力。8.:学习图像理解和标注,学习如何构建出一个看图说话理解图片的人工智能模型。

封面图片

LLM 相关的基础文章很多人整理,AI 图像生成的比较少,刚好发现了一个,我又自己筛选了一下,一共 15 篇内容,都在这里了,如

LLM相关的基础文章很多人整理,AI图像生成的比较少,刚好发现了一个,我又自己筛选了一下,一共15篇内容,都在这里了,如果想深入研究SD,建议看看。主要包括三个部分:图片生成简介、图像生成基础模型的精细调整和构建AI生成服务,。都放在下面的这个个链接里,打开一个就都有了。元旦我也会找时间把这些内容翻译一下,然后发出来,可以收藏这条回来看。等不及可以直接看,下面是具体的分类和文章目录:图像生成技术简介:◆人工智能和艺术:机器学习如何改变创造性工作(报告)◆平面设计师如何创建他们自己的AI工具(博客文章)◆AI图像生成器的工作原理以及扩散是什么(视频)◆什么是Diffusion模型?(视频)◆Diffusion模型的工作原理(1小时课程)◆初学者指南:Stablediffusion(指南)基础模型的精细调整:◆SD1.5通用目的模型的全面精细调整指南(博客文章)◆SD模型的基准测试与混合(博客文章)◆解耦文本编码器和UNET学习率(博客文章)◆D适应:再见学习率困扰?(博客文章)◆自己精细调整通用稳定扩散模型指南(博客文章)构建AI生成服务的后端:◆如何构建一个生成AI服务的后端◆Stablediffusion提示:权威指南◆SD提示的精细调整:修改Stablediffusion提示的GPT3.5(博客文章)◆SD提示的目录(目录)所有内容链接:https://arc.net/folder/10431A09-4798-4002-B99A-2769BD9131FF

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人