RT 九原客
RT 九原客论文阅读:FrugalGPT,降低LLM的成本。常规方法:1.优化Prompt2.Query合并3.语义相似缓存4.使用贵模型对便宜模型微调LLM级联:(重点)5.便宜模型回答后对回答自动打分,分数过低则调用更贵的模型,直到调用GPT-4感觉可以用LangChain自己实现一个。
在Telegram中查看相关推荐
🔍 发送关键词来寻找群组、频道或视频。
启动SOSO机器人RT 九原客论文阅读:FrugalGPT,降低LLM的成本。常规方法:1.优化Prompt2.Query合并3.语义相似缓存4.使用贵模型对便宜模型微调LLM级联:(重点)5.便宜模型回答后对回答自动打分,分数过低则调用更贵的模型,直到调用GPT-4感觉可以用LangChain自己实现一个。
在Telegram中查看🔍 发送关键词来寻找群组、频道或视频。
启动SOSO机器人