最近和几个朋友聊天记录:

最近和几个朋友聊天记录:1.我问他是怎么建Prompt的验收标准的:准备好Query,归纳抽象理想回答的几条Principle,找一个更聪明的大模型基于这个Principle来给Prompt的结果打分,每次上线前跑1000条。感觉挺makesense,想测试一下。2.perplexity怎么解决搜索引擎响应速度的问题:去年8月份就宣布基于3.5版本的微调模型已经比GPT4快且效果好,且自研了推理堆栈(pplx-api),能大幅度提升响应速度。微调没那么难搞,只要场景垂数据集质量高,一周左右。3.在厂里的朋友说在搞低代码搭建Agent,面向B端,找不到太落地的具体场景,还要搞权限数据集多环境版本,由于B端业务逻辑比较复杂,要依赖现有GUI,要跳卡片或者跳页面,比C端难做太多了。

相关推荐

封面图片

AI套壳应用如何把壳做厚?

AI套壳应用如何把壳做厚?1.一阶:直接引用Openai接口,ChatGPT回答什么,套壳产品回答什么。卷UI、形态、成本。2.二阶:构建Prompt。大模型可以类比为研发,Prompt可以类比为需求文档,需求文档越清晰,研发实现得越精准。套壳产品可以积累自己的优质Prompt,卷Prompt质量高,卷Prompt分发。3.三阶:Embedding特定数据集。把特定数据集进行向量化,在部分场景构建自己的向量数据库,以达到可以回答ChatGPT回答不出来的问题。比如垂直领域、私人数据等。Embedding可以将段落文本编码成固定维度的向量,从而便于进行语义相似度的比较,相较于Prompt可以进行更精准的检索从而获得更专业的回答。4.四阶:微调Fine-Tuning。使用优质的问答数据进行二次训练,让模型更匹配对特定任务的理解。相较于Embedding和Prompt两者需要消耗大量的Token,微调是训练大模型本身,消耗的token更少,响应速度也更快。一个AI应用产品如果停留在做一阶和二阶,注定是个门槛极低的产品,没有任何壁垒。而什么场景,何时以及如何使用三阶和四阶的能力,是个关键性的问题。

封面图片

周鸿祎:政府和企业拥抱大模型要找到 “明星场景”

周鸿祎:政府和企业拥抱大模型要找到“明星场景”在2024世界智能产业博览会开幕式主论坛上,360集团创始人周鸿祎发表演讲表示,大模型要想引发工业革命,就要把大模型“拉下神坛”。对于政府和企业来说,拥抱大模型应该走越做越专的道路,未来政府企业内部会是多个专业大模型组合起来工作。同时,过去限制大模型走进政府和企业的参数、算力、成本、响应速度、训练难度、人才要求及数据安全等问题也都会迎刃而解,“就像360AI浏览器是由5个专业小模型支撑,测试速度要比百亿、千亿参数大模型快100倍左右。”(新浪科技)

封面图片

构筑大语言模型应用:应用开发与架构设计

构筑大语言模型应用:应用开发与架构设计作者在2023年的上半年和同事一起创建了一系列的流行的或者不流行的开源项目。它们涉及了:LLM能力的充分运用Prompt编写:Prompt学习与编写模式Prompt管理:Prompt即代码LLM下的软件开发工序及应用架构设计新的交互设计:Chat模式大模型友好的工序:基于AI2.0(ChatGPT+Copilot)如何去设计软件开发流程LLM应用架构的设计与落地:UnitMesh面向特定场景的LLM应用基于开源模型构建自己的模型:特定场景的模型微调+LLMOps上下文工程(prompt工程):LLM应用的核心“围绕于上述的一系列内容,我们也在思考软件开发能给我们带来了什么。所以,我重新整理了过去半年的一些思考、文章,重新编写了这本开源电子书,希望能够帮助到大家。”#电子书

封面图片

ChatGPT Next Web 是一个完全开源的聊天记录处理工具,具有精心设计的 UI,响应式设计和支持深色模式的特性。它具有

ChatGPTNextWeb是一个完全开源的聊天记录处理工具,具有精心设计的UI,响应式设计和支持深色模式的特性。它具有极快的首屏加载速度,同时支持简繁体中文和英文无缝切换。此外,它还能自动压缩上下文聊天记录,支持超长对话,并提供一键导出聊天记录以及完整的Markdown支持。ChatGPTNextWeb还支持GPT3.5turbo和GPT4.0turbo的各种版本模型。如果您关心隐私安全,无需担心,因为它完全开源。https://gocodehub.com/3353.html

封面图片

苹果新发布20个Core ML模型和4个数据集 全部开源供开发者们使用

苹果新发布20个CoreML模型和4个数据集全部开源供开发者们使用苹果日前在知名AI模型托管平台HuggingFace上新发布了20个CoreML模型和4个数据集,这些模型全部采用Apache2.0许可证进行开源,所有开发者均可使用。这些采用CoreML框架的新模型在功能上都有所不同,不过侧重点都是在设备端本地运行AI模型执行任务,这样数据不需要上云解决潜在的隐私问题。例如开发者可以构建一款用于图像分类的应用程序,在获得用户授权图库访问权限后,可以调用设备端模型进行处理;或者构建一个可以快速去除图像背景的应用程序,使用设备端模型也可以不上传图片,解决用户的隐私担忧。当然采用设备端模型还有个好处就是响应速度会非常快,借助云端处理开发者需要提供性能更强的服务器才能支撑并发使用,而服务器响应和处理都需要使用,本地处理则不需要使用网络,因此也免去了响应时间问题。目前设备端运行AI模型最大的问题在于芯片性能,例如苹果推出的苹果智能仅支持A17Pro和AppleM系列芯片,对于更旧的芯片还是得第三方开发者们提供支持,虽然这也会存在性能问题。HuggingFace创始人称这是一次重大更新,苹果将许多基于CoreML的新模型上传到了HuggingFace存储库,而CoreML模型严格在设备端运行无需网络连接,这可以让开发者的应用保持“闪电般”的速度,还可以确保用户数据的私密性。有兴趣的开发者们可以访问HuggingFace上的苹果主页获取这些模型,苹果也为部分模型提供了论文描述,开发者可以根据论文说明快速了解这些模型的性能:https://huggingface.co/apple...PC版:https://www.cnbeta.com.tw/articles/soft/1435170.htm手机版:https://m.cnbeta.com.tw/view/1435170.htm

封面图片

男朋友“和狗一样的”聊天记录

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人