最近和几个朋友聊天记录:

最近和几个朋友聊天记录: 1. 我问他是怎么建Prompt的验收标准的:准备好Query,归纳抽象理想回答的几条Principle,找一个更聪明的大模型基于这个Principle来给Prompt的结果打分,每次上线前跑1000条。 感觉挺make sense,想测试一下。 2.perplexity怎么解决搜索引擎响应速度的问题:去年8月份就宣布基于3.5版本的微调模型已经比GPT4快且效果好,且自研了推理堆栈(pplx-api),能大幅度提升响应速度。微调没那么难搞,只要场景垂数据集质量高,一周左右。 3.在厂里的朋友说在搞低代码搭建Agent,面向B端,找不到太落地的具体场景,还要搞权限数据集多环境版本,由于B端业务逻辑比较复杂,要依赖现有GUI,要跳卡片或者跳页面,比C端难做太多了。

相关推荐

封面图片

AI套壳应用如何把壳做厚?

AI套壳应用如何把壳做厚? 1.一阶:直接引用Open ai接口,ChatGPT回答什么,套壳产品回答什么。卷UI、形态、成本。 2.二阶:构建Prompt。大模型可以类比为研发,Prompt可以类比为需求文档,需求文档越清晰,研发实现得越精准。套壳产品可以积累自己的优质Prompt,卷Prompt质量高,卷Prompt分发。 3.三阶:Embedding特定数据集。把特定数据集进行向量化,在部分场景构建自己的向量数据库,以达到可以回答ChatGPT回答不出来的问题。比如垂直领域、私人数据等。Embedding可以将段落文本编码成固定维度的向量,从而便于进行语义相似度的比较,相较于Prompt可以进行更精准的检索从而获得更专业的回答。 4.四阶:微调Fine-Tuning。使用优质的问答数据进行二次训练,让模型更匹配对特定任务的理解。相较于Embedding和Prompt两者需要消耗大量的Token,微调是训练大模型本身,消耗的token更少,响应速度也更快。 一个AI应用产品如果停留在做一阶和二阶,注定是个门槛极低的产品,没有任何壁垒。 而什么场景,何时以及如何使用三阶和四阶的能力,是个关键性的问题。

封面图片

构筑大语言模型应用:应用开发与架构设计

构筑大语言模型应用:应用开发与架构设计 作者在2023 年的上半年和同事一起创建了一系列的流行的或者不流行的开源项目。它们涉及了: LLM 能力的充分运用 Prompt 编写:Prompt 学习与编写模式 Prompt 管理:Prompt 即代码 LLM 下的软件开发工序及应用架构设计 新的交互设计:Chat模式 大模型友好的工序:基于 AI 2.0 (ChatGPT + Copilot)如何去设计软件开发流程 LLM 应用架构的设计与落地:Unit Mesh 面向特定场景的 LLM 应用 基于开源模型构建自己的模型:特定场景的模型微调 +LLMOps 上下文工程(prompt 工程):LLM 应用的核心 “围绕于上述的一系列内容,我们也在思考软件开发能给我们带来了什么。所以,我重新整理了过去半年的一些思考、文章,重新编写了这本开源电子书,希望能够帮助到大家。” | #电子书

封面图片

《ChatGPT_1.0_mogyvic.ipa》

《ChatGPT_1.0_mogyvic.ipa》 简介:一款基于ChatGPT模型开发的iOS平台第三方客户端,旨在为用户提供便捷的智能对话体验。通过本地化功能适配和界面优化,支持自然语言问答、信息检索及个性化交互,适合需要灵活部署AI助手的场景。 亮点:集成轻量化设计,响应速度快;可自定义对话模板与快捷指令,增强操作效率;部分版本支持离线基础功能与隐私保护模式,满足无网络环境的基础需求。 标签: #人工智能#iOS应用#个性化交互#第三方工具#ChatGPT#移动端优化 更新日期:2025-04-18 05:53:15 链接:

封面图片

苹果新发布20个Core ML模型和4个数据集 全部开源供开发者们使用

苹果新发布20个Core ML模型和4个数据集 全部开源供开发者们使用 苹果日前在知名 AI 模型托管平台 HuggingFace 上新发布了 20 个 Core ML 模型和 4 个数据集,这些模型全部采用 Apache 2.0 许可证进行开源,所有开发者均可使用。这些采用 Core ML 框架的新模型在功能上都有所不同,不过侧重点都是在设备端本地运行 AI 模型执行任务,这样数据不需要上云解决潜在的隐私问题。例如开发者可以构建一款用于图像分类的应用程序,在获得用户授权图库访问权限后,可以调用设备端模型进行处理;或者构建一个可以快速去除图像背景的应用程序,使用设备端模型也可以不上传图片,解决用户的隐私担忧。当然采用设备端模型还有个好处就是响应速度会非常快,借助云端处理开发者需要提供性能更强的服务器才能支撑并发使用,而服务器响应和处理都需要使用,本地处理则不需要使用网络,因此也免去了响应时间问题。目前设备端运行 AI 模型最大的问题在于芯片性能,例如苹果推出的苹果智能仅支持 A17 Pro 和 Apple M 系列芯片,对于更旧的芯片还是得第三方开发者们提供支持,虽然这也会存在性能问题。HuggingFace 创始人称这是一次重大更新,苹果将许多基于 Core ML 的新模型上传到了 HuggingFace 存储库,而 Core ML 模型严格在设备端运行无需网络连接,这可以让开发者的应用保持 “闪电般” 的速度,还可以确保用户数据的私密性。有兴趣的开发者们可以访问 HuggingFace 上的苹果主页获取这些模型,苹果也为部分模型提供了论文描述,开发者可以根据论文说明快速了解这些模型的性能: ... PC版: 手机版:

封面图片

BOT(聊天机器人)通常需要一种新的通讯协议来与用户进行交互。这种协议通常是一种基于文本或语音的交互协议,用于指导人机对话的流程

BOT(聊天机器人)通常需要一种新的通讯协议来与用户进行交互。这种协议通常是一种基于文本或语音的交互协议,用于指导人机对话的流程。 现有的通讯协议,如HTTP和SMTP等,主要是为人类之间的交流设计的,它们不适合机器人之间的交互。因此,为了使BOT能够更好地与用户进行交互,需要开发新的通讯协议,例如基于WebSocket的通讯协议。 WebSocket是一种双向通信协议,可以在客户端和服务器之间建立持久的连接,并允许双方随时发送和接收数据。这种通讯协议可以使BOT更好地感知用户的意图和情感,并作出相应的响应。同时,这种通讯协议也可以提高机器人的响应速度和交互效率,提供更好的用户体验。 因此,开发基于WebSocket的通讯协议可以为BOT提供更好的交互体验和更广泛的应用场景。

封面图片

《Question.AI_v3.2.3高级版.apk》

《Question.AI_v3.2.3高级版.apk》 简介:一款基于人工智能技术的智能问答工具,通过深度学习算法为用户提供快速、精准的问题解答,覆盖学术、生活、科技等多领域。支持多语言交互,适配移动端高效操作,满足即时信息检索与知识拓展需求。 亮点:搭载升级版AI模型,响应速度提升30%;新增离线问答模式与个性化学习推荐功能,无网络环境下仍可调用本地数据库;高级版用户独享无限次追问权益及专属学术资源库。 标签: #AI问答#智能助手#多语言支持#离线功能#QuestionAI#Android应用 更新日期:2025-4月

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人