最近在 kimi 和 ChatGPT 的帮助下,逐字逐句地精读了三篇AI相关的文章,觉得收获非常大。

最近在 kimi 和 ChatGPT 的帮助下,逐字逐句地精读了三篇AI相关的文章,觉得收获非常大。 很多困扰我已久的问题,在这三篇文章里看到了些线索。 比如,生成式 AI 生成的内容,当前无法实现精准控制,这个问题是否就无解呢?其实不是的,第一篇文章中就提到了他们的解法。 再比如,RAG 在处理幻觉方面这么牛,各种 RAG 技术的通用性如何呢?答案可能没那么乐观,因为他们可能只是某个特定 use case 上做得很好,但不意味着可以轻易推广到其他所有场景。

相关推荐

封面图片

最近拜读了去年火热的斯坦福AI小镇文章的作者Joon Sung Park的两篇文章,分别是22年的Social Simulacr

最近拜读了去年火热的斯坦福AI小镇文章的作者Joon Sung Park的两篇文章,分别是22年的Social Simulacra和23年的Generative Agents(斯坦福AI小镇本文)。两篇都发在交互顶会UIST上(后者得了best paper) 比起Generative agents,22年发表的Social Simulacra聚焦于一个更小的领域- 交互设计原型(prototyping)。具体的思路是:交互原型设计师常常需要了解一个设计的效果,目前的常用做法是招募少量的真人做用户调查。 然而,现实情况下,少量用户的反馈往往并不能体现出这个设计的实际效果,或者使用的潜在隐患。这是因为“用户的行为会彼此影响”。 作者在这里举了“反社会行为”作为例子,比如说,一个人在使用社交媒体时,可能只会根据自己的信息发表观点,但是当很多人都参与讨论时,就会带来煽动性言论(inflammatory comments)或者钓鱼引战(trolling)等现象。这样的问题在小规模的用户测试中是无法被检测到的。 为了在“设计阶段”就能了解到大规模用户可能涌现的群体行为,有一种特定的方法叫做social computing system。这个方法可以看作代理人基模型(agent-based model)在设计学中的应用。尽管代理人基模型在其他学科里已经有很广泛的应用了,但是在设计和用户体验方面的探索还很少,这是本研究的一个创新点。 这篇文章的另一个亮点在于,使用了大语言模型(llm):首先,设计师把自己的设计意图输入给语言模型,然后语言模型生成一系列的用户行为(比如发帖/回复)。基于大量社交媒体数据训练的GPT3,已经足够生成各种积极或者消极的回复,其中也包含作者关注的反社会行为。 最后,作者通过用户实验+一个类似于图灵实验的方式来说明这个方法的有效性:让用户区分真实的用户行为,和使用Social Simulacra生成的用户行为。结果显示,用户在超过40%的数据上都无法判断这是真人还是生成数据,这说明了Social Simulacra在模拟真实用户的表现上效果很好。 阅读22年的Social Simulacra一文,可以看到很多Generative agents的影子:二者都使用了大语言模型(GPT3和GPT3.5),二者都尝试用llm去模拟人(一种是社交媒体行为,一种是生活行为),二者都考虑到了人类互相影响所带来的1+1>2的集体效应,并尝试用技术的方法去模拟这种人类群体效应。 两句话总结体会:1. 阅读Social Simulacra对于理解Generative Agents的想法有很大的帮助,两者结合更可以体现作者思考的连贯性。2. 此外,作者对前沿技术的敏感也让人惊讶。想到这篇文章要在22年3月投稿,而gpt3在20年6月才首次发布beta版本。要在很短的时间内把一项尚不成熟的技术用于解决跨学科问题,作者的技术嗅觉真是很准确也很超强啊。

封面图片

elvis写了一篇非常详细的文章来介绍 RAG 生态的所有部分,还会添加清晰易懂的参考文献列表以及技术性编程教程帮助提高 RAG

elvis写了一篇非常详细的文章来介绍 RAG 生态的所有部分,还会添加清晰易懂的参考文献列表以及技术性编程教程帮助提高 RAG 系统的性能。 主要内容来自《大语言模型的检索增强生成:一项调查》这篇论文,我简要总结了一下文章每个部分的内容,感兴趣可以去看原文: 检索增强生成(Retrieval Augmented Generation, RAG)技术,旨在通过结合外部知识源,如数据库,来提升大语言模型(LLMs)的能力。它主要用于解决领域知识的缺失、事实性问题和生成错误。RAG特别适用于那些需要最新知识、又不需针对每个特定任务重复训练LLM的应用场景,比如对话代理和知识密集型任务。 RAG如何工作 RAG通过接收输入的提示信息,从资源如维基百科中检索相关文档,再将这些文档作为上下文来生成回答。这种方法使LLMs能够访问最新的信息,并生成更准确、更可控、更相关的内容。它能及时适应不断变化的信息,这对于LLM来说至关重要,因为它们的知识库本身是静态的。 RAG系统的发展 RAG系统已经从初级阶段(Naive RAG)发展到高级阶段(Advanced RAG)和模块化阶段(Modular RAG),以解决性能、成本和效率的限制。高级RAG通过优化不同阶段,如预检索、检索和检索后处理,来提高检索质量。模块化RAG则通过调整不同的功能模块来适应特定问题的背景,提供了更大的灵活性。 RAG系统的关键组成 检索:包括提升语义表示、对齐查询与文档,以及调整检索器输出以符合LLM的偏好。 生成:涉及将检索到的信息转化为连贯的文本,并在检索后对LLM进行微调。 增强:在生成任务中融合检索到的段落的上下文,包括不同阶段和增强数据源。 RAG与模型微调 RAG适合用于集成新知识,而模型微调则有助于提升模型的性能和效率。这两种方法可以互补,结合提示工程(Prompting Engineering),能够优化LLM在复杂和可扩展应用中的表现。 RAG的评估 RAG系统的评估基于检索到的上下文质量和生成的内容质量。评估指标包括规范化折扣累计增益(NDCG)、命中率、F1值和精确匹配(EM)等。评估重点是上下文的相关性、答案的准确性和相关性,以及抗噪声能力和信息整合能力。 RAG面临的挑战与未来展望

封面图片

最近用 Kimi 长文创作总是磕磕绊绊,要求 5000 字的情况下,Kimi 只能给到 1000 多字。

最近用 Kimi 长文创作总是磕磕绊绊,要求 5000 字的情况下,Kimi 只能给到 1000 多字。 无意中发现了橙篇 AI,现在 AI 长文创作对我来说,简直信手拈来。 橙篇 AI,一个集合“知识问答、内容搜索、图文理解、长文创作”的多模态 AI 效率工具。 地址: 据说橙篇是百度文库 6 月刚出不久,基于文心大模型,主打长文创作的 AI 效率工具。 你可以简单理解为,橙篇是免费版的 ChatGPT ++ Metaso ++ Midjourney + Gamma。 - ChatGPT:橙篇-AI 问答 - Kimi.ai:橙篇-文档总结 - Metaso:橙篇-资料搜索 - Notion.ai:橙篇-长文神器 - Midjourney:橙篇-AI 漫画(即将上线) - Gamma:橙篇-智能 PPT(即将上线) 最近这几天,我深度使用了它的大多数功能。发现橙篇最秀还是「长文神器」。 你只需提供一个标题(大概 10 个字?),AI 会自动帮写大纲和扩写长文。 我专门试了下这个功能,给出长文的那一刻我傻了,几分钟就给我干出了 20000 字,我平时哼哼唧唧几个小时,最多也就写 1000。 如果你是长文创作选手,推荐你试试橙篇。 橙篇有什么惊艳功能? # 文档总结 橙篇文档总结功能,支持 10+ 常用格式、每个文件最大上传 200MB、100 个文件批量上传、长文无损理解等特性,Kimi 的链接总结只是橙篇基操。 # 搜索资料 橙篇支持“学术检索、全网搜索”这两种搜索模式,我这两天使用的体验效果,发现和 Kimi 有的一拼,部分不那么复杂的搜索需求,已经完全替代了 Metaso。 # 长文写作 橙篇的长文写作功能,主要有“主题生成长文、范文参考写作”。 主题生成长文功能,只要你提供一个标题,它就能直接给你生成文章大纲和长文本内容。 而范文参考写作,橙篇 AI 会根据你提供的范文 Word 和主题,自动生成相关风格长文。 据说这功能最高可以输出 10 万字内容,AI 赛道真是太卷辣~ 相比其他 AI 工具,橙篇有什么优势? # 对新手足够友好 相比 ChatGPT、Kimi 等其他 AI 工具,首页只孤零零显示一个输入框不同。

封面图片

本月收到 500 多篇 ChatGPT 生成的文章,科幻杂志 Clarkesworld 宣布关闭投稿渠道

本月收到 500 多篇 ChatGPT 生成的文章,科幻杂志 Clarkesworld 宣布关闭投稿渠道 杂志编辑 Neil Clarke 表示近期收到了大量由 ChatGPT 生成的科幻故事投稿,在今年 2 月份数量激增至 500 多篇,今年 1 月数量为 100 篇,去年 10 月则为 25 篇。 ChatGPT 等大型语言模型 (LLM) 已经在数百万本书和网站上进行了训练,可以快速创作原创故事。然而,它们不是自主工作的,人类必须通过提示引导它们的输出,然后 AI 模型会尝试自动完成。 Clarkesworld 自 2006 年以来,出版了著名科幻作家的作品,并多次获得雨果奖。在科幻出版物中,它以开放提交流程而享誉业内,通常每字支付 12 美分。 在其提交页面上,该出版物声明,“我们目前不考虑由 AI 编写、合写或协助的故事”。Clarkesworld 官网虽然明确不再接受 AI 生成的投稿,但依然有很多人为了金钱而投稿。 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

ChatGPT 浏览器扩展精选

ChatGPT 浏览器扩展精选 1. DetectGPT - 检测由神经网络编写的文本。在浏览网页时识别 AI 生成的内容。(Chrome 浏览器) 2. CheatScrub GPT Detector - 类似的插件,但功能更多。(火狐浏览器) 3. ChatGPT for Search Engines - 将 ChatGPT 集成到浏览器搜索栏中。(Chrome、Firefox、Edge) 4.Ghostwrite:ChatGPT电子邮件助手 - 可帮您撰写电子邮件的智能服务。(Chrome 浏览器) 5. Casper AI - 用于执行各种任务的智能助手。例如,可以制作一篇文章的简述。(Chrome) 6. ChatGPT Writer - 适用于所有页面,可修复错误、撰写文本、摘要等。(Chrome) 7. GPT for Sheets - “智能版“谷歌表格。(Chrome) 8. ChatGPT for YouTube - 制作 YouTube 视频摘要。(Chrome) 9. ChatGPT File Uploader Extended - 允许您将文件上传到 ChatGPT。(Chrome 浏览器) 10. editGPT - 允许您编辑神经网络生成的文本。(Chrome 、火狐、Edge) #AI #tools

封面图片

LLM 相关的基础文章很多人整理,AI 图像生成的比较少,刚好发现了一个,我又自己筛选了一下,一共 15 篇内容,都在这里了,如

LLM 相关的基础文章很多人整理,AI 图像生成的比较少,刚好发现了一个,我又自己筛选了一下,一共 15 篇内容,都在这里了,如果想深入研究 SD,建议看看。 主要包括三个部分:图片生成简介、图像生成基础模型的精细调整和构建 AI 生成服务,。 都放在下面的这个个链接里,打开一个就都有了。元旦我也会找时间把这些内容翻译一下,然后发出来,可以收藏这条回来看。等不及可以直接看,下面是具体的分类和文章目录: 图像生成技术简介: ◆ 人工智能和艺术:机器学习如何改变创造性工作(报告) ◆ 平面设计师如何创建他们自己的AI工具(博客文章) ◆ AI图像生成器的工作原理以及扩散是什么(视频) ◆ 什么是Diffusion模型?(视频) ◆ Diffusion模型的工作原理(1小时课程) ◆ 初学者指南:Stable diffusion(指南) 基础模型的精细调整: ◆ SD1.5通用目的模型的全面精细调整指南(博客文章) ◆ SD模型的基准测试与混合(博客文章) ◆ 解耦文本编码器和UNET学习率(博客文章) ◆ D适应:再见学习率困扰?(博客文章) ◆ 自己精细调整通用稳定扩散模型指南(博客文章) 构建 AI 生成服务的后端: ◆ 如何构建一个生成AI服务的后端 ◆ Stable diffusion提示:权威指南 ◆ SD提示的精细调整:修改Stable diffusion提示的GPT 3.5(博客文章) ◆ SD提示的目录(目录) 所有内容链接:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人