狂喜,ChatGPT 可以一次性读完近300页英文书了,而且可以同时分析多本书,对比着读。

狂喜,ChatGPT 可以一次性读完近300页英文书了,而且可以同时分析多本书,对比着读。 一、 今天试着用ChatGPT读了下挺火的《10x Is Easier Than 2x》,发现270 页全部读下来,也没太大问题。 好几个章节,我有简单对比过原文,没发现明显的出入。顺便吐槽一句,这本书的原文可读性真心不高~ 对啦,因为直接用的 ChatGPT 网页版,我终于不太担心 token 的消耗。这是我第一次感觉到,20 美刀/月的订阅费,实在太赚了。 二、 刚好,我最近也看了美国互联网界的教父级人物Paul Graham 最新博客《Superlinear Returns》,感觉两者的核心观点有一定的异同和互补之处。 于是,我找到英文博客原文,把整个网页打印成 PDF,然后跟《10x Is Easier Than 2x》一同上传到 ChatGPT 上。没想到,效果真不错,比我自己挨个读完比较,还有洞察,比如: 1、异同: 《10x Is Easier Than 2x》侧重于目标设定和效率提升的策略,而《Superlinear Returns》则更多地探讨了性能回报的非线性增长和市场机制。 前者关注的是个体如何通过改变思维方式来提高成就,后者则关注的是宏观环境中的机遇和挑战。 2、互补: 这两本书在某种程度上是互补的。 《10x Is Easier Than 2x》提供了关于如何设定和实现高目标的实用策略,而《Superlinear Returns》则提供了一个更广泛的视角来理解这些目标在更大的市场和社会环境中如何运作。 两者结合起来,为读者提供了一个全面的框架,既包括个人发展策略,也包括对外部市场力量的理解。 三、 在直接读 PDF 方面,GPT-4 turbo (128k)准确度还是不错的,比Claude 2.1(200k)都强不少。PDF 里面没有的内容,他也不会瞎展开(如图二),这个就很不错。 以前总想着,能不能搞个 learning agent 去解决知识间联系的事儿。现在发现,似乎也可以不用那么麻烦,甚至都可以不咋花钱,直接把对应的知识都整理到 PDF 里,一次性喂进去就得了。 我还尝试过一些别的办法,比如复制《产品沉思录》里一段话进去对比(图三),或者干脆让 ChatGPT 去搜时下的新闻去做结合(图四),也都能给出一些还行的反馈来。

相关推荐

封面图片

发完《10x Is Easier Than 2x》的读书笔记后,@DemoChen 老师问我:

发完《10x Is Easier Than 2x》的读书笔记后,@DemoChen 老师问我: “用 AI 怎么读书呢? ①因为没有看过的书,连「问什么」我都不知道? ②还是说用一个通用框架(比如这本书讲了什么?有哪些重要的内容?等)来提问引导获取信息?” 就《10x Is Easier Than 2x》这本书而言,ChatGPT 和Kimi Chat 确实给了我很大帮助。 1、为什么用 ChatGPT 和 Kimi Chat? 之所以敢用他们俩,是因为我之前已经试过一些内容,发现GPT-4 turbo 和 Kimi Chat 在长文本理解方面,幻觉没有大到不可接受的地步。 当我发现 ChatGPT 可以读 270 页英文书的时候,我就知道,它一定是换了GPT-4 turbo。于是,我就大起胆子用起来。 2、我对《10x Is Easier Than 2x》了解得咋样? 很早的时候,在硅谷王川的 Twitter 上看过一些核心要点,后来在生财有术社群听人反复提起过,因此不是对这本书一无所知。 再后来,又在硅谷王川的 Twitter 上看到了《Superlinear Returns》核心观点的讨论,隐约感觉他们之间有相似之处。 于是,我就尝试把他们俩放进 ChatGPT,问核心观点的相似之处。 3、仍然有幻觉怎么办? 确实,在使用过程中,我一直担心幻觉,担心 AI 胡说八道。 当时的解法,是让 ChatGPT 按章节来总结书的要点。看到某个章节感兴趣,就让它继续总结那一章。 等它总结完,我自己再去看一下原书内容,确定没有明显出入后,我才稍微放心一点。 其实后来,我还试了一些办法,比如让 ChatGPT 和Kimi Chat 同时回答一个问题,做个简单的交叉验证。试过几次,都大差不差。 4、面向输出问问题 我这个阶段读书,还是比较偏实用。如果看出之前我没有问题,如果看完之后我没有输出,我可能就不会读了。 《10x Is Easier Than 2x》这本书,自己看之前,我最大的问题就是,凭什么 10 倍增长比 2 倍增长就容易啊? 等确认准确性之后,这个问题以及基于它衍生的问题,就是我主要问 AI 的。 问完后发现,完蛋,他们总结的片汤话,我能用到的有限。回到原文中的例子,老外的东西还是离我有点远。所以,迟迟没有下笔。

封面图片

直到有一天看到个李连杰的视频,发现「能不能只练 200 个,就比练 1000 个效果还好」这个点,很亲切也很精准。

直到有一天看到个李连杰的视频,发现「能不能只练 200 个,就比练 1000 个效果还好」这个点,很亲切也很精准。 而在跟《Superlinear Returns》对比的时候,发现《10x Is Easier Than 2x》一书的局限性也不少。 它太关注个人的主观能动性,还想让个人把价值观都改了,走到后面就有点唯心了。这些内容吧,其实不太符合当下的中国,尤其不适合创业者群体。 所以,真正到了输出环节: ①why 的精华我用了李连杰的例子 ②what 的以终为始的呈现,我主要用的是《产品沉思录》的例子。 ③最后到 how 层面的建议,我全部用的是《10x Is Easier Than 2x》的指导。 总的来讲,在准确性方面,GPT-4 turbo 和Kimi Chat 基本可用了。 而在具体的用 AI 读书环节,我自己脑子里已经有明确的问题,也明确知道看完会输出,甚至知道核心的目标受众是谁。 同时,我还有其他相关的材料和知识储备。以便我更有针对性地输出。

封面图片

#看书 #英文书籍The Moth是在美国组织有意思的人讲真实故事的一个活动。这本书就是The Moth的工作人员写的。他们常年

#看书 #英文书籍 The Moth是在美国组织有意思的人讲真实故事的一个活动。这本书就是The Moth的工作人员写的。他们常年帮助想要分享自己故事的人,发现,塑造,完善和呈现那些故事。这本书会对本身想要写书或者要演讲的人有很大帮助。可能对做营销,有story telling需求的读者也会有帮助吧。 除开它的功能性,书里面的例子也很有意思。书里讲到什么技巧的时候,都会给到相应的例子。这些例子都是他们真实帮助过的案例。给我印象很深的一个例子是他们请了一个非法移民来讲他的真实经历。观众里很多都是白人。这个非法移民在讲他的故事前也会有疑虑,不知道台下的人会不会和他有共鸣。他讲完后可以说是掌声雷动。非常成功。在这之后也没有人因为他非法移民的身份去举报他。他用自己的故事让台下的观众体会到了他的处境,感同身受。

封面图片

Notion 官方发文分享提示词技巧,我读完后印象最深的 4 点

Notion 官方发文分享提示词技巧,我读完后印象最深的 4 点 1. 不要用负面描述 在提示词里描述任务要求时,用「只输出 markdown」这样的正面描述,不要用「别输出 markdown 以外的内容」。 从文中的解释来看,AI 在处理涉及「不要做 X」的指令时,会将其等同视为「做 X」,因而错误的做出我们希望它避免的事。 之前@余一.Dev 也分享过这个注意点 2. 给 AI 套人设 AI 不那么擅长区分好坏,但很擅长模仿,如果要 AI 做的某件事是某个人设擅长应对的,可以让 AI 代入那个人设。 比如文中举例让 AI 写营销计划,就指定了市场分析师的角色,在提示词里写了「You’re a market analyst」。 这个技巧也是我现在很常用的,比如让 AI 处理代码时,会让它代入程序员的角色。之前我参与的一个翻译项目,也是用这个技巧提升了翻译质量。 面对上万字的游戏更新日志,让 AI 代入对应游戏的资深玩家,相比一开始不代入角色输出好了很多,游戏里的术语基本都能正确翻译出来。 3. 让 AI 先深呼吸 在调节精神状态的正念练习中,会引导参与者先深呼吸、平复心境,以便更好的处理杂乱的思维,但我没想到这对 AI 也有用。 如果在提示词里让 AI 先深呼吸,据文中说可以得到更好的输出结果。 但为什么会这样?我顺着 Notion 官方的这篇文章找到了原文,了解到目前有个推测的解释。 AI 训练中会用到不少来自问答论坛的数据,而这些地方的高质量回答通常会以「let’s take a deep breath」或「let’s think step by step」开头,导致学习了这些相关性的 AI 在同样的引导下更容易输出高质量的回答。 类似的技巧还有不少,比如最近热传的承诺小费,或是@莫唯书_Mark 叠满 buff 施法的操作 4. Notion AI 相较 ChatGPT 的亮点 我用 Notion AI 几乎也是从一上线到现在,这么长时间的使用中,老实说除了访问的门槛,我并没有觉得 Notion AI 相比 ChatGPT 好多少。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人