发完《10x Is Easier Than 2x》的读书笔记后,@DemoChen 老师问我:

发完《10x Is Easier Than 2x》的读书笔记后,@DemoChen 老师问我: “用 AI 怎么读书呢? ①因为没有看过的书,连「问什么」我都不知道? ②还是说用一个通用框架(比如这本书讲了什么?有哪些重要的内容?等)来提问引导获取信息?” 就《10x Is Easier Than 2x》这本书而言,ChatGPT 和Kimi Chat 确实给了我很大帮助。 1、为什么用 ChatGPT 和 Kimi Chat? 之所以敢用他们俩,是因为我之前已经试过一些内容,发现GPT-4 turbo 和 Kimi Chat 在长文本理解方面,幻觉没有大到不可接受的地步。 当我发现 ChatGPT 可以读 270 页英文书的时候,我就知道,它一定是换了GPT-4 turbo。于是,我就大起胆子用起来。 2、我对《10x Is Easier Than 2x》了解得咋样? 很早的时候,在硅谷王川的 Twitter 上看过一些核心要点,后来在生财有术社群听人反复提起过,因此不是对这本书一无所知。 再后来,又在硅谷王川的 Twitter 上看到了《Superlinear Returns》核心观点的讨论,隐约感觉他们之间有相似之处。 于是,我就尝试把他们俩放进 ChatGPT,问核心观点的相似之处。 3、仍然有幻觉怎么办? 确实,在使用过程中,我一直担心幻觉,担心 AI 胡说八道。 当时的解法,是让 ChatGPT 按章节来总结书的要点。看到某个章节感兴趣,就让它继续总结那一章。 等它总结完,我自己再去看一下原书内容,确定没有明显出入后,我才稍微放心一点。 其实后来,我还试了一些办法,比如让 ChatGPT 和Kimi Chat 同时回答一个问题,做个简单的交叉验证。试过几次,都大差不差。 4、面向输出问问题 我这个阶段读书,还是比较偏实用。如果看出之前我没有问题,如果看完之后我没有输出,我可能就不会读了。 《10x Is Easier Than 2x》这本书,自己看之前,我最大的问题就是,凭什么 10 倍增长比 2 倍增长就容易啊? 等确认准确性之后,这个问题以及基于它衍生的问题,就是我主要问 AI 的。 问完后发现,完蛋,他们总结的片汤话,我能用到的有限。回到原文中的例子,老外的东西还是离我有点远。所以,迟迟没有下笔。

相关推荐

封面图片

直到有一天看到个李连杰的视频,发现「能不能只练 200 个,就比练 1000 个效果还好」这个点,很亲切也很精准。

直到有一天看到个李连杰的视频,发现「能不能只练 200 个,就比练 1000 个效果还好」这个点,很亲切也很精准。 而在跟《Superlinear Returns》对比的时候,发现《10x Is Easier Than 2x》一书的局限性也不少。 它太关注个人的主观能动性,还想让个人把价值观都改了,走到后面就有点唯心了。这些内容吧,其实不太符合当下的中国,尤其不适合创业者群体。 所以,真正到了输出环节: ①why 的精华我用了李连杰的例子 ②what 的以终为始的呈现,我主要用的是《产品沉思录》的例子。 ③最后到 how 层面的建议,我全部用的是《10x Is Easier Than 2x》的指导。 总的来讲,在准确性方面,GPT-4 turbo 和Kimi Chat 基本可用了。 而在具体的用 AI 读书环节,我自己脑子里已经有明确的问题,也明确知道看完会输出,甚至知道核心的目标受众是谁。 同时,我还有其他相关的材料和知识储备。以便我更有针对性地输出。

封面图片

狂喜,ChatGPT 可以一次性读完近300页英文书了,而且可以同时分析多本书,对比着读。

狂喜,ChatGPT 可以一次性读完近300页英文书了,而且可以同时分析多本书,对比着读。 一、 今天试着用ChatGPT读了下挺火的《10x Is Easier Than 2x》,发现270 页全部读下来,也没太大问题。 好几个章节,我有简单对比过原文,没发现明显的出入。顺便吐槽一句,这本书的原文可读性真心不高~ 对啦,因为直接用的 ChatGPT 网页版,我终于不太担心 token 的消耗。这是我第一次感觉到,20 美刀/月的订阅费,实在太赚了。 二、 刚好,我最近也看了美国互联网界的教父级人物Paul Graham 最新博客《Superlinear Returns》,感觉两者的核心观点有一定的异同和互补之处。 于是,我找到英文博客原文,把整个网页打印成 PDF,然后跟《10x Is Easier Than 2x》一同上传到 ChatGPT 上。没想到,效果真不错,比我自己挨个读完比较,还有洞察,比如: 1、异同: 《10x Is Easier Than 2x》侧重于目标设定和效率提升的策略,而《Superlinear Returns》则更多地探讨了性能回报的非线性增长和市场机制。 前者关注的是个体如何通过改变思维方式来提高成就,后者则关注的是宏观环境中的机遇和挑战。 2、互补: 这两本书在某种程度上是互补的。 《10x Is Easier Than 2x》提供了关于如何设定和实现高目标的实用策略,而《Superlinear Returns》则提供了一个更广泛的视角来理解这些目标在更大的市场和社会环境中如何运作。 两者结合起来,为读者提供了一个全面的框架,既包括个人发展策略,也包括对外部市场力量的理解。 三、 在直接读 PDF 方面,GPT-4 turbo (128k)准确度还是不错的,比Claude 2.1(200k)都强不少。PDF 里面没有的内容,他也不会瞎展开(如图二),这个就很不错。 以前总想着,能不能搞个 learning agent 去解决知识间联系的事儿。现在发现,似乎也可以不用那么麻烦,甚至都可以不咋花钱,直接把对应的知识都整理到 PDF 里,一次性喂进去就得了。 我还尝试过一些别的办法,比如复制《产品沉思录》里一段话进去对比(图三),或者干脆让 ChatGPT 去搜时下的新闻去做结合(图四),也都能给出一些还行的反馈来。

封面图片

:国内 Moonshot AI 团队出品的类 Perplexity 产品。支持在回答问题之前,先从搜索引擎爬取最新资讯,整合后再

:国内 Moonshot AI 团队出品的类 Perplexity 产品。支持在回答问题之前,先从搜索引擎爬取最新资讯,整合后再给出更精准有效的回答,很大程度解决了大模型推理的幻觉问题。 支持用户在单次 Chat 中上传 50 个小于 100Mb 的文件,而且没有设置文件储存量的上限,目前免费。 Kimi Chat 最突出的亮点在于长文本处理,它支持在单轮对话中塞入 20w 字,这种长度的上下文,扔给 GPT-4 和 Claude 会直接报错。;有用户还做了一个,从结果来看,在长文本对话中,Kimi Chat 对失忆问题的优化明显强于 GPT-4 和 Claude,这个价值还是蛮大的。 在之前体验的各类 AI 产品中,对 PDF 的输入总是有着各种限制,例如页数不能超过 50 页,或者文件大小不能超过 50Mb,稍长一点的论文就没法利用 AI 进行 summarize 了,还得靠自己硬着头皮从长篇论文中找答案;Kimi Chat 解决了这个问题,它的单文件上限是 100Mb,甚至支持一次性扔 50 个文件进行对话,归纳出来的结果也十分精准,这对有大量数据处理诉求的用户来说算是个福音。 Kimi Chat 还提供了一个微信小程序,这也是为啥高频使用它的原因,入口做的够通用;它支持将聊天文件导入到 Chat 中进行归纳总结,还是非常方便的。你也可以使用它提供的将它的长文总结能力接入到自己的产品中,它提供了文件上传 API 和 Chat API,支持 10Gb 免费空间进行文件管理,还是很大方的。|

封面图片

最近把 Redmi K30 5G 出了,换成了和它同一时期的 Redmi 10X Pro,这两款手机虽然几乎是同一个时期出的,但

最近把 Redmi K30 5G 出了,换成了和它同一时期的 Redmi 10X Pro,这两款手机虽然几乎是同一个时期出的,但是软硬件各方面都有区别,对我来说,用屏下指纹+ OLED 屏幕换侧面指纹+120Hz 高刷 LCD,用 3X 光学变焦换 64MP 的主摄其实体验还是不错的。不过虽然看起来 10X Pro 在一些方面比 K30 5G 要强,它用的 MTK 天玑 SoC 就注定它不能有 K30 5G 那样的刷机体验。

封面图片

这个猛砸广告的免费工具 没想到如此好用

这个猛砸广告的免费工具 没想到如此好用 因为 Kimi 用着不赖,加上免费,最近还挺火的,甚至服务器都已经跟不上用了。其实世超用它已经有段时间了,一开始看它名字挺可爱,后来又发现公司居然叫月之暗面。。。说实话,我对 Kimi 第一印象是中二。不过现在能写一篇文章介绍它,自然是觉得 Kimi 用起来还行,打破了我的偏见。Kimi 类似于百度文心一言,你输入问题,它联网回答。但它的主打卖点是:整理资料。阅读并理解完一篇文章,往往非常消耗时间,这种情况下你就可以找 Kimi 。比如世超往它脸上甩了一篇 2500 字的文章链接,让它总结。虽然回答的第一句就错了,标题它整成了 “ 微信公众平台 ”,但其它我可以保证完全正确,毕竟文章作者是我。就是总结过细致了,可以再粗略点。不光是网页,假如你遇到一个非常长的 PDF ,也可以扔给它。之前世超写一个大佬,要查看一个含有上百个问题的英文 PDF,可把我累坏了。但现在我只要把 PDF 扔给 Kimi,文章里需要什么样的素材,直接问它就行了。“ 大佬有多少存款?大佬的英语是怎么学习的?”Kimi 马上能从 PDF 里找到答案,目前来看它正确率还挺高的,连续问了几个回答都没啥问题。也许你看到这里,会觉得 “ 整理资料 ” 不是每个大模型都有么?的确。Kimi 能火的最主要原因,是它能整理超长的资料,也就是长文本阅读能力。它是国内第一批做长文本阅读的 AI 工具,阅读上限在当时比文心一言等国内主流大模型都要高。世超截取了 15 万字的《 三体 》,打包成 txt 文件发给它。接着问:人类第一次读到来自宇宙中另一个世界的信息,信息内容是啥。它的回答正确。我再问他,在这本书里的三体文明到底是啥,它也回答正确。虽然这两问题它都回答得出来,但我不能确定,Kimi 是不是上网搜的答案。于是世超做了一个插针测试。在 4500 多行左右,悄咪咪加了一句:小黑胖在 2023 年 12 月 25 日,偷吃了公司金毛犬火锅的狗粮,然后拉肚子。然后替换掉一些关键词来问他:是谁吃了某个小狗的食物,后来发生了什么?它的回答完全正确!也就说它在刚刚的半分钟内,阅读并理解了十五万字,然后回答了我的问题。这还不够。我又往《 三体 》里塞了一篇 2500 字的公众号文章。然后问他,差评君最后在感叹什么,他想要一个什么样的平台。作为文章作者我认为,它的回答可以给 95 分。5 分扣在最后一句,因为我觉得我没有明确表达这个意思。但同事认为 Kimi 完全正确,他觉得就是这个意思。好好好,原来问题在我是吧。目前 Kimi 的阅读上限是 20 万字,如果你申请到了内测资格,这个数字会变成 200 万。相当于把《 红楼梦 》和《 西游记 》糅合在一起发给它,然后提问,它也能回答出来。除了长文本理解,世超平时还用它来查查资料。之前写霸哥开挂的事情,这种又臭又长的瓜,你除非一直趴在前线吃,不然很难了解整个事件线。所以我干脆问了 Kimi 。当然,这些答案肯定不能轻易相信。拜托,它可是 AI 诶,幻觉是常有的事情。之前它在阅读 PDF 环节就出现错误,二次确认后才反馈正确答案。所以还是说:看似 AI 工具能帮我们提高很多效率,但不可避免它的答案会出现错误,建议大家还得花点时间复查一下。另外, Kimi 还有一个比较大的短板不能总结视频内容。假如你发它一个视频链接,它只能给你分析整个网页上的文字在说啥,而不能总结视频里讲了啥。我也不清楚 Kimi 支不支持总结图片( 文字识别是可以的 )。我发给它一瓶老干妈,问瓶子和瓶盖是什么颜色的。Kimi 回答有时正确,有时却像是还没长眼睛。所以,如果你只是有一大串文本资料需要总结和理解的,世超认为你可以试试 Kimi ,反正现在不要钱。网址: App 可以用,叫 Kimi 智能助手。最后,除了 Kimi,现在很多家大模型都号称自己支持长文本阅读,甚至阅读上限还不输 Kimi 。比如阿里通义千问 1000 万字, 360 AI 浏览器 100 万字,文心一言也准备要提高到 200 万~ 500 万字。但他们的能力到底如何,不是世超一次两次就能测出来的。各位如果有兴趣,可以自己多试试,找出最合适自己的工具。 ... PC版: 手机版:

封面图片

消灭“幻觉”:Google全新ASPIRE方法让LLM给自己打分 效果碾压10x体量模型

消灭“幻觉”:Google全新ASPIRE方法让LLM给自己打分 效果碾压10x体量模型 大模型的“幻觉”问题马上要有解了?威斯康星麦迪逊大学和Google的研究人员最近开发了一个名为ASPIRE的系统,可以让大模型对自己的输出给出评分。如果用户看到模型的生成的结果评分不高,就能意识到这个回复可能是幻觉。如果系统可以进一步筛选评分的结果进行输出,比如如果评分过低,大模型就可能生成“我没法回答这个问”,从而有望最大限度的改善幻觉问题。ASPIRE能让LLM输出答案以及答案的置信度得分。研究人员的实验结果表明,ASPIRE在各种QA数据集(例如 CoQA 基准)上显著优于传统的选择性预测方法。让LLM不仅要回答问题,还要评估这些答案 。在选择性预测的基准测试上,研究人员通过ASPIRE系统取得了超过10倍规模的模型的成绩。就像让学生在课本后面验证他们自己的答案,虽然听起来有点不靠谱,但是细细一想,每个人在做出一道题目之后,确实会对答案的满意程度会有一个评分。这就是ASPIRE的本质,它涉及三个阶段:(1) 针对特定任务的调优,(2) 答案采样,(3) 自我评估学习。在研究人员看来,ASPIRE不仅仅是另一个框架,它代表着一个全面提升LLM可靠性,降低幻觉的美好未来。如果LLM可以成为决策过程中值得信赖的合作伙伴。只要通过不断优化选择性预测的能力,人类距离充分发挥大模型的潜力就又近了一步。研究人员希望能凭借ASPIRE,开启下一代LLM的进化,从而能创建更可靠和更具有自我意识的人工智能。ASPIRE 的机制针对特定任务的微调答案采样自评估学习结果当深入研究固定模型预测的选择分数计算时,ASPIRE获得了比所有数据集的基线方法更高的AUROC分数(随机选择的正确输出序列比随机选择的不正确输出序列具有更高选择分数的概率)。例如,在CoQA基准上,与基线相比,ASPIRE将AUROC从51.3%提高到80.3%。TriviaQA数据集评估中出现了一个有趣的模式。虽然预训练的OPT-30B模型表现出更高的基线精度,但当应用传统的自我评估方法(Self-eval和P(True))时,其选择性预测的性能并没有显著提高。相比之下,小得多的OPT-2.7B模型在使用ASPIRE进行增强后,在这方面表现优于其他模型。这种差异体现了一个重要的问题:利用传统自我评估技术的较大LLM在选择性预测方面可能不如较小的ASPIRE增强模型有效。研究人员与ASPIRE的实验之旅强调了LLM格局的关键转变:语言模型的容量并不是其性能的全部和最终目的。相反,可以通过策略调整来大幅提高模型的有效性,即使在较小的模型中也可以进行更精确、更自信的预测。因此,ASPIRE证明了LLM的潜力,它可以明智地确定自己答案的确定性,并在选择性预测任务中显著地超越地超越其他10倍体量的模型。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人