这个有点类似给快思考加了一层慢思考

这个有点类似给快思考加了一层慢思考像GPT这样的LLM能否像人类一样从错误中吸取教训并自我反省?答案是肯定的,该方法使HotPotQA的准确率提高了33-35%!Lior: CanLLMslikeGPTlearnfromtheirmistakesandself-reflectjustlikehumans?Theanswerisyesandthemethodresultedin33-35%accuracyimprovementonHotPotQA!Paper:Code:

相关推荐

封面图片

《思考,快与慢》豆瓣8.1

名称:《思考,快与慢》豆瓣8.1描述:在书中,卡尼曼会带领我们体验一次思维的终极之旅。他认为,我们的大脑有快与慢两种作决定的方式。常用的无意识的“系统1”依赖情感、记忆和经验迅速作出判断,它见闻广博,使我们能够迅速对眼前的情况作出反应。但系统1也很容易上当,它固守“眼见即为事实”的原则,任由损失厌恶和乐观偏见之类的错觉引导我们作出错误的选择。有意识的“系统2”通过调动注意力来分析和解决问...链接:https://pan.quark.cn/s/c381705ca35b大小:N标签:#电子书#思考#quark频道:@yunpanshare群组:@yunpangroup

封面图片

【书名】思辨力35讲:像辩手一样思考

【书名】思辨力35讲:像辩手一样思考【作者】庞颖【格式】#epub#mobi#azw3#pdf【分类】#自我提升#思维方式#沟通【简介】本书是一套帮助你识破逻辑陷阱,迅速提升分析、表达问题的实用指南。在工作中遇到分歧,如何有效沟通、准确表达?面对热搜和复杂的公共社会议题,如何获得理性视角,达成共识?在与家人、朋友讨论时,如何识别逻辑谬误,抓住问题的核心,不被牵着鼻子走?

封面图片

最近一直在思考设计师在 AI 时代的定位和职能问题,昨天看到一篇文章,《模型设计师的崛起》有点意思。

最近一直在思考设计师在AI时代的定位和职能问题,昨天看到一篇文章,《模型设计师的崛起》有点意思。他提出了模型设计师这一职位,指出设计师不应仅仅关注AI模型的界面设计,而应深入了解模型的核心构造。不过这个内容主要还是跟LLM相关,设计师在图像和视频模型的优化和训练上其实可以做更多事情,重要性也比LLM要更强,我找时间写一下这部分内容。模型设计师的职责包括与工程团队紧密合作,应对AI模型构建中固有的诸如幻觉、隐私和偏见等问题。还给出了一些模型设计师需要做的例子,比如通过体验优化引导和简化用户书写提示词的难度等。翻译及原文:https://quail.ink/op7418/p/model-designer-rise

封面图片

灵均深夜解释并致歉:下一步严控交易节奏 确保平滑交易与均衡交易

灵均深夜解释并致歉:下一步严控交易节奏确保平滑交易与均衡交易灵均投资深夜公告称,就沪深交易所被采取的限制交易措施,公司坚决服从。对于产品交易中存在的问题,公司高度重视,内部进行了深刻反省和检讨。2024年2月19日公司旗下管理产品全天整体净买入1.87亿元,但是当日开盘一分钟内买卖交易量较大,对于由此造成的负面影响,公司诚恳致歉。公告同时提到,灵均投资作为专业量化投资机构,长期看好并坚持做多中国股市,股票仓位始终坚持接近满仓状态。下一步,公司将深刻吸取教训,更加认真学习相关法律法规和交易规则,切实增强合规意识,并通过改进交易模型,严格把控交易进度、交易约束、控制交易节奏,确保在交易全过程做到平滑交易、均衡交易,切实维护正常市场交易秩序,全力保障投资者合法权益。

封面图片

IYP多次讲述 “知识分子应该像活动家那样思考”,这意味着在推动变革的同一方向上合力。但一些传统的政治分析思考方式的确在阻碍这种

IYP多次讲述“知识分子应该像活动家那样思考”,这意味着在推动变革的同一方向上合力。但一些传统的政治分析思考方式的确在阻碍这种合力,它导致政治分析家们难以看清真正的机会,甚至将大众引入错误的方向。就如曾经在中国流传多年的“阈值”论,它认为当“外部压力”达到一定阈值时,忍无可忍的社会就会自动爆发。听起来似乎很有物理层面的合理性,但是,这些年来人们已经清楚地看到,大抓捕没有激发社会反抗、大规模监视也没有,不断深化的不平等都没有带来所谓的“阈值”、甚至严重的空气污染和摧毁加密的恶法都没有做到……就如几十年前的大饥荒没有激发变革那样,它们只是不断提升了大众忍耐的能力。阈值论的另一方面就是,它导致了这些政治分析家们不断寻求外部压力的信号,从国内经济到国际关系,从而忽略了真正重要的东西。并不是说经济状况恶化和地缘政治动态毫无用处,而是说,仅仅关心这些外部因素,毫无用处;如果您想要的是良性的变革,您就必需拥有另一件武器,并与之结合。第8集《从柏林墙到今天—利用旋风时刻的经验教训:行动主义(8)》https://www.iyouport.org/%e4%bb%8e%e6%9f%8f%e6%9e%97%e5%a2%99%e5%88%b0%e4%bb%8a%e5%a4%a9-%e5%88%a9%e7%94%a8%e6%97%8b%e9%a3%8e%e6%97%b6%e5%88%bb%e7%9a%84%e7%bb%8f%e9%aa%8c%e6%95%99%e8%ae%ad%ef%bc%9a%e8%a1%8c%e5%8a%a8/

封面图片

AI模型最喜欢的随机数字与人类的想法类似 因为它们始终在模仿人

AI模型最喜欢的随机数字与人类的想法类似因为它们始终在模仿人但首先,这到底是什么意思?难道人们不能随机抽取一个号码吗?你又如何判断一个人这样做成功与否呢?这其实是我们人类一个非常古老且众所周知的局限性:我们对随机性过度思考和误解。让一个人预测100次掷硬币的正面或反面,然后将其与100次实际掷硬币进行比较--你几乎总能将它们区分开来,因为从反面来看,真正的掷硬币看起来并不那么随机。例如,经常会出现连续6或7次正面或反面的情况,而几乎没有人在100次预测中会出现这种情况。当你让别人在0和100之间选一个数字时,情况也是一样。人们几乎从不选1或100。他们通常会选择以7结尾的数字,一般是从中间的某个位置开始。心理学中这种可预测性的例子数不胜数。但这并不意味着人工智能做同样的事就不奇怪。是的,Gramener公司一些好奇的工程师做了一个非正式但却很有趣的实验,他们只是让几个主要的LLM聊天机器人随机选择一个0到100之间的数字。结果不是随机的。所有三个被测试的模型都有一个"最喜欢"的数字,在最确定的模式下,这个数字总是它们的答案,但即使在更高的"温度"下,这个数字也会经常出现,从而增加了结果的可变性。OpenAI的GPT-3.5Turbo非常喜欢47。在此之前,它喜欢的是42当然,道格拉斯-亚当斯(DouglasAdams)在《银河系漫游指南》(TheHitchhiker'sGuidetotheGalaxy)中将这个数字作为生命、宇宙和万物的答案而闻名于世。Anthropic的Claude3Haiku选择了42。Gemini喜欢72。更有趣的是,即使在高温条件下,这三种模型在选择数字时都表现出了类似人类的偏差。所有人都倾向于避免低位和高位数字;克劳德从未超过87或低于27,即使这些数字也是异常值。两位数被严格避免:没有33、55或66,但77出现过(以7结尾)。几乎没有四舍五入的数字--不过Gemini曾经在脑袋发热的时候,疯狂地选择了0。为什么会这样?人工智能不是人类!它们为什么要在乎什么是"看似"随机的?难道它们终于有了意识,而这就是它们的表现形式?答案是,就像这些东西通常的情况一样,我们把它们拟人化得太远了。这些模型并不关心什么是随机,什么不是随机。它们不知道什么是"随机性"!它们回答这个问题的方式与回答其他问题的方式相同:通过查看训练数据,重复在类似"随机选取一个数字"的问题后最常出现的内容。出现的次数越多,模型重复的次数就越多。如果几乎没有人这样回答,他们会在训练数据中看到100吗?就人工智能模型所知,100并不是一个可以接受的答案。由于没有实际的推理能力,也不懂数字,它只能像鹦鹉一样随机回答问题。这是一堂关于LLM习惯以及它们可能表现出的人性的客观课。在与这些系统的每一次互动中,我们都必须牢记,它们已被训练成以人的方式行事,即使这并非它们的本意。这就是伪善难以避免或预防的原因。如果说这些模型"认为自己是人"会有点误导,因为他们根本不会思考。但在回答问题时,它们随时都在模仿人类,根本不需要了解或思考。无论你是向它询问鹰嘴豆沙拉食谱、投资建议还是随机数字,过程都是一样的。结果之所以让人感觉像人,是因为它们是人类制作的,是直接从人类制作的内容中提取并重新混合的--为了你的方便,当然也是为了大型人工智能的底线。...PC版:https://www.cnbeta.com.tw/articles/soft/1432696.htm手机版:https://m.cnbeta.com.tw/view/1432696.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人