天才:AI输出错误的答案让我思考,引出正确的答案。

天才:AI输出错误的答案让我思考,引出正确的答案。蠢材:AI必须输出正确的答案。foxhsiao: 〈让ChatGPT帮你下prompt〉经赖以威老师同意转载昨天聊到OpenAI的报告中,指出「数学家」将大幅受到chatGPT影响。但影响并非总是负面的「被取代」,也可能是如同从骑马变成开车那样,透过工具加速发展。对此,陶哲轩做了最好的示范。▩谁是陶哲轩​陶哲轩(Terence…

相关推荐

封面图片

【Ripple CTO:ChatGPT 的答案只是看起来正确】

【RippleCTO:ChatGPT的答案只是看起来正确】Ripple首席技术官DavidSchwartz在社交媒体上发文称,人工智能驱动的聊天机器人ChatGPT和生成式AI程序背后的类似大型语言模型(LLM)提供了不真实的答案,这些答案只是看起来正确,他认为ChatGPT的工作是为用户提供看起来与此类问题通常获得的输出尽可能相似的输出。在与现实世界中的实际事物相对应的意义上,是否真的“真实”根本不是一个考虑因素。此前著名律师史蒂夫弗拉德克(SteveVladeck)分享了ChatGPT生成伪造法庭案件文件的例子并建议永远不要使用ChatGPT或类似工具进行法律研究。

封面图片

【Ripple CTO谈AI:如果你需要真实答案,请不要使用它】

【RippleCTO谈AI:如果你需要真实答案,请不要使用它】2023年05月28日04点30分老不正经报道,Ripple首席技术官DavidSchwartz表示,AI驱动的聊天机器人ChatGPT和生成式AI程序背后的类似大型语言模型(LLM)提供了不真实的答案,只是看起来正确而已。因此,它们不应用于寻找“严肃”问题的真实答案。此外,在不久的将来,人工智能将能够生成从未发生过的恐怖袭击的现场录像。

封面图片

Google AI Overviews功能输出答案漏洞百出 维护方式竟然是手动删除

GoogleAIOverviews功能输出答案漏洞百出维护方式竟然是手动删除Google还表示,其AIOverview产品主要向用户输出“高质量信息”。Google发言人梅根·法恩斯沃斯在一封电子邮件中说:“我们看到的许多例子都是不常见的查询,我们也看到了被篡改或我们无法复制的例子。”此前,AI概览功能曾建议用户“在披萨上涂胶水”或是“吃石头”,甚至在关于前总统奥巴马的问题上,AI概览给出了“巴拉克·侯赛因·奥巴马被认为是美国第一位穆斯林总统”这个存在明显事实错误的答案。AI概览给出的与事实不符的答案这样的情况并非首次出现,2022年,Meta发布了一款名为Galactica的人工智能系统,该系统在发布后不久就不得不被撤下,因为该系统在回答中让人去吃玻璃。Google公司曾以先进的科技产品得到业界的一致好评,然而最近Google的表现却令人感到失望,一位不愿透露姓名的人工智能创始人表示:“一家曾经以走在最前沿、生产高质量产品而闻名的公司,现在却以低质量的产品而闻名,而且还被人发布在网上嘲笑。”事实上,Google目前的的处境很艰难。在Google之前,Bing就大举进军人工智能领域,OpenAI也在开发自己的搜索引擎,而只想要获得最佳体验的年轻一代用户正在转向TikTok。这些都给了Google很大的竞争的压力。相关文章:Google的AI搜索功能向用户建议使用胶水让奶酪粘在披萨上Google的AI概览被发现很糟糕:建议人们每天应该吃一块石头...PC版:https://www.cnbeta.com.tw/articles/soft/1432262.htm手机版:https://m.cnbeta.com.tw/view/1432262.htm

封面图片

Stack Overflow 宣布临时禁止用户分享AI聊天机器人 ChatGPT 产生的内容

StackOverflow宣布临时禁止用户分享AI聊天机器人ChatGPT产生的内容OpenAI的新通用聊天机器人原型ChatGPT过去几天风靡一时,它在解决各种问题上的能力使其可以成为Google等搜索引擎和StackOverflow等编程问答社区的部分替代。StackOverflow上也涌入了大量用ChatGPT生成的问题答案。StackOverflow社区现在发表了一则声明,宣布临时封杀ChatGPT。StackOverflow称ChatGPT答案的正确率非常低,因此对整个网站以及寻求正确答案的用户来说是有害的。如果用户被发现使用ChatGPT回答问题,他们可能会受到禁止继续发帖的惩罚。——,

封面图片

Self-Refine:通过针对性地反馈 (Feedback) 调整循环来引导 AI 输出更好的答案。

Self-Refine:通过针对性地反馈(Feedback)调整循环来引导AI输出更好的答案。上周吴恩达教授在TheBatch中聊到了智能体(AIAgent)工作流设计模式中的反思模式(https://m.okjike.com/originalPosts/6607dc65a922aa28d05cbbc7?s=ewoidSI6ICI2NGI3NDBlNWI4Yzc1YTFiYjhkNDA0YjciCn0=),并推荐了三篇论文:-Self-Refine(https://arxiv.org/abs/2303.17651)-Reflexion(https://arxiv.org/abs/2303.11366)-CRITIC(https://arxiv.org/abs/2305.11738)读下来对我启发最大的是Self-Refine,也是我认为能够在日常与AI对话中可以直接用得上的。如果你的工作会涉及到智能体(AIAgent)的工作流,Reflexion和CRITIC可以参考一下,对于日常使用AI来说,不读问题也不大。模式都比较好理解,难的是工程上如何针对性地应用。其中,Reflexion的模式是有三个主要的角色加一个记忆模块(Memory)来实现:1.执行者(Actor):就像一个尝试解决问题的人,它会根据当前的情况提出行动计划,并执行这些计划;2.评估者(Evaluator):类似于一个老师或评委,它会评估执行者的行动计划是否有效,并给出成绩或反馈;3.反思者(Self-reflection):当执行者的计划不够好时,反思者会帮助它理解哪里出了问题,并提出如何改进的建议。就像人类在犯错后会思考如何改进一样,这个过程中,Actor会尝试不同的行动,并从结果中学习。每当Actor完成一个步骤时,Evaluator会评估Actor的表现,并记录下哪些做得好,哪些需要改进。这些记录被保存起来放到Memory模块中,以便在未来的尝试中让Actor参考,并在未来做出更好的决策。通过这样的尝试、评估和反思循环来更好地完成指定的任务。整个过程参考图一。CRITIC则更好理解,就是借助外部工具来给AI提供更精确的反馈,然后让AI根据这些反馈来优化输出。过程大致如下:

封面图片

AI狂飙的时代的思考

AI狂飙的时代的思考比尔·盖茨称赞,当前这场由ChatGPT衍生开来的人工智能革命是他所见到的自1980年以来最具革命性的技术进步。具体来说,GPT的革命性到底体现在什么地方?当前关于人工智能的讨论有些怎样的误区?它可能会带来什么影响?有什么是它能做的、又有什么是它永远也做不到的?它会是我们的“奇点时刻”吗?人类需要为此忧心忡忡吗?()来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人