最近读的2篇论文非常不错

最近读的2篇论文非常不错 1.第一篇是复旦大学和米哈游联合推出的 The Rise and Potential of Large Language Model Based Agents: A Survey 最近看Agent代码比较多,这篇论文对Agent做了比较完整的叙述,可以作为理解Agent的框架性知识。 2.第二篇是微软出的GPT-4V(可以输入图片的GPT4)的研究报告 The Dawn of LMMs:Preliminary Explorations with GPT-4V(ision) 看完后只有2个字"震撼",越来越相信AI是未来,而且是不远的未来,为之前失明的 GPT增加了双眼,眼与耳朵一起使用对世界的理解进一步加强了。

相关推荐

封面图片

最近有点纠结,究竟是开始上手AI视频,还是深入研究些 agent。

最近有点纠结,究竟是开始上手AI视频,还是深入研究些 agent。 本着“不看广告看疗效”的态度,调研了一圈两者在商业公司的落地情况,发现还是后者更加靠谱,更加适合我。 吴恩达老师的“GPT-4+agent>GPT-5”的判断,个人是比较认同和深有感触的。 吴恩达老师在演讲中还提到agent的 4 大设计模式,并推荐了10篇相关的论文,我打算今天就开始啃起来: 1、Reflection 2、Tool Use 3、Planning 4、Multi-agent collaboration

封面图片

米哈游最近与复旦NLP实验室合著了一篇86页的AI Agent论文,该论文从认知核心(推理,记忆,规划)、感知(文本,视觉,听觉

米哈游最近与复旦NLP实验室合著了一篇86页的AI Agent论文,该论文从认知核心(推理,记忆,规划)、感知(文本,视觉,听觉)、行动(文本,工具使用,具身)、参与者(单智能体,多智能体,真人与智能体)和环境(虚拟沙盒,物理引擎)等方面做了一个很好的AI Agent概述。 如果“斯坦福小镇”这样的生成式Agent可以应用到《原神》或其他大型MMORPG游戏中,那无疑将带来令人难以预料的惊喜。但目前来看大规模部署Agent的成本和效率等关键难题还有待突破。 论文链接:

封面图片

微软在最近发布的一篇论文中对 GPT-4 进行了全面评测。微软认为「鉴于 GPT-4 能力的广度和深度,我们相信它应该被合理视作

微软在最近发布的一篇论文中对 GPT-4 进行了全面评测。微软认为「鉴于 GPT-4 能力的广度和深度,我们相信它应该被合理视作一个通用人工智能(AGI)系统的早期(但仍不完整)版本。」 #抽屉IT

封面图片

最近关于PM要不要读论文的讨论越来越热烈了

最近关于PM要不要读论文的讨论越来越热烈了 不管怎么说算法都要读论文的 一位算法朋友为了满足自己需要搞了网站 - 用算法选出每天最值得看的10篇AI论文 - 也可以自己搜索感兴趣的论文话题 - 论文解决的问题都用中文列好了 - 未来研究思路启发灵感 如果你也想AI论文,可以试试

封面图片

一篇名为《Scaling Transformer to 1M tokens and beyond with RMT》()最近在技

一篇名为《Scaling Transformer to 1M tokens and beyond with RMT》()最近在技术圈引发热议。有推友用chatgpt给这篇论文做了一个通俗易懂的总结。| 该论文提出一种名为 RMT 的新技术,或许可将 Transform 的 Token 上限扩展至 100 万,甚至更多。 而目前最强的 GPT-4-32k,其 Token 上限也才 3.2 万,这就导致了它并不能很好的处理长文内容。像文档、书籍、代码这种大块内容,往往需要先对内容进行切割,分多次喂给 GPT,但 GPT 本身能理解的上下文内容有限,这就很容易导致结果偏离预期。 如果未来 Token 的上限能够不断突破,将会创造出更多 AI 应用场景。包括之前所畅想的,训练一个无限接近自己人格的 AI 聊天机器人。

封面图片

【这是GPT-4变笨的新解释变笨的本质是知识没进脑子?】在最近的一篇论文中,加州大学圣克鲁斯分校研究者的新发现或可解释 GPT-

【这是GPT-4变笨的新解释变笨的本质是知识没进脑子?】在最近的一篇论文中,加州大学圣克鲁斯分校研究者的新发现或可解释 GPT-4 性能下降的深层原因:LLM在「见过的」任务上表现出色,而在新任务上则表现糟糕。这意味着,LLM只是基于近似检索的模仿智能方法,主要是记忆东西,而没有任何程度的理解。 #抽屉IT

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人