最近读的2篇论文非常不错

最近读的2篇论文非常不错1.第一篇是复旦大学和米哈游联合推出的TheRiseandPotentialofLargeLanguageModelBasedAgents:ASurvey最近看Agent代码比较多,这篇论文对Agent做了比较完整的叙述,可以作为理解Agent的框架性知识。https://arxiv.org/pdf/2309.07864.pdf2.第二篇是微软出的GPT-4V(可以输入图片的GPT4)的研究报告TheDawnofLMMs:PreliminaryExplorationswithGPT-4V(ision)看完后只有2个字"震撼",越来越相信AI是未来,而且是不远的未来,为之前失明的GPT增加了双眼,眼与耳朵一起使用对世界的理解进一步加强了。https://arxiv.org/pdf/2309.17421.pdf

相关推荐

封面图片

发现错过了一篇 text to video 的论文 —— Dreamix,众所不周知,现在视频可以P了,用嘴就行。

发现错过了一篇texttovideo的论文——Dreamix,众所不周知,现在视频可以P了,用嘴就行。从展示的案例来看,Dreamix的生成能力跟去年Meta和Google发布的模型类似,个人觉得用图片生成视频的案例比较惊艳……毕竟拍几张照片+一段文字描述就能生成一个视频,是真的离谱。▶项目地址:dreamix-video-editing.github.io▶论文地址:arxiv.org/pdf/2302.01329.pdf

封面图片

可能很多重度用户跟我一样都感觉到 ChatGPT 最近几个月变傻了一些。还真是这样, 这篇论文最近半年对 GPT3.5 和 GP

可能很多重度用户跟我一样都感觉到ChatGPT最近几个月变傻了一些。还真是这样,这篇论文最近半年对GPT3.5和GPT4的研究发现:GPT4年初生成的代码52%概率可以直接执行,而现在大幅下降到10%。对素数的识别准确率从97.6%骤降到了2.4%https://arxiv.org/pdf/2307.09009.pdf来源https://twitter.com/quinn_leng/status/1681513871549558786

封面图片

这里推荐下 PopAI,https://bit.ly/412xQbH,最近看论文和读长篇 PDF 都用的非常多,它支持针对 ar

这里推荐下PopAI,https://bit.ly/412xQbH,最近看论文和读长篇PDF都用的非常多,它支持针对arxiv的论文转存后直接进行AIChat,省却了下载PDF文件的过程(如图二)。第二类是精读工具,对大多数人来说,语言是第一阻碍,尤其是论文里铺天盖地的专业词汇,让人望而生畏;我用的比较多的是“沉浸式翻译”这个Chrome插件,它支持将PDF直接进行在线对照翻译,免费版的翻译质量有点一般,但也基本够用了(如图三)。论文的实验结果基本都是以图表形式呈现的,因此精读的一个重要环节是读懂图表,这部分也可以借助AI的能力来理解得更透彻,PopAI在这块做的也还不错,它背后接入了GPT-4V的API,可以对论文里的图片进行详细解读,另外,还支持在聊天框内直接粘贴图片跟它交互,比较方便(如图四)。如果论文正好是自己想要内容,还有一个非常实用的工具,叫做Paperswithcode,paperswithcode.com,之前也推荐过,它可以根据论文帮你找到对应的Github代码实现,以及用到的数据集和测试方法,这也是我用的比较多的。顺带提一嘴,涉及到AI的代码仓库,建议直接去GoogleColab上跑,它的下载速度可以达到200Mb/s,相比本地,会更加高效。以上,是近几个月研究AI和论文的一点经验。如果你在学习过程中用到了其他好用的辅助工具或者方法,也欢迎推荐和分享!

封面图片

韩国研究人员在预印本网站arXiv平台上张贴两篇论文,声称发现常压室温超导体。

韩国研究人员在预印本网站arXiv平台上张贴两篇论文,声称发现常压室温超导体。https://arxiv.org/abs/2307.12008https://arxiv.org/abs/2307.12037有视频:https://sciencecast.org/casts/suc384jly50n知乎问题:https://www.zhihu.com/question/613850973何教授视频:https://www.bilibili.com/video/BV1Dx4y197tX真不是咱起床起猛了吗,等个其他实验室复现

封面图片

GPT-4 整治学术不端:人大 / 浙大团队实测 7000 篇论文,撤稿预测与人类 95% 一致

GPT-4整治学术不端:人大/浙大团队实测7000篇论文,撤稿预测与人类95%一致https://www.ithome.com/0/761/869.htmhttps://arxiv.org/abs/2403.16851(英文)研究表明,GPT-4的总体预测结果(包含撤稿预测和非撤稿预测)与人工预测结果的一致性最高,高达约95%!其次是GPT-3.5和SVM模型,其一致性超过80%。而关键词方法与其他机器学习模型的一致性则在46%-64%之间,预测效果一般。在精确率方面,同样是GPT-4的精确率最高:GPT-4预测会撤稿的论文中,近70%的在人工预测中同样会撤稿。而其他模型的预测精确率均远低于GPT-4。

封面图片

在 arxiv.org 链接前面加上“talk2”,可直接针对论文内容进行问答(需要自备OpenAI key)| github

在arxiv.org链接前面加上“talk2”,可直接针对论文内容进行问答(需要自备OpenAIkey)Talk2Arxiv是专为学术论文PDF构建的开源RAG(检索增强生成)系统,由talk2arxiv服务器提供支持特征PDF解析:利用GROBID从PDF中高效提取文本。分块算法:用于最佳文本分块的定制算法。按逻辑部分(简介、摘要、作者等)进行分块,并且还利用递归细分分块(块为512个字符,然后是256个字符,然后是128个字符......)文本嵌入:使用Cohere的EmbedV3模型进行准确的文本嵌入。矢量数据库集成:使用Pinecone来存储和查询嵌入。这也可以缓存研究论文,因此论文只需要嵌入一次。上下文相关性:采用重新排名过程来根据用户输入选择最相关的内容。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人