这里推荐下 PopAI,https://bit.ly/412xQbH,最近看论文和读长篇 PDF 都用的非常多,它支持针对 ar

这里推荐下PopAI,https://bit.ly/412xQbH,最近看论文和读长篇PDF都用的非常多,它支持针对arxiv的论文转存后直接进行AIChat,省却了下载PDF文件的过程(如图二)。第二类是精读工具,对大多数人来说,语言是第一阻碍,尤其是论文里铺天盖地的专业词汇,让人望而生畏;我用的比较多的是“沉浸式翻译”这个Chrome插件,它支持将PDF直接进行在线对照翻译,免费版的翻译质量有点一般,但也基本够用了(如图三)。论文的实验结果基本都是以图表形式呈现的,因此精读的一个重要环节是读懂图表,这部分也可以借助AI的能力来理解得更透彻,PopAI在这块做的也还不错,它背后接入了GPT-4V的API,可以对论文里的图片进行详细解读,另外,还支持在聊天框内直接粘贴图片跟它交互,比较方便(如图四)。如果论文正好是自己想要内容,还有一个非常实用的工具,叫做Paperswithcode,paperswithcode.com,之前也推荐过,它可以根据论文帮你找到对应的Github代码实现,以及用到的数据集和测试方法,这也是我用的比较多的。顺带提一嘴,涉及到AI的代码仓库,建议直接去GoogleColab上跑,它的下载速度可以达到200Mb/s,相比本地,会更加高效。以上,是近几个月研究AI和论文的一点经验。如果你在学习过程中用到了其他好用的辅助工具或者方法,也欢迎推荐和分享!

相关推荐

封面图片

最近读的2篇论文非常不错

最近读的2篇论文非常不错1.第一篇是复旦大学和米哈游联合推出的TheRiseandPotentialofLargeLanguageModelBasedAgents:ASurvey最近看Agent代码比较多,这篇论文对Agent做了比较完整的叙述,可以作为理解Agent的框架性知识。https://arxiv.org/pdf/2309.07864.pdf2.第二篇是微软出的GPT-4V(可以输入图片的GPT4)的研究报告TheDawnofLMMs:PreliminaryExplorationswithGPT-4V(ision)看完后只有2个字"震撼",越来越相信AI是未来,而且是不远的未来,为之前失明的GPT增加了双眼,眼与耳朵一起使用对世界的理解进一步加强了。https://arxiv.org/pdf/2309.17421.pdf

封面图片

最近在搞毕设,分享一个我的阅读论文文献SOP

最近在搞毕设,分享一个我的阅读论文文献SOP论文,它的格式非常八股,基本都是按照这样的结构来呈现的:标题→概要→介绍→方法→实验→结论。结合Stanford教授SrinivasanKeshav分享的三遍法,我凝练出来一个结合AI的五步法1.选读:通过检索工具选出合适的论文,以及在Twitter等社交媒体上看这篇论文的含金量2.略读:读论文前,我们得搞清楚这篇论文值不值得读,我们不需要全部都读完,这样会浪费我们很多时间。使用AISummary工具,回答关键问题:1.主要解决了什么问题?2.提出了什么解决方案?3.解决方案中核心的方法/步骤/策略是什么?4.结论是什么?5.有什么限制条件?请有条理地组织以上信息,确保涵盖每一个点。这一类可以AISummary的工具非常多,主要看总结能力和花费金额,推荐使用1.txyz:介绍在下面的工具安利里2.PopAI:介绍在下面的工具安利里3.ChatGPT:ChatGPT直接上传PDF,进行对话也可以4.Kimi:国内可以使用但是还有一个点需要注意,就是你自己需要去判断正确性,包括这篇论文的正确性——他有没有在和你胡扯3.精读:接下来就开始精读了1.精读的顺序:摘要→结论→方法→实验→数据和图表2.对于需要翻译的同学来说,必备的就是“沉浸式翻译”这个插件,具体使用看下面3.看图表和参考文献,判断是否正确4.在这一步,遇到问题,也可以借助AI工具,1.有不懂的细节继续提问,从What、Why、How三个方面抽取问题。What:即哪些概念是不熟悉的。Why:为什么要使用这种策略/方法,好在哪里?How:具体论文中是怎么实现某种策略/方法的。2.对于不懂图表的,也可以借助AI工具,分析图表1.PopAI:接入了GPT-4V的API,可以对论文图表进行解读2.ChatGPT:直接读图3.亿图图示:也可以解读图表4.整理笔记:精读完就可以整理笔记了,这里我的思路是基于PDF本身去整理

封面图片

惊喜发现又祛魅一项能力:读论文

惊喜发现又祛魅一项能力:读论文CS专业一路走来被论文折磨,现以为脱离苦海,但又不得不紧跟看LLMSD论文,痛点就是:看不下去,精神涣散啃能读完,但留不脑痕我找到了一个适合自己的方法1⃣祛魅,不畏难与学界的朋友多交谈之后,逐渐理解论文掐头去尾直接看核心思想是可以很快用大白话解释的。我很大程度是因为怕数学、怕文字、怕章节,而不是真的这些概念难。比如Transformer这篇论文公认的“写”得烂。不信权威,祛魅格式。思想一般就两三个创新点。2⃣虚拟心理环境假想我是那些厉害的学界大佬,他们是如何如呼吸一般的读这些论文的呢?预加载他们的心理环境。我会假想自己是一个很厉害的数学学家(然后跳过数学证明hhh)3⃣专注:用划线工具和沉浸式翻译我使用Glasp插件(免费、可notion同步、有数据库管理界面、标签系统),双语阅读可以用沉浸式翻译、Aminer、Yiyibooks哪个顺手用哪个。arxiv论文可以用沉浸式翻译+Glasp直接划线高亮记录和评论,还自动保存数据库方便后期整理。不喜欢经常打断的复制粘贴。划线让我专注。4⃣GPT如何过脑子留下点东西?看完后或看的时候一定要提问。为什么它这样做实验?为什么解决这个问题?解决的怎么样?之后还要做什么?如果比较久远的经典论文,问GPT可以直接得到答复。5⃣自己的话记录这个环节就是强化留给自己脑子的东西。自己写出来的才是真正理解了的概念。用自己的大白话解释一遍,就真的懂论文了。比如我会写“transformer架构就是叠了很多层一样的block,每个block里面有QKV三个矩阵”blablabla推荐从下面的精选开始读经典论文:https://latentbox.com/

封面图片

论文,我认为就是写的比较专业的博客,它的格式非常八股,基本都是按照这样的结构来呈现的:标题 → 概要 → 导言 → 方法 → 实

论文,我认为就是写的比较专业的博客,它的格式非常八股,基本都是按照这样的结构来呈现的:标题→概要→导言→方法→实验→结论。下文较长,主要提到了几个检索方法和阅读工具,强烈推荐下PopAI,https://bit.ly/412xQbH,体验做的很不错。很多朋友说论文读起来太晦涩且耗时,但事实上阅读论文是ROI比较高的一件事情,尤其是AI盛行的当下,大量科研人员都以论文的形式来呈现自己的研究成果,他们在写论文之前,会把行业最前沿的信息都研究个遍,然后自己动手实践,并提出更新、更好的解决方案。所以我认为学会读论文,以及挖掘对自己工作有帮助的论文是比较重要的一件事情。检索论文,我的思路有两个。一个是「有什么办法可以解决问题」,通过问题关键词去索引内容,例如检索“如何识别多人同时说话”,我找到了语音识别(ASR),然后找到了Whisper,然后找到了《RobustSpeechRecognitionviaLarge-ScaleWeakSupervision》这篇论文,过程中也找到了很多其他的论文。另外一个是「为什么这个方法可以解决问题」,去研究技术背后的东西,例如检索“为什么pyannote-audio可以区分不同的人说话”,我找到了SpeakerDiarization,然后找到了《AReinforcementLearningFrameworkforOnlineSpeakerDiarization》这篇论文,从这篇论文又了解到了更多其他方法,回到思路一,继续研究。检索工具上,之前推荐过aminer.cn这个网站,它有一个“必读论文”板块(如图一),放了很多精挑细选的专题模块,可能刚好跟你的研究方向是匹配的;但大部分情况下,你进到这个网站时,也不知道该搜什么关键词,所以刚开始还得去Google或社交媒体去检索行业先驱的博客或推文,去看看一些综述性的介绍,再去找更多更细节的关键词。关于读论文,之前分享过一篇文章《如何阅读一篇论文》,它提到了“三遍阅读法”,我也是这么践行的;当然,也离不开工具上的辅助,主要包括两类。第一类是Summary工具,如果每出一篇论文都去精读,那时间上肯定是不划算的,关键也没这个必要;Summary的工具比较多,上面提到的aminer也自带了这个能力。

封面图片

发现一个读PDF的好工具,又快又免费。ChatDOC是一个基于ChatGPT的文件阅读助手,可以快速从PDF文档中提取、定位和汇

发现一个读PDF的好工具,又快又免费。ChatDOC是一个基于ChatGPT的文件阅读助手,可以快速从PDF文档中提取、定位和汇总文件信息。你可以上传研究论文、书籍、手册等文件,然后通过聊天的方式向ChatDOC提问,获取简洁易懂的回答。ChatDOC还可以理解文档中的表格或文字,优化其数据分析性能,并为每个回答提供直接引用的来源,方便您核实AI的解读准确性。ChatDOC支持中英文,并且免费注册。https://chatdoc.com/chatdoc/#/upload

封面图片

在 arxiv.org 链接前面加上“talk2”,可直接针对论文内容进行问答(需要自备OpenAI key)| github

在arxiv.org链接前面加上“talk2”,可直接针对论文内容进行问答(需要自备OpenAIkey)Talk2Arxiv是专为学术论文PDF构建的开源RAG(检索增强生成)系统,由talk2arxiv服务器提供支持特征PDF解析:利用GROBID从PDF中高效提取文本。分块算法:用于最佳文本分块的定制算法。按逻辑部分(简介、摘要、作者等)进行分块,并且还利用递归细分分块(块为512个字符,然后是256个字符,然后是128个字符......)文本嵌入:使用Cohere的EmbedV3模型进行准确的文本嵌入。矢量数据库集成:使用Pinecone来存储和查询嵌入。这也可以缓存研究论文,因此论文只需要嵌入一次。上下文相关性:采用重新排名过程来根据用户输入选择最相关的内容。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人