这是⼀本完备细致的编码工具书,主要包括三个方面的

这是⼀本完备细致的编码工具书,主要包括三个方面的内容: 1、讨论代码的功能、编码过程,以及在质性资料的收集和分析过程中如何撰写分析备忘录; 2、系统地描述能普遍应用于 质性资料分析的各式各样的编码⽅法; 3、提供可供编码和进⼀步分析的质性资料的示例。每⼀个编码⽅法的介绍包括⽂献来源、说明、应⽤、示例、分析和备注,作者对编码各个环节各个细节的问题都给了回应,并且提供了⾮常具体、使⽤的⽅法论建议。 作为一本工具书,作者的文献调研、对于编码深刻的剖析、全书逻辑的串联都是令⼈惊叹的(是⼀位逻辑思维能⼒超强的质性研究专家),书本的实⽤性很强(尤其是文献量超大,有15页,标注规范,让有心之人可以继续做更全面深入的学习) #电子书

相关推荐

封面图片

《初中基础知识大全》简介:《基础知识大全》是一本专为生打造的综合性学习工具书,涵盖语文、数学、英语等主要学科的核心知识点,帮助学

《初中基础知识大全》 简介:《初中基础知识大全》是一本专为初中生打造的综合性学习工具书,涵盖语文、数学、英语等主要学科的核心知识点,帮助学生系统梳理知识框架,夯实基础,提升学习效率。 亮点:内容全面,重点突出;图表结合,便于理解;随堂练习,巩固所学;适合预习、复习和备考。 标签:#初中学习 #基础知识 #全科辅导 #工具书 #备考指南 更新日期:2025-04-30 18:46:59 链接:https://pan.quark.cn/s/10c8cd87215c

封面图片

《道教古籍》简介:道教古籍涵盖了道教诸多方面的经典文献,包括教义阐释、修炼方法、仪式规范、神仙谱系等内容。这些古籍是道教文化的重

《道教古籍》 简介:道教古籍涵盖了道教诸多方面的经典文献,包括教义阐释、修炼方法、仪式规范、神仙谱系等内容。这些古籍是道教文化的重要载体,像《道德经》《庄子》等道家经典,蕴含着深邃的哲学思想,探讨宇宙、人生的本质;而如《抱朴子》等则对道教的炼丹术、养生法有详细记载。道教古籍不仅是研究道教历史、教义、文化的关键资料,也是中国传统文化宝库的重要组成部分,对了解古代哲学、医学、文学、艺术等领域有着重要的参考价值 。 标签: #道教 #古籍 #道教文化 #哲学思想 #传统文化 文件大小:NG 链接:https://pan.quark.cn/s/1affe83ba1e8

封面图片

内容简介:本书分析了三个时期的奥斯卡最佳影片获奖作品,每部的分析包括3个部分:影片的背景资料,如创作班底、获奖及票房情况、 制作

内容简介: 本书分析了三个时期的奥斯卡最佳影片获奖作品,每部的分析包括3个部分:影片的背景资料,如创作班底、获奖及票房情况、 制作过程中的轶闻趣事;影片故事内容介绍 ; 获奖原因分析(与提名奖电影相比胜出的原因)。本书的三个时期分别为(19291959),(19601990),(19912012)。 《读电影:百年奥斯卡最佳电影品鉴(1929-1959)》收录了《铁翼雄风:“故事讲得好,空战有看头”的默片》、《百老汇的旋律:歌舞新颖,爱情温馨》、《西线无战事:恐怖战争摧残人性》、《壮志千秋:气势恢弘的早期西部片》、《大饭店:人生逆旅中的悲喜剧》等文章。 《读电影(百年奥斯卡最佳电影品鉴1960-1990)》(作者杨晓林)是“文学艺术读物文艺欣赏系列”之一。 《读电影(百年奥斯卡最佳电影品鉴1960-1990)》收录了《 :宽恕与伟力的绚烂镜像》、《 :大人物的秘密与小人物的尊严》、《 :现代版的“罗密欧与朱丽叶”》、《 :奇迹创造者的谜与魅》、《 :幽默滑稽中对人性的探索》、《 :视听盛宴,成人童话》、《 :“音乐剧的神来之笔”》、《 :一个人文主义者的悲剧性抉择》、《 :种族问题的另类包装》、《 :包罗万象的生活画卷》、《 :你比阿司匹林更重要》等文章。 《读电影(百年奥斯卡最佳电影品鉴1991-2012)》收录了《《 :拓疆者的罪与功》、《 :现代人的心灵病态与精神创伤》、《 :反西部片的西部片杰作》、《 :由纳粹分子到救世基督》、《 :商业文化与大众文化合谋的“好莱坞童话”》、《 :不自由,毋宁死》、《 :如驼铃与月光般的爱》、《 :梦幻爱情与西方人的“创伤记忆”》、《 :寓严肃神圣于轻松戏谑》、《 :生命中开满的蔷薇》、《 :在生命边缘处坚守理想》、《 :爱与天才的传奇》、《 :杀人成为艺术,丑闻带来名利》、《 :幻觉的博弈》、《 :生如夏花,百味杂陈》、《 :文化的碰撞与融合》等文章。

封面图片

a16z近期公布了他们的开源 AI 资助计划第二期,主要关注两个领域:包括用于训练、托管和评估语言模型的工具以及围绕视觉人工智能

a16z近期公布了他们的开源 AI 资助计划第二期,主要关注两个领域:包括用于训练、托管和评估语言模型的工具以及围绕视觉人工智能构建的模型和社区。第二期有7 个项目: :一个在任何云上运行LLMs、AI和批处理作业的框架,提供最大的成本节省、最高的GPU可用性和托管执行。 主要能力有:在任何云上启动作业和集群、排队并运行多个作业,自动管理、轻松访问对象存储、自动选择最便宜的云服务。 :用于微调LLMs的工具,支持多种配置和架构。 工具支持:训练各种Huggingface模型,如llama、pythia等、支持全面微调、lora、qlora、relora和gptq多种训练方式、使用简单的yaml文件或CLI覆盖自定义配置等。还有很多其他特性。 :开源模型、系统和评估平台。 开源了 LLM 用的数据集,还有一个 LLM 模型。最著名的还是通过 ELO 算法和机制评估 LLM 质量的项目,这种人工评分的机制比一些数据集的评价方法更加可以反应人类对于 LLM 质量的判断。 :用于训练许多LLMs的开放网络爬取数据存储库。 这是一个从 2007 年就开始收集的互联网语聊数据库,他们会定期抓取,你可以免费下载所有数据用来训练模型。GPT-3 82%的训练语料来自这个项目。 :开源多模态模型(语言和视觉)。 端到端训练的大型多模态模型,连接了一个视觉编码器和LLM,用于通用的视觉和语言理解。 现在最新的是LLaVA1.5 版本,只是对原始LLaVA进行简单修改,利用了所有公开数据,在单个8-A100节点上约1天内完成训练。 :AI动画的平台和开源社区,是一种 AI 生成动画的方式。Deforum的 WebUI 插件和 Discord 社区都是他们在维护。 :高影响力AI模型的开放实现。 Phil Wang,也以其在线昵称“lucidrains”而闻名,在AI和机器学习领域是一位杰出人物。以在PyTorch框架中实现各种有趣的AI模型和论文而闻名。他的工作包括Vision Transformer、DALL-E 2、Imagen和MusicLM等的实现。

封面图片

GPT-4劲敌 Google进入高能+高产模式

GPT-4劲敌 Google进入高能+高产模式 一、极致性能背后的模型架构图源:X平台Alphabet与Google公司首席科学家Jeff Dean推文“巧合”的是,Open AI在Gemini 1.5 Pro官宣两小时发布Sora这枚重磅炸弹,颇有“一较高下”的劲头。只是由于当下大家的视线焦点集中在视频领域,Sora 又是 OpenAI 首次发布文生视频模型,所以无奈被抢了头条。图源:微博评论Gemini 1.5 Pro建立在谷歌对Transformer和MoE架构的领先研究之上。传统Transformer充当一个大型神经网络,而 MoE(Mixture of Experts 混合专家模型)模型则分为更小的“专家”神经网络。在这一结构之下,通过将模型参数划分为多个组别而实现的计算的稀疏化,即每次执行推理任务时,根据对输入类型的判断,MoE模型会通过门控网络选择性地激活神经网络中最契合指令的专家参与计算。这种专业化、模块化的划分可以在提升预训练计算效率的同时提升大模型处理复杂任务的性能,更快地学习复杂任务的同时保证准确性。与稠密模型相比,MoE模型的预训练速度更快;使用MoE 层代替transformer 中的前馈网络(FFN)层。因而对的采用可以弥补Transformer架构运算效率的问题。在Switch-Transformer、M4等领域,Google 一直是深度学习 MoE 技术的早期采用者。目前大部分大语言模型开源和学术工作都没有使用 MoE 架构。有消息称,GPT-4也采用了由 8 个专家模型组成的集成系统。2023年12月8日Mistral AI 发布的 Mixtral 8x7B 同样采用了这种架构。就国内的大模型而言,只有Minimax采用了MoE架构。二、扩容的上下文窗口意味着什么?虽然Gemini 1.5 Pro是 Gemini 1.5 系列的初代版本,但初代便表现不俗。扩大上下文窗口后的高水平性能是Gemini 1.5 Pro的一大亮点。多模态大模型卷到今日,上下文窗口容量已然成为提升其理解能力的关键掣肘。此前的SOTA模型将上下文窗口容量卷到了20万token。而谷歌的Gemini 1.5 Pro直接将上下文窗口容量提到了100万token(极限为1000万token),远远超出了 Gemini 1.0 最初的 32,000 个 token,创下了最长上下文窗口的纪录。对于文本处理,Gemini 1.5 Pro在处理高达530,000 token的文本时,能够实现100%的检索完整性,在处理1,000,000 token的文本时达到99.7%的检索完整性。甚至在处理高达10,000,000 token的文本时,检索准确性仍然高达99.2%。在音频处理方面,Gemini 1.5 Pro能够在大约11小时的音频资料中,100%成功检索到各种隐藏的音频片段。在视频处理方面,Gemini 1.5 Pro能够在大约3小时的视频内容中,100%成功检索到各种隐藏的视觉元素。图源:Gemini 1.5 Pro官方测试数据Gemini 1.5 Pro大大超过Gemini 1.0 Pro,在27项基准(共31项)上表现更好,特别是在数学、科学和推理(+28.9%),多语言(+22.3%),视频理解(+11.2%)和代码(+8.9%)等领域。即使是对比Gemini 系列的高端产品Gemini 1.0 Ultra, Gemini 1.5 Pro也在超过一半的基准(16/31)上表现更好,特别是在文本基准(10/13)和许多视觉基准(6/13)上。在 NIAH测试中,Gemini 1.5 Pro能够在长达100万token的文本块中,以99%的准确率找出隐藏有特定信息的文本片段。图源:Gemini 1.5 Pro官方测试数据这个上下文长度使Gemini 1.5 Pro可以自如地处理22小时的录音、超过十倍的完整的1440页的书(587,287字)“战争与和平”,以及四万多行代码、三小时的视频。三、机器脑有多好使除高效架构和强上下文处理能力之外,Gemini 1.5 Pro的优秀品质还在于“情境学习”技能,它可以根据长提示,从以前从未见过的信息中学习新技能,而不需要额外的微调。强学习能力、信息检索与数据分析能力使得在知识海洋中“海底捞针”由想象映照进了现实。根据官方发布的测试报告,当给定卡拉曼语(一种全球使用人数不足 200 人的语言)的语法手册时(500页的语言文献,一本词典和400个平行句子),Gemini 1.5 Pro模型可以学习将英语翻译成卡拉曼语,其水平与学习相同内容的人相似。图源:Gemini 1.5 Pro官方演示样本当被一个45分钟的Buster基顿电影“小神探夏洛克”(1924年)(2674帧,1FPS,684k token)提示时,Gemini 1.5 Pro可以从其中的特定帧中检索和提取文本信息,并提供相应的时间戳。此外还可以从一张手绘素描中识别电影中的一个场景。与侧重于衡量模型检索能力的特定事实或细节的任务不同,这些问题通常需要了解跨越大量文本的信息片段之间的关系。图源:Gemini 1.5 Pro官方演示样本Gemini 1.5 Pro在处理长达超过100,000行的代码时,还具备极强的问题解决能力。面对庞大的代码量,它能够深入分析各个示例,提出实用的修改建议,还能详细解释代码的条例框架。给出了整个746,152个令牌JAX代码库,Gemini 1.5 Pro可以识别核心自动微分方法的具体位置。开发者可以直接上传新的代码库,利用这个模型快速熟悉、理解代码结构。图源:Gemini 1.5 Pro官方演示样本正如NVIDIA高级科学家Jim Fan所言,Gemini 1.5 Pro意味着LLM能力的大幅跃升,这对于做个体户的小公司而言可谓一骑绝尘。在人机协同的探索过程中,单一的文本交互很难满足多场景多样态的内容生产诉求。多模态的信息处理与生成能力显然是技术变革的发力点。纽约大学计算机助理教授谢赛宁说,人才第一,数据第二,算力第三,其他都没有什么是不可替代的。Gemini 1.5 Pro是谷歌与巅峰对决的又一利器,或许AGI时代正加快到来。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人