《大模型基础》简介:本书系统介绍大模型的核心原理、技术架构与应用场景,涵盖从基础理论到实践落地的完整知识体系,适合AI从业者与研

《大模型基础》 简介:本书系统介绍大模型的核心原理、技术架构与应用场景,涵盖从基础理论到实践落地的完整知识体系,适合AI从业者与研究者快速掌握前沿技术动态。 亮点:深入浅出解析Transformer架构,结合行业案例与开源工具,提供可复现的实战代码与调优技巧。 标签:#深度学习 #自然语言处理 #Transformer实战 #大模型基础 #AI技术手册 更新日期:2025-04-28 07:18:17 链接:

相关推荐

封面图片

【贪心科技】大模型开发应用实战营 - 带源码课件

【贪心科技】大模型开发应用实战营 - 带源码课件 描述:本课程包括大模型开发基础,RAG基础与架构,RAG与LangChain,模型微调与私有化大模型,智能设备与“小”模型,多模态大模型开发7个阶段,内容涵盖大模型核心原理,大模型实操与API调用,提示工程技术,RAG,向量数据库,LangChain,Function Calling,模型微调,LoRA,Agent,智能设备上的模型优化,边缘计算与大模型,多模态大模型,Sora等前沿技术等全方位知识讲解,并结合5个实战项目,帮助同学们实现学以致用。 链接: 大小:NG 标签:#学习 #知识 #课程 #资源 #贪心科技 #quark 频道:@yunpanshare 群组:@yunpangroup

封面图片

【贪心科技】大模型开发应用实战营 - 带源码课件

【贪心科技】大模型开发应用实战营 - 带源码课件 描述:本课程包括大模型开发基础,RAG基础与架构,RAG与LangChain,模型微调与私有化大模型,智能设备与“小”模型,多模态大模型开发7个阶段,内容涵盖大模型核心原理,大模型实操与API调用,提示工程技术,RAG,向量数据库,LangChain,Function Calling,模型微调,LoRA,Agent,智能设备上的模型优化,边缘计算与大模型,多模态大模型,Sora等前沿技术等全方位知识讲解,并结合5个实战项目,帮助同学们实现学以致用。 链接:https://www.alipan.com/s/ac7EpxPTLij 大小:NG 标签:#学习 #知识 #课程 #资源 来自:雷锋 版权:版权反馈/DMCA 频道:@shareAliyun 群组:@aliyundriveShare 投稿:@aliyun_share_bot

封面图片

AI21 Labs 推出 Jamba:首个基于 Mamba 架构的生产级大模型

AI21 Labs 推出 Jamba:首个基于 Mamba 架构的生产级大模型 以色列人工智能初创公司 AI21 Labs 在近日宣布推出开源大语言模型 Jamba,这是世界上首个基于 Mamba 架构的生产级人工智能模型。而目前大多数模型都基于 Transformer 架构。Jamba 将 Mamba 的结构化状态空间模型 (SSM) 和传统 Transformer 架构的优势相结合,提供了令人印象深刻的性能和效率提升。Jamba 拥有高达 256k 上下文窗口,同时在单个 80GB GPU 上可容纳最多 140K 个 tokens。其混合结构使 Jamba 的 MoE 层允许它在推理时仅使用52B可用参数中的12B参数。 、

封面图片

《基于AI芯片的神经网络优化实战》

《基于AI芯片的神经网络优化实战》 简介:本书探讨如何利用专用AI芯片提升神经网络模型的运行效率与性能,结合硬件架构特性与算法优化策略。通过实际案例演示模型压缩、量化加速及跨平台部署等技术,助力开发者在边缘计算、自动驾驶等场景实现低功耗、高实时性的智能应用。 亮点:深入解析AI芯片与算法的协同优化方法,提供从理论到工程落地的全流程指导,包含产业级案例和可复现实验,涵盖低精度计算、动态推理等前沿技术,强化真实场景部署能力。 标签:#AI芯片 #神经网络优化 #实战应用 #模型压缩 #边缘计算 #基于AI芯片的神经网络优化实战 链接:

封面图片

大模型微调实战营-应用篇 - 带源码课件

大模型微调实战营-应用篇 - 带源码课件 描述:本课程包括大模型基础,大模型指令微调,常用的开源模型微调,大模型对齐,垂直领域大模型应用5个阶段,内容涵盖大模型微调应用场景,大模型基座,LoRA参数微调,模型压缩,QLoRA参数微调,DeepSpeed训练框架解析,Megatron-LM训练框架解析,Flash Attention技术应用,微调模型Benchmark,ChatGLM,LLaMA,Mistral,MoE,大模型对齐,RLHF,DPO,垂直领域大模型应用等前沿技术等全方位知识讲解,并结合8个实战项目,帮助同学们实现学以致用。 链接: 大小:NG 标签:#学习 #知识 #课程 #资源 #大模型微调实战营 #quark 频道:@yunpanshare 群组:@yunpangroup

封面图片

大型语言模型基础知识可视化学习指南 ||| #指南 #可视化

大型语言模型基础知识可视化学习指南 ||| #指南 #可视化 本文收集了一系列工具和文章,通过直观的可视化方式解释大型语言模型(LLM)的基础概念。 Jay Alammar的《图解Transformer》以生动的可视化说明了Transformer架构的工作原理。由于Transformer是所有语言模型的基石,理解它的基础尤为重要。《图解GPT-2》直观地展示了GPT-2的内部结构,如注意力机制等,有助于理解LLM的组成部分。 Brendan Bycroft的LLM可视化工具允许直观地探索不同LLM内部状态的变化。 Financial Times的文章解释了Transformer的重要性,以及它如何促成了生成式AI的发展。 OpenAI的Tokenizer工具演示了Tokenizer在文本处理中的作用。 Simon Wilson的文章深入解释了GPT Tokenizer的工作原理。 Greg Kamradt的Chunkviz工具展示了文本是如何被LLM处理成“块”的。 PAIR的“机器学习模型记忆还是泛化?”交互式介绍了两种学习方式及其对LLM的影响。 这些资源从多个维度直观地说明了LLM的核心概念和机制,有助于科技从业者和爱好者更好地理解LLM技术的本质。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人