:关于大型语言模型的实用课程,课程以实践为导向,通过使用OpenAI和Hugging Face库的模型进行实际操作来提供实践经验

:关于大型语言模型的实用课程,课程以实践为导向,通过使用OpenAI和Hugging Face库的模型进行实际操作来提供实践经验。 课程分为三个主要部分:技术与库、项目和企业解决方案。提供了丰富的笔记本和文章,供学习者参考。

相关推荐

封面图片

苹果在 Hugging Face 上最新推出了 OpenELM 系列语言模型。

苹果在 Hugging Face 上最新推出了 OpenELM 系列语言模型。 OpenELM 总共有 8 个模型,包括 270M、450M、1.1B 和 3B 这四个参数规模(分为预训练版和指令微调版)。 它们使用了总计约 1.8 万亿个 token 的多个公共数据集。 目前,OpenELM 的代码、预训练模型权重以及训练和评估流程全部开放。 标签: #Apple #AI 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

Hugging Face发布生成式AI健康任务测试基准

Hugging Face发布生成式AI健康任务测试基准 人工智能初创公司 Hugging Face 在最新发布的名为 Open Medical-LLM 的基准测试中提出了一种解决方案。Open Medical-LLM 是与非营利组织开放生命科学人工智能(Open Life Science AI)和爱丁堡大学自然语言处理小组的研究人员合作创建的,旨在对生成式人工智能模型在一系列医疗相关任务中的性能进行标准化评估。Open Medical-LLM 本身并不是一个全新的基准,而是将现有的测试集(MedQA、PubMedQA、MedMCQA 等)拼接在一起,旨在探究医学常识和相关领域(如解剖学、药理学、遗传学和临床实践)的模型。该基准包含要求医学推理和理解的选择题和开放式问题,借鉴了美国和印度医学执照考试和大学生物试题库等材料。Hugging Face在一篇博文中写道:"[开放医学-LLM]使研究人员和从业人员能够识别不同方法的优缺点,推动该领域的进一步发展,并最终促进更好的患者护理和治疗效果。"Hugging Face 将该基准定位为对医疗领域生成式人工智能模型的"稳健评估"。但社交媒体上的一些医学专家告诫说,不要对 Open Medical-LLM 抱有过高期望,以免导致不明智的部署。阿尔伯塔大学神经病学住院医生利亚姆-麦考伊(Liam McCoy)在"X"上指出,医学答疑的"人为环境"与实际临床实践之间的差距可能相当大。博文的共同作者、"Hugging Face"研究科学家 Clémentine Fourrier 对此表示赞同。"这些排行榜只应作为针对特定用例探索哪种[生成式人工智能模型]的第一近似值,但随后始终需要进行更深入的测试阶段,以检验模型在真实条件下的局限性和相关性,"Fourrier在 X 上回答说,"医疗[模型]绝对不应该由患者自行使用,而应该经过培训,成为医学博士的辅助工具。"这不禁让人想起Google在泰国尝试将糖尿病视网膜病变的人工智能筛查工具引入医疗系统时的经历。Google创建了一个深度学习系统,可以扫描眼睛图像,寻找视网膜病变的证据,视网膜病变是导致视力丧失的主要原因。但是,尽管理论上具有很高的准确性,该工具在实际测试中被证明并不实用,结果不一致,与实际操作普遍不协调,令患者和护士都感到沮丧。美国食品和药物管理局迄今已批准了 139 种与人工智能相关的医疗设备,其中没有一种使用了生成式人工智能,这很能说明问题。要测试生成式人工智能工具在实验室中的表现如何转化到医院和门诊中,或许更重要的是测试其结果如何随时间变化,这异常困难。这并不是说 Open Medical-LLM 没有用处或信息量不大。结果排行榜可以提醒人们,模型对基本健康问题的回答有多么糟糕。但是,Open Medical-LLM 以及其他任何基准都无法替代经过深思熟虑的真实世界测试。 ... PC版: 手机版:

封面图片

cohere的大型语言模型(LLM)课程 | 课程从基础开始,涵盖了建立和使用文本表示和文本生成模型的所有内容。

cohere的大型语言模型(LLM)课程 | 课程从基础开始,涵盖了建立和使用文本表示和文本生成模型的所有内容。 理论部分以类比和实例而不是公式进行解释,实践部分包含大量有用的代码示例,帮你巩固知识。 课程内容包括:大型语言模型是如何工作的、LLM有什么用、如何使用LLM构建和部署应用等。

封面图片

:用 PyTorch 轻松微调大语言模型

:用 PyTorch 轻松微调大语言模型 PyTorch发布了torchtune库的alpha版本,用于轻松微调大型语言模型。该库遵循PyTorch的设计原则,提供了组件化和模块化的构建块,以及易于扩展的微调示例,以在各种消费级和专业GPU上微调流行的大型语言模型。 torchtune支持从头到尾的完整微调工作流程,包括数据集和模型检查点的下载和准备、可组合的构建块进行训练自定义、训练过程的日志和指标记录、模型量化、在知名基准上的模型评估以及本地推理。 torchtune致力于易扩展性、让微调大众化、与开源生态系统的互操作性。未来几周将持续为库增加更多模型、特征和微调技术。 torchtune与Hugging Face Hub、PyTorch FSDP、Weights & Biases、EleutherAI的评估工具、ExecuTorch和torchao等开源生态系统的组件深度集成,为用户提供灵活性和控制力。

封面图片

:多语言、高性能、可定制:350亿参数的开源语言模型

:多语言、高性能、可定制:350亿参数的开源语言模型 - C4AI Command-R是一个350亿参数的高性能生成式模型,由Cohere和Cohere For AI联合开发。 - Command-R是一个大型语言模型,其开放权重针对多种用例进行了优化,包括推理、摘要和问答。 - Command-R具有多语言生成能力,在10种语言上进行了评估,并具有高性能的RAG(Retrieval-Augmented Generation)能力。 - 该模型的许可证为CC-BY-NC,使用时还需遵守C4AI的可接受使用政策。 - Command-R的上下文长度为128K,可以使用Hugging Face的Transformers库进行调用和使用。 - C4AI Command-R的发布展示了Cohere在开发大型语言模型方面的实力。350亿参数的模型规模处于业界领先水平,有望在多个应用领域取得突破。 - Command-R的开放权重和对多种用例的优化,为开发者和研究者提供了灵活性和可定制性。这有助于促进模型的应用和创新。 - 多语言生成能力和高性能RAG能力的结合,使Command-R在跨语言任务和知识密集型任务上具有独特优势。这可能推动自然语言处理技术在全球范围内的普及和应用。 - CC-BY-NC许可证和C4AI的可接受使用政策体现了Cohere对于负责任AI开发的重视。在开放模型的同时,设置合理的使用边界,有助于防范潜在的滥用风险。 - 基于Hugging Face生态系统发布模型,降低了用户的使用门槛。这种与主流开源社区的融合,有利于Command-R的推广和迭代。 - 尽管Command-R的开放权重提供了灵活性,但对于缺乏计算资源的中小型开发者而言,350亿参数的模型规模可能难以承受。这可能加剧AI开发的门槛和不平等。 - Command-R在多语言任务上的出色表现,可能促使更多开发者将其应用于跨文化交流和全球化业务。但过度依赖单一模型,可能忽视了不同语言和文化的独特性。 - 开放模型虽然有利于创新,但也可能加剧恶意使用和滥用的风险。即使有使用政策的约束,在实践中难以对每一个应用进行有效监管。这需要技术和制度的双重发力。

封面图片

【资料】2024新年节日数字3D立体图标模型 | 简介:《2024新年节日数字3D立体图标模型》是一门覆盖广泛的实用课程,旨在为

【资料】2024新年节日数字3D立体图标模型 | 简介:《2024新年节日数字3D立体图标模型》是一门覆盖广泛的实用课程,旨在为学员提供从基础到进阶的学习内容,无论是理论知识还是实际操作技巧,都能帮助学员在相关领域中获得深入的理解和应用能力。 | 标签:#课程 #202 #2024新年节日数字3D立体图标模型 | 文件大小:NG | 链接:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人