是一个开源 Python 包,为用户提供了一种简单、高效、安全的方式以透明的方式导出预训练的机器学习模型。这样,导出的模型就可以

是一个开源 Python 包,为用户提供了一种简单、高效、安全的方式以透明的方式导出预训练的机器学习模型。这样,导出的模型就可以在其他环境中使用,跨不同平台传输,并与其他人共享。 Pymilo 允许用户导出使用 scikit-learn 等流行 Python 库训练的模型,然后在部署环境中使用它们,或者在不暴露底层代码或依赖项的情况下共享它们。导出模型的透明度确保了最终用户的可靠性和安全性,因为它消除了二进制或pickle格式的风险。

相关推荐

封面图片

: 一种扩展Python的编程语言,旨在以自然、直观、方便和高效的方式在程序中利用大型语言模型(如GPT)

: 一种扩展Python的编程语言,旨在以自然、直观、方便和高效的方式在程序中利用大型语言模型(如GPT) 主要特征 通过与 Python 无缝集成实现可读性和可维护性:APPL 将自然语言提示无缝嵌入到 Python 程序中,保持提示的可读性,同时继承宿主编程语言的模块化、可重用性、动态性和生态系统。 灵活及时的工程: 除了允许使用Python控制流和提示的模块化分解之外,APPL还提供提示编码助手,以模块化和可维护的方式促进提示编程。 通过异步计算自动并行化:APPL 异步安排 LLM 调用,利用它们之间潜在的独立性来促进高效的并行化。这减轻了用户手动管理同步的负担,几乎不需要额外的工作。 平滑的工具调用集成:APPL提供了直观的方法将Python函数转换为LLM可以调用的工具,使用户可以轻松地将现有的Python库和函数与LLM集成。 跟踪和故障恢复: APPL 跟踪 LLM 调用的执行并支持从故障中恢复,这对于 LLM 编程范例中的调试和错误处理至关重要。 更多功能: APPL 还为使用 的多个 LLM 后端提供统一的接口litellm,使用 的结构化生成instructor以及许多其他功能。

封面图片

一个免费的现代模型编辑器,适用于具有像素艺术纹理的低多边形和四四方方的模型。 模型可以导出为标准化格式,以进行共享、渲染、3D

一个免费的现代模型编辑器,适用于具有像素艺术纹理的低多边形和四四方方的模型。 模型可以导出为标准化格式,以进行共享、渲染、3D 打印或在游戏引擎中使用。Minecraft Java 和 Bedrock Edition 还有多种专用格式,具有特定于格式的功能。 Blockbench具有现代直观的UI,插件支持和创新功能。它是为 Minecraft Marketplace 创建自定义 3D 模型的行业标准。 || #编辑器 #3D

封面图片

TencentPretrain:腾讯预训练模型框架

TencentPretrain:腾讯预训练模型框架 预训练已经成为人工智能技术的重要组成部分,为大量人工智能相关任务带来了显著提升。TencentPretrain是一个用于对文本、图像、语音等模态数据进行预训练和微调的工具包。TencentPretrain遵循模块化的设计原则。通过模块的组合,用户能迅速精准的复现已有的预训练模型,并利用已有的接口进一步开发更多的预训练模型。通过TencentPretrain,我们建立了一个模型仓库,其中包含不同性质的预训练模型(例如基于不同模态、编码器、目标任务)。用户可以根据具体任务的要求,从中选择合适的预训练模型使用。TencentPretrain继承了的部分工作,并在其基础上进一步开发,形成支持多模态的预训练模型框架。 TencentPretrain有如下几方面优势: 可复现 TencentPretrain已在许多数据集上进行了测试,与原始预训练模型实现(例如BERT、GPT-2、ELMo、T5、CLIP)的表现相匹配 模块化 TencentPretrain使用解耦的模块化设计框架。框架分成Embedding、Encoder、Target等多个部分。各个部分之间有着清晰的接口并且每个部分包括了丰富的模块。可以对不同模块进行组合,构建出性质不同的预训练模型 多模态 TencentPretrain支持文本、图像、语音模态的预训练模型,并支持模态之间的翻译、融合等操作 模型训练 TencentPretrain支持CPU、单机单GPU、单机多GPU、多机多GPU训练模式,并支持使用DeepSpeed优化库进行超大模型训练 模型仓库 我们维护并持续发布预训练模型。用户可以根据具体任务的要求,从中选择合适的预训练模型使用 SOTA结果 TencentPretrain支持全面的下游任务,包括文本/图像分类、序列标注、阅读理解、语音识别等,并提供了多个竞赛获胜解决方案 预训练相关功能 TencentPretrain提供了丰富的预训练相关的功能和优化,包括特征抽取、近义词检索、预训练模型转换、模型集成、文本生成等 ||#框架

封面图片

:更好的通用预训练语言模型

:更好的通用预训练语言模型 Pile-T5通过在Pile数据集上预训练T5模型,并使用LLAMA分词器,改进了原始T5的编码能力。 Pile-T5总体上明显优于原始T5v1.1模型,尤其在代码任务上的提升更大。这主要得益于Pile中包含代码数据以及LLAMA分词器包含编程常用字符。 在多个下游任务的微调中,Pile-T5不同规模的模型表现优异,如在SuperGLUE、CodeXGLUE、MMLU和BigBench Hard上的结果。 尽管与专门微调的Flan-T5相比略逊色,但Pile-T5仍优于T5v1.1,表明其预训练质量更高,更适合多任务微调。 公开了Pile-T5模型在不同训练步长的中间检查点,这有利于模型演化和解释性研究。 Pile-T5 Large模型在某些任务上的表现不佳,可能存在bug,用户需谨慎使用。

封面图片

昆仑万维开源了自己的Skywork大模型 | 本次开源的模型有Skywork-13B-Base模型、Skywork-13B-Ch

昆仑万维开源了自己的Skywork大模型 | 本次开源的模型有Skywork-13B-Base模型、Skywork-13B-Chat模型、Skywork-13B-Math模型和Skywork-13B-MM模型,以及每个模型的量化版模型,以支持用户在消费级显卡进行部署和推理。 Skywork开源项目的特点有: Skywork-13B-Base模型在高质量清洗过滤的3.2万亿个多语言(主要是中文和英文)和代码数据上进行预训练,它在多种评测和各种基准测试上都展现了同等规模模型的最佳效果。 Skywork-13B-Chat模型具备强大的对话能力,我们在文创领域进行了进一步的针对性增强。我们通过构建一万多条高质量指令数据集,在10个文创任务上进行了针对性微调,使我们的模型在文创任务中能够接近ChatGPT的效果。此外,我们开源了针对这10个文创任务上的大约500条样本组成的benchmark。 Skywork-13B-Math模型经过专门的数学能力强化训练。在13B参数规模下,我们的模型在GSM8K评测上得分第一,同时在MATH数据集以及CMATH上也表现优异,处于13B模型顶尖水平。 Skywork-13B-MM多模态模型支持用户输入图片信息进行问答,对话等任务。 Skywork/Skypile-150B数据集是根据我们经过精心过滤的数据处理流程从中文网页中筛选出的高质量数据。本次开源的数据集大小约为600GB,总的token数量约为150B,是目前开源最大中文数据集。 除此之外,我们还公开了训练Skywork-13B模型中使用的评估方法、数据配比研究和训练基础设施调优方案等信息。我们希望这些开源内容能够进一步启发社区对于大型模型预训练的认知,并推动人工智能通用智能(AGI)的实现。

封面图片

研究:人工智能模型缺乏透明度 或将加大监管难度

研究:人工智能模型缺乏透明度 或将加大监管难度 一项研究显示,目前主要的人工智能模型缺乏透明度,或将加大政策制定者拟定有效政策来监管这项科技的难度。 法新社报道,这项由哈佛大学研究员于星期三(10月18日)发表的研究,旨在指导政策制定者对人工智能科技方面进行监管。研究人员设计了一个“基础模型透明指数”,并对10家主要的人工智能公司进行了排名。 得分最高的是由脸书母公司Meta Platforms于今年7月推出的人工智能模型“Llama 2”,得分为54%。 推出人工智能聊天机器人ChatGPT的美国人工智能公司OpenAI,今年3月发布的大型语言数据库模型GPT-4排名第三,得分为48%。 谷歌推出的“PaLM 2”以40%排在第五位,略高于亚马逊支持的人工智能初创公司Anthropic推出的“Claude 2”人工智能模型(36%)。 斯坦福大学基金会模型研究中心的研究员博马萨尼说,这些公司应该努力争取80%到100%的得分。 研究人员指出,“较低的透明度将使政策制定者更难以制定有意义的政策,以对这一强大的科技进行监管。” 此外,这也让其他企业更难得知自己的应用是否可依赖这项科技,同时让学术界更难以进行研究,消费者也更难以了解模型的局限性。“如果没有透明度,监管机构甚至无法提出正确的问题,更别说是在这些地方采取行动了。” 这项研究发现,没有一家公司提供有多少用户依赖使用人工智能模型的信息,或它们使用的地理位置信息。此外,多数人工智能公司都不披露其模型中使用了多少收版权保护的资料。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人