:一个致力于利用开源模型创建自己的JARVIS 的项目。

:一个致力于利用开源模型创建自己的JARVIS 的项目。 AIlice 通过构建一个以LLM作为核心处理器的“文本计算机”来实现这一目标(项目代码仅三千多行)。 目前,AIlice 能够熟练的处理一系列任务,包括主题研究、编码、系统管理、文献综述以及超出这些基本能力的复杂混合任务。 AIlice 在使用 GPT-4 的日常任务中达到了近乎完美的性能,并且正在利用最新的开源模型向实际应用迈进。 基本特性 1. 自然且高度容错的IACT(Interactive Agents Calling Tree)架构。 2. 以最灵活的方式解析LLM输出,支持更多种多样的函数调用机制. 3. 自我构建并动态加载环境交互模块,为功能扩展提供无限潜力。 4. 专为开源模型设计,但可以无缝支持商业模型,如GPT-4。 5. 支持对特定主题进行深入调查。 6. 支持文献阅读。 7. 自动化编程和脚本执行。它是一个全能的coder和系统管理工具,掌握所有系统命令你可以把它看作一个人工智能操作系统。 8. 支持多模态模型。 9. 支持语音交互。 10. 用户以两种方式灵活的参与对话:以agent的一员,或者在任务执行中直接介入。

相关推荐

封面图片

| #指南本项目是一个围绕开源大模型、针对国内初学者、基于 AutoDL 平台的中国宝宝专属大模型教程,针对各类开源大模型提供包

| #指南 本项目是一个围绕开源大模型、针对国内初学者、基于 AutoDL 平台的中国宝宝专属大模型教程,针对各类开源大模型提供包括环境配置、本地部署、高效微调等技能在内的全流程指导,简化开源大模型的部署、使用和应用流程,让更多的普通学生、研究者更好地使用开源大模型,帮助开源、自由的大模型更快融入到普通学习者的生活中。 本项目的主要内容包括: 基于 AutoDL 平台(可扩展,例如阿里云)的开源 LLM 环境配置指南,针对不同模型要求提供不同的详细环境配置步骤; 针对国内外主流开源 LLM 的部署使用教程,包括 LLaMA、ChatGLM、InternLM 等; 开源 LLM 的部署应用指导,包括命令行调用、在线 Demo 部署、LangChain 框架集成等; 开源 LLM 的全量微调、高效微调方法,包括分布式全量微调、LoRA、ptuning 等。 本项目适合以下学习者: 想要使用或体验 LLM,但无条件获得或使用相关 API; 希望长期、低成本、大量应用 LLM; 对开源 LLM 感兴趣,想要亲自上手开源 LLM; NLP 在学,希望进一步学习 LLM; 希望结合开源 LLM,打造领域特色的私域 LLM; 以及最广大、最普通的学生群体。

封面图片

Mozilla最近推出了一个名为Llamafile的开源项目,其目的是让大众更容易使用开源的大语言模型(LLM)。

Mozilla最近推出了一个名为Llamafile的开源项目,其目的是让大众更容易使用开源的大语言模型(LLM)。 Llamafile通过将LLM聊天机器人的全部复杂架构简化为一个可在六个操作系统上运行的单一可执行文件。它结合了和两个开源项目的功能。 Mozilla希望Llamafile可以降低开发者和普通用户使用开源LLM的门槛,让更多人参与开源AI的发展,为商业化的封闭源LLM提供一个开源的可选方案。Llamafile也代表了“本地AI”的理念,即AI运行在本地设备上,由用户完全控制,不依赖网络,可以保护隐私。这有助于开源AI抵制大公司对AI的控制。|

封面图片

DeepSeek Coder 成为第一个打败 GPT-4 Turbo 的开源代码模型

DeepSeek Coder 成为第一个打败 GPT-4 Turbo 的开源代码模型 中国 AI 创业公司 DeepSeek 的 成为第一个打败 GPT-4 Turbo 的开源代码模型。DeepSeek 上个月发布了混合专家模型 ,它的代码模型 DeepSeek Coder V2 就是基于该模型,它支持逾 300 种编程语言,在编程任务中超过了最先进的闭源模型如 GPT-4 Turbo、Claude 3 Opus 和 Gemini 1.5 Pro。在 MBPP+、HumanEval 和 Aider 编程测试中,DeepSeek Coder V2 获得了 76.2、90.2 和 73.7 分;在 MATH 和 GSM8K 等数学测试中,DeepSeek Coder V2 表现也类似。DeepSeek Coder V2 采用了 MIT 许可证,对商业使用不设限制,它有 160 亿和 2360 亿参数两个版本。来源 , 频道:@kejiqu 群组:@kejiquchat

封面图片

LLaV:一个拥有类似 GPT-4 的大语言+视觉模型

LLaV:一个拥有类似 GPT-4 的大语言+视觉模型 “使用机器生成的指令跟踪数据对大型语言模型 (LLM) 进行指令调优提高了新任务的零样本能力,但这一想法在多模式领域的探索较少。 所以,我们开始尝试使用纯语言 GPT-4 生成多模态语言图像指令跟踪数据。通过对此类生成的数据进行指令调整,并推出了 LLaVA:大型语言和视觉助手。 这是一种端到端训练的大型多模态模型,连接视觉编码器和 LLM 以实现通用视觉和语言理解。 早期实验表明,LLaVA 展示了令人印象深刻的多模型聊天能力,有时在看不见的图像 / 指令上表现出多模态 GPT-4 的行为,并且与合成多模态指令跟随数据集上的 GPT-4 相比,相对分数达到了 85.1%。 当在 Science QA 上进行微调时,LLaVA 和 GPT-4 的协同作用达到了 92.53%,这个准确率颇高。 因此,我们在 GitHub 正式开放 GPT-4 生成的视觉指令调整数据、模型和代码库。” |||||

封面图片

:一个开源引擎,用于微调和提供大型语言模型的服务,是定制和提供LLM的最简单方式

:一个开源引擎,用于微调和提供大型语言模型的服务,是定制和提供LLM的最简单方式 主要特征 适用于你喜爱的模型的即用型 API:部署和服务开源基础模型 - 包括 LLaMA、MPT 和 Falcon。使用 Scale 托管模型或部署到您自己的基础设施。 微调基础模型:根据您自己的数据微调开源基础模型,以优化性能。 优化推理:LLM Engine 提供推理 API,用于流式响应和动态批处理输入,以实现更高的吞吐量和更低的延迟。 开源集成: 使用单个命令部署任何。 即将推出的功能 K8s 安装文档:我们正在努力记录您自己的基础设施上推理和微调功能的安装和维护。目前,我们的文档涵盖了使用我们的客户端库访问 Scale 的托管基础​​设施。 快速冷启动时间:为了防止 GPU 闲置,LLM Engine 在不使用模型时会自动将模型缩放为零,并在几秒钟内扩展,即使对于大型基础模型也是如此。 成本优化:部署人工智能模型比商业模型更便宜,包括冷启动和预热时间。

封面图片

昆仑万维开源了自己的Skywork大模型 | 本次开源的模型有Skywork-13B-Base模型、Skywork-13B-Ch

昆仑万维开源了自己的Skywork大模型 | 本次开源的模型有Skywork-13B-Base模型、Skywork-13B-Chat模型、Skywork-13B-Math模型和Skywork-13B-MM模型,以及每个模型的量化版模型,以支持用户在消费级显卡进行部署和推理。 Skywork开源项目的特点有: Skywork-13B-Base模型在高质量清洗过滤的3.2万亿个多语言(主要是中文和英文)和代码数据上进行预训练,它在多种评测和各种基准测试上都展现了同等规模模型的最佳效果。 Skywork-13B-Chat模型具备强大的对话能力,我们在文创领域进行了进一步的针对性增强。我们通过构建一万多条高质量指令数据集,在10个文创任务上进行了针对性微调,使我们的模型在文创任务中能够接近ChatGPT的效果。此外,我们开源了针对这10个文创任务上的大约500条样本组成的benchmark。 Skywork-13B-Math模型经过专门的数学能力强化训练。在13B参数规模下,我们的模型在GSM8K评测上得分第一,同时在MATH数据集以及CMATH上也表现优异,处于13B模型顶尖水平。 Skywork-13B-MM多模态模型支持用户输入图片信息进行问答,对话等任务。 Skywork/Skypile-150B数据集是根据我们经过精心过滤的数据处理流程从中文网页中筛选出的高质量数据。本次开源的数据集大小约为600GB,总的token数量约为150B,是目前开源最大中文数据集。 除此之外,我们还公开了训练Skywork-13B模型中使用的评估方法、数据配比研究和训练基础设施调优方案等信息。我们希望这些开源内容能够进一步启发社区对于大型模型预训练的认知,并推动人工智能通用智能(AGI)的实现。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人