为了让开发者也能用上 AI 大型语言模型 (LLM) 的能力,微软在 GitHub 上开源了一个轻量级 SDK:,可以说是部分

为了让开发者也能用上 AI 大型语言模型 (LLM) 的能力,微软在 GitHub 上开源了一个轻量级 SDK:,可以说是部分 Copilot 的解决方案。 该 SDK 支持和封装了来自最新 AI 研究的多种设计模式,以便开发人员可以将复杂的 技能注入他们的应用程序。 SDK 提供了提示链、递归推理、总结、零 / 少样本学习、上下文记忆、长期记忆、嵌入、语义索引、规划和访问外部知识存储以及内部数据等功能。

相关推荐

封面图片

Neutralinojs – 使用 JavaScript 构建轻量级跨平台桌面应用程序。 ​​​|| #框架

Neutralinojs – 使用 JavaScript 构建轻量级跨平台桌面应用程序。 ​​​|| #框架 Neutralinojs 是一个轻量级、可移植的桌面应用程序开发框架。它允许你使用 JavaScript、HTML 和 CSS 开发轻量级的跨平台桌面应用程序。你可以使用任何编程语言(通过扩展 IPC)扩展 Neutralinojs,并将 Neutralinojs 用作任何源文件的一部分(通过子进程 IPC)。 在 Electron 和 NWjs 中,你必须安装 Node.js 和数百个依赖库。嵌入式 Chromium 和 Node 让简单的应用变得臃肿。Neutralinojs 提供了一个轻量级和可移植的 SDK,它是 Electron 和 NW.js 的替代品。Neutralinojs 不捆绑 Chromium,而是使用操作系统中现有的 Web 浏览器库(例如:Linux 上的 gtk-webkit2)。Neutralinojs 为本机操作实现了一个 WebSocket 连接,并嵌入了一个静态 Web 服务器来提供 Web 内容。此外,它还为开发人员提供了一个内置的 JavaScript 客户端库。 功能: 便携式开发套件。 应用程序开发人员无需编译。 用户不需要额外的依赖项。 原生功能支持:读取文件、运行系统命令等。 与基于铬节点的框架相比,资源占用更少。 跨平台:Neutralinojs 应用程序适用于 Linux、Windows、macOS 和 Web。 简单灵活的开发环境。

封面图片

太强了,Github发布了GitHub Copilot X它由四个产品共同组成分别是:

太强了,Github发布了GitHub Copilot X它由四个产品共同组成分别是: Copilot Chat:不仅仅是一个聊天窗口。它可以识别开发人员键入的代码、显示的错误消息,并将其深度嵌入到 IDE 中。 Copilot for Pull Request:改善人类协作。现在GPT不仅可以加速单个开发人员,还可以加速整个开源社区。 Copilot CLI:有时Bash很不直观和笨拙。不再需要Bash,只需使用英语。 Copilot文档:由于GPT-4的上下文长度更长(32K个标记),可以一次性适合整个文档。无需记忆任何文档 - 只需从提示中检索即可。 加入等待列表:

封面图片

Stability AI 发布了其新的开放大型语言模型(LLM)StableCode

Stability AI 发布了其新的开放大型语言模型(LLM)StableCode Stability AI 刚刚宣布推出了 StableCode,这是他们首个用于编码的 LLM 生成式人工智能产品。该产品旨在帮助程序员完成日常工作,同时也为准备将技能提升到新水平的新开发人员提供了一个出色的学习工具。 旨在帮助开发人员生成代码,并提供三个版本:通用用例的、和,其中长上下文窗口模型支持多达 16,000 个令牌以进行更高级的编程。 StableCode是使用来自开源BigCode项目的编码数据进行训练的,支持Python、Go、Java、JavaScript、C、Markdown和C++等语言的开发。BigCode项目被用作ServiceNow Inc.的StarCoder LLM的基础,该项目是与HuggingFace Inc.合作开发的,并于五月份推出。

封面图片

这是一款轻量级、先进的开源模型,供开发者和研究人员用于 AI 构建。Gemma 模型家族包括 Gemma 2B 和 Gemma

这是一款轻量级、先进的开源模型,供开发者和研究人员用于 AI 构建。Gemma 模型家族包括 Gemma 2B 和 Gemma 7B 两种尺寸, 能够在不同的设备类型上运行,包括笔记本电脑、桌面电脑、IoT 设备、移动设备和云端。性能和设计 Gemma 模型在技术和基础设施组件上与 Gemini 共享,这使得 Gemma 2B 和 7B 在其大小范围内相比其他开放模型具有最佳性能。 Gemma 模型不仅可以直接在开发者的笔记本电脑或桌面电脑上运行,而且在关键基准测试中的表现超过了更大的模型,同时遵循严格的安全和负责任输出标准。 主要特点: 1、轻量级、高性能模型:Gemma 模型家族包括 Gemma 2B 和 Gemma 7B.两种尺寸,提供预训练和指令调优的变体,针对其大小范围内相比其他开放模型具有最佳性能。 2、跨框架工具链支持:支持 JAX、PyTorch 和 TensorFlow 通过原生 Keras 3.0.进行推理和监督式微调(SFT),适应多种开发需求和环境。 3、易于入门和集成:提供准备就绪的 Colab 和 Kaggle 笔记本,以及与 Hugging Face、MaxText、NVIDIA NeMo.和 TensorRT-LLM 等流行工具的集成,方便开发者快速上手。 4.高效的运算能力:针对多个 AI 硬件平台上进行优化,确保在 NVIDIA GPU 和 Google Cloud TPU 上的行业领先性能。通过与 NVIDIA 的合作,无论是在数据中心、云端还是本地 RTX AI PC 上,都确保了行业领先的性能和与尖端技术的集成。 Gemma 模型能够在不同的设备类型上运行,这种广泛的兼容性使得模型能够适应各种应用场景和需求。 Hugging Face 测试链接: via 匿名 标签: #Google #Gemma 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

tinyllm 是一个轻量级框架,用于大规模开发、调试和监控 LLM 和代理支持的应用程序。该库的主要目标是使代码尽可能简单和可

tinyllm 是一个轻量级框架,用于大规模开发、调试和监控 LLM 和代理支持的应用程序。该库的主要目标是使代码尽可能简单和可读,同时允许用户在生产中创建复杂的代理或 LLM 工作流程。 Function及其流式等价物FunctionStream是tinylm 中的核心类。它们旨在标准化和控制 LLM、ToolStore 以及流模式和其他方式下可扩展生产使用的任何相关调用。 它提供了一种结构化方法来处理函数执行的各个方面,包括输入/​​输出验证、输出处理、错误处理、评估,同时保持代码可读。您可以在单个文件中创建一个具有自己的提示、LLM 模型和评估器的链。无需跳过许多类定义,也无需意大利面条式代码。任何其他库代理/链(langchain/llama-index...)也可以无缝导入为tinylm函数。 | #框架

封面图片

是一个正在开发的轻量级AI Agent,它也可以作为一个简单的开发框架,用于快速构建和试验各种AI Agent想法。特点如下:

是一个正在开发的轻量级AI Agent,它也可以作为一个简单的开发框架,用于快速构建和试验各种AI Agent想法。特点如下: 自然且高度容错的交互式代理调用树架构。 以最灵活的方式解析 LLM 输出,支持更多样的函数调用机制。 自构建、动态加载环境交互模块,提供无限的功能扩展潜力。 专为开源模型设计,但无缝支持 GPT-4 等商业模型。 支持对特定主题的深入调查。 自动化编程和脚本执行。它是一个包罗万象的编码器和熟练的系统管理工具,掌握所有系统命令类似于人工智能操作系统。 设计AIlice时的基本原则是: 以高度动态的提示构建机制丰富LLM行为; 尽可能分离不同的计算任务,利用传统计算中的递归和分治法来解决复杂问题。 代理应该能够双向交互。 让我们简要解释一下这些基本原则。 从最明显的层面开始,高度动态的提示结构使得代理不太可能陷入循环。外部环境新变量的涌入不断影响着法学硕士,帮助其避免陷入这种陷阱。此外,向法学硕士提供所有当前可用的信息可以大大提高其产出。例如,在自动化编程中,来自解释器或命令行的错误消息帮助法学硕士不断修改代码,直到获得正确的结果。最后,在动态提示构建中,提示中的新信息也可能来自其他智能体,作为一种联动推理计算的形式,使得系统的计算机制更加复杂、多样,能够产生更丰富的行为。 从实际的角度来看,分离计算任务是由于我们有限的上下文窗口。我们不能指望在几千个代币的窗口内完成一项复杂的任务。如果我们能够分解一个复杂的任务,以便在有限的资源内解决每个子任务,那将是一个理想的结果。在传统的计算模型中,我们一直利用这一点,但在以LLM为中心的新计算中,这并不容易实现。问题是,如果一个子任务失败,整个任务就有失败的风险。递归更具挑战性:如何确保每次调用时,LLM 都能解决部分子问题,而不是将整个负担传递给下一级调用?我们在AIlice中用IACT架构解决了第一个问题,第二个问题理论上不难解决,但很可能需要更聪明的LLM。 第三个原则是大家目前正在努力的:让多个智能代理交互、协作来完成更复杂的任务。这一原则的实现实际上解决了前面提到的子任务失败的问题。多智能体协作对于智能体运行中的容错能力至关重要。事实上,这可能是新计算范式与传统计算最大的区别之一:传统计算是精确且无错误的,仅通过单向通信(函数调用)来分配子任务,而新计算范式则容易出错且需要计算单元之间的双向通信来纠正错误。这将在下面有关 IACT 框架的部分中详细解释。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人