为了让开发者也能用上 AI 大型语言模型 (LLM) 的能力,微软在 GitHub 上开源了一个轻量级 SDK:,可以说是部分

为了让开发者也能用上 AI 大型语言模型 (LLM) 的能力,微软在 GitHub 上开源了一个轻量级 SDK:,可以说是部分 Copilot 的解决方案。 该 SDK 支持和封装了来自最新 AI 研究的多种设计模式,以便开发人员可以将复杂的 技能注入他们的应用程序。 SDK 提供了提示链、递归推理、总结、零 / 少样本学习、上下文记忆、长期记忆、嵌入、语义索引、规划和访问外部知识存储以及内部数据等功能。

相关推荐

封面图片

Neutralinojs – 使用 JavaScript 构建轻量级跨平台桌面应用程序。 ​​​|| #框架

Neutralinojs – 使用 JavaScript 构建轻量级跨平台桌面应用程序。 ​​​|| #框架 Neutralinojs 是一个轻量级、可移植的桌面应用程序开发框架。它允许你使用 JavaScript、HTML 和 CSS 开发轻量级的跨平台桌面应用程序。你可以使用任何编程语言(通过扩展 IPC)扩展 Neutralinojs,并将 Neutralinojs 用作任何源文件的一部分(通过子进程 IPC)。 在 Electron 和 NWjs 中,你必须安装 Node.js 和数百个依赖库。嵌入式 Chromium 和 Node 让简单的应用变得臃肿。Neutralinojs 提供了一个轻量级和可移植的 SDK,它是 Electron 和 NW.js 的替代品。Neutralinojs 不捆绑 Chromium,而是使用操作系统中现有的 Web 浏览器库(例如:Linux 上的 gtk-webkit2)。Neutralinojs 为本机操作实现了一个 WebSocket 连接,并嵌入了一个静态 Web 服务器来提供 Web 内容。此外,它还为开发人员提供了一个内置的 JavaScript 客户端库。 功能: 便携式开发套件。 应用程序开发人员无需编译。 用户不需要额外的依赖项。 原生功能支持:读取文件、运行系统命令等。 与基于铬节点的框架相比,资源占用更少。 跨平台:Neutralinojs 应用程序适用于 Linux、Windows、macOS 和 Web。 简单灵活的开发环境。

封面图片

太强了,Github发布了GitHub Copilot X它由四个产品共同组成分别是:

太强了,Github发布了GitHub Copilot X它由四个产品共同组成分别是: Copilot Chat:不仅仅是一个聊天窗口。它可以识别开发人员键入的代码、显示的错误消息,并将其深度嵌入到 IDE 中。 Copilot for Pull Request:改善人类协作。现在GPT不仅可以加速单个开发人员,还可以加速整个开源社区。 Copilot CLI:有时Bash很不直观和笨拙。不再需要Bash,只需使用英语。 Copilot文档:由于GPT-4的上下文长度更长(32K个标记),可以一次性适合整个文档。无需记忆任何文档 - 只需从提示中检索即可。 加入等待列表:

封面图片

Stability AI 发布了其新的开放大型语言模型(LLM)StableCode

Stability AI 发布了其新的开放大型语言模型(LLM)StableCode Stability AI 刚刚宣布推出了 StableCode,这是他们首个用于编码的 LLM 生成式人工智能产品。该产品旨在帮助程序员完成日常工作,同时也为准备将技能提升到新水平的新开发人员提供了一个出色的学习工具。 旨在帮助开发人员生成代码,并提供三个版本:通用用例的、和,其中长上下文窗口模型支持多达 16,000 个令牌以进行更高级的编程。 StableCode是使用来自开源BigCode项目的编码数据进行训练的,支持Python、Go、Java、JavaScript、C、Markdown和C++等语言的开发。BigCode项目被用作ServiceNow Inc.的StarCoder LLM的基础,该项目是与HuggingFace Inc.合作开发的,并于五月份推出。

封面图片

这是一款轻量级、先进的开源模型,供开发者和研究人员用于 AI 构建。Gemma 模型家族包括 Gemma 2B 和 Gemma

这是一款轻量级、先进的开源模型,供开发者和研究人员用于 AI 构建。Gemma 模型家族包括 Gemma 2B 和 Gemma 7B 两种尺寸, 能够在不同的设备类型上运行,包括笔记本电脑、桌面电脑、IoT 设备、移动设备和云端。性能和设计 Gemma 模型在技术和基础设施组件上与 Gemini 共享,这使得 Gemma 2B 和 7B 在其大小范围内相比其他开放模型具有最佳性能。 Gemma 模型不仅可以直接在开发者的笔记本电脑或桌面电脑上运行,而且在关键基准测试中的表现超过了更大的模型,同时遵循严格的安全和负责任输出标准。 主要特点: 1、轻量级、高性能模型:Gemma 模型家族包括 Gemma 2B 和 Gemma 7B.两种尺寸,提供预训练和指令调优的变体,针对其大小范围内相比其他开放模型具有最佳性能。 2、跨框架工具链支持:支持 JAX、PyTorch 和 TensorFlow 通过原生 Keras 3.0.进行推理和监督式微调(SFT),适应多种开发需求和环境。 3、易于入门和集成:提供准备就绪的 Colab 和 Kaggle 笔记本,以及与 Hugging Face、MaxText、NVIDIA NeMo.和 TensorRT-LLM 等流行工具的集成,方便开发者快速上手。 4.高效的运算能力:针对多个 AI 硬件平台上进行优化,确保在 NVIDIA GPU 和 Google Cloud TPU 上的行业领先性能。通过与 NVIDIA 的合作,无论是在数据中心、云端还是本地 RTX AI PC 上,都确保了行业领先的性能和与尖端技术的集成。 Gemma 模型能够在不同的设备类型上运行,这种广泛的兼容性使得模型能够适应各种应用场景和需求。 Hugging Face 测试链接: via 匿名 标签: #Google #Gemma 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

tinyllm 是一个轻量级框架,用于大规模开发、调试和监控 LLM 和代理支持的应用程序。该库的主要目标是使代码尽可能简单和可

tinyllm 是一个轻量级框架,用于大规模开发、调试和监控 LLM 和代理支持的应用程序。该库的主要目标是使代码尽可能简单和可读,同时允许用户在生产中创建复杂的代理或 LLM 工作流程。 Function及其流式等价物FunctionStream是tinylm 中的核心类。它们旨在标准化和控制 LLM、ToolStore 以及流模式和其他方式下可扩展生产使用的任何相关调用。 它提供了一种结构化方法来处理函数执行的各个方面,包括输入/​​输出验证、输出处理、错误处理、评估,同时保持代码可读。您可以在单个文件中创建一个具有自己的提示、LLM 模型和评估器的链。无需跳过许多类定义,也无需意大利面条式代码。任何其他库代理/链(langchain/llama-index...)也可以无缝导入为tinylm函数。 | #框架

封面图片

Vercel 在 GitHub 开源的一个 AI SDK,可帮你快速构建 AI 应用,包括 AI 对话、聊天界面、流式文本输出等

Vercel 在 GitHub 开源的一个 AI SDK,可帮你快速构建 AI 应用,包括 AI 对话、聊天界面、流式文本输出等功能。 现已集成 OpenAI、Hugging Face、LangChain 等知名 AI 开发工具。未来 AI 应用的开发效率将越来越快,成本越来越低。 目前已支持 React/Next.js、Svelte/SvelteKit和 Vue/Nuxt 以及 Node.js、Serverless 和 Edge Runtime。,下一步将支持 Nuxt/Vue。 |

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人