Mozilla最近推出了一个名为Llamafile的开源项目,其目的是让大众更容易使用开源的大语言模型(LLM)。

Mozilla最近推出了一个名为Llamafile的开源项目,其目的是让大众更容易使用开源的大语言模型(LLM)。 Llamafile通过将LLM聊天机器人的全部复杂架构简化为一个可在六个操作系统上运行的单一可执行文件。它结合了和两个开源项目的功能。 Mozilla希望Llamafile可以降低开发者和普通用户使用开源LLM的门槛,让更多人参与开源AI的发展,为商业化的封闭源LLM提供一个开源的可选方案。Llamafile也代表了“本地AI”的理念,即AI运行在本地设备上,由用户完全控制,不依赖网络,可以保护隐私。这有助于开源AI抵制大公司对AI的控制。|

相关推荐

封面图片

:超简单的类GPT语音助手,采用开源大型语言模型 (LLM) 以响应口头请求,完全在树莓派上本地运行。

:超简单的类GPT语音助手,采用开源大型语言模型 (LLM) 以响应口头请求,完全在树莓派上本地运行。 它不需要互联网连接或云服务支持。使用按钮触发录音,经过自动语音识别生成文本,然后由 TinyLlama-1.1B LLM 生成回复,并通过 eSpeak 语音合成器产生音频输出。

封面图片

Stability AI 发布了其新的开放大型语言模型(LLM)StableCode

Stability AI 发布了其新的开放大型语言模型(LLM)StableCode Stability AI 刚刚宣布推出了 StableCode,这是他们首个用于编码的 LLM 生成式人工智能产品。该产品旨在帮助程序员完成日常工作,同时也为准备将技能提升到新水平的新开发人员提供了一个出色的学习工具。 旨在帮助开发人员生成代码,并提供三个版本:通用用例的、和,其中长上下文窗口模型支持多达 16,000 个令牌以进行更高级的编程。 StableCode是使用来自开源BigCode项目的编码数据进行训练的,支持Python、Go、Java、JavaScript、C、Markdown和C++等语言的开发。BigCode项目被用作ServiceNow Inc.的StarCoder LLM的基础,该项目是与HuggingFace Inc.合作开发的,并于五月份推出。

封面图片

:为大型语言模型(LLM)设计的结构化生成语言,旨在加速和更好地控制与LLM的交互。

:为大型语言模型(LLM)设计的结构化生成语言,旨在加速和更好地控制与LLM的交互。 特点包括:灵活的前端语言,允许轻松编程LLM应用,支持多个连锁生成调用、高级提示技术、控制流、多模式、并行处理和外部交互;具备高性能运行时,使用RadixAttention可以显著加速复杂LLM程序的执行,自动跨多个调用重复使用KV缓存,同时支持连续批处理和张量并行处理。

封面图片

Arweave AO计划推出链上开源大语言模型

Arweave AO计划推出链上开源大语言模型 PANews 6月21日消息,Arweave公共测试网Arweave AO在X平台宣布推出“AI on AO”计划,计划推出链上开源大语言模型(LLMs),旨在将任何AI模型(不仅仅是LLMs)带到链上。基于Apus Network,利用Arweave的永久链上存储,构建一个去中心化、无信任的GPU网络,致力于为AI训练和推理提供可靠、高效和低成本的计算能力。AO上的AI数据可通过ArDrive 上传到Arweave的模型。

封面图片

见鬼了,谷歌居然开源LLM模型了,Meta要慌了。

见鬼了,谷歌居然开源LLM模型了,Meta要慌了。 Gemma 采用了和Gemini一样技术的开源LLM,同时质量也比同规模的模型要强。 下面是一些要点: ◈ 两种尺寸的模型权重:Gemma 2B和Gemma 7B。每种尺寸都有预训练和指导调整的变体。 ◈ 一个生成式人工智能工具包,为使用Gemma创建更安全的人工智能应用提供指导和必要工具。 ◈ 通过原生Keras 3.0为所有主要框架(JAX、PyTorch和TensorFlow)提供推理和监督微调(SFT)的工具链。 ◈ 准备好的Colab和Kaggle笔记本,以及与Hugging Face、MaxText、NVIDIA NeMo和TensorRT等流行工具的集成,使得开始使用Gemma变得非常容易。 ◈ 预先训练和经过调整的Gemma模型可以在您的笔记本电脑、工作站或Google Cloud上运行,并可以轻松部署到Vertex AI和Google Kubernetes Engine(GKE)。 ◈ 跨多个人工智能硬件平台的优化确保了行业领先的性能,包括NVIDIA GPU和Google Cloud TPU。 ◈ 允许所有组织进行负责任的商业使用和分发,无论规模大小。 ◈未来还会发布Gemma更大模型变体。 了解更多:

封面图片

Line日本总部本周宣布开源自家开发的日语大型语言模型(LLM)。

Line日本总部本周宣布开源自家开发的日语大型语言模型(LLM)。 ,可用于研究和商业用途,包含 和 个参数两个版本,均可在 HuggingFace Hub 上获取。 ,Line 一直专注于大型语言模型 HyperCLOVA,在 2021 年 5 月,Line 首次公开了基于 2040 亿个参数训练的韩文版 LLM HyperCLOVA,然后在 11 月公布了拥有 850 亿个参数的日语专用版本。 此次公开的模型与 HyperCLOVA 是不同部门并行开发的。此次开源的模型团队指出,此模型是基于 Line 自家的日语大型 Web 文本进行训练的,使用了 650GB 数据集进行训练。 研究团队还提供了本次公开的两个模型与 Rinna-3.6B 和 OpenCALM-7B 模型的准确度和困惑度(perplexity score,PPL)比较数据。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人