微软推出小型 AI 模型 Phi-3-mini

微软推出小型 AI 模型 Phi-3-mini 微软公布了一种低成本的小型人工智能模型 Phi-3-mini,该模型可以在使用更少量数据的情况下执行内容创建和社交媒体帖子等任务。微软表示,Phi-3-mini 在各种评估语言、编码和数学能力的基准测试中,它的表现可以超过两倍于它的模型。 来源:财经慢报频道

相关推荐

封面图片

微软推出其规模最小的人工智能模型 Phi-3

微软推出其规模最小的人工智能模型 Phi-3 该公司于 12 月发布了 Phi-2,其性能与 Llama 2 等更大的型号不相上下。微软表示,Phi-3 的性能比前一版本更好,其响应速度接近比它大 10 倍的机型。微软Azure人工智能平台公司副总裁埃里克-博伊德(Eric Boyd)介绍说,Phi-3 Mini的性能与GPT-3.5等LLM不相上下,"只是外形尺寸更小而已"。与体积较大的同类,小型人工智能模型的运行成本通常更低,在手机和笔记本电脑等个人。据 The Information今年早些时候报道,微软正在组建一个专门研究轻量级人工智能模型的团队。 除了 Phi,该公司还建立了一个专注于解决数学问题的模型Orca-Math。微软的竞争对手也有自己的小型人工智能模型,它们大多针对文档摘要或编码辅助等较简单的任务。Google的 Gemma 2B 和 7B适合简单的聊天机器人和语言相关工作。Anthropic 的 Claude 3 Haiku可以阅读带图表的高密度研究论文并快速总结,而Meta 最近发布的 Llama 3 8B可能会用于一些聊天机器人和编码辅助工作。博伊德说,开发人员用"课程"来训练 Phi-3。他们的灵感来自于儿童是如何从睡前故事、单词较简单的书籍以及谈论较大主题的句子结构中学习的。Phi-3 只是在前几个迭代学习的基础上更进一步。Phi-1 专注于编码,Phi-2 开始学习推理,而 Phi-3 则更擅长编码和推理。虽然Phi-3系列模型知道一些常识,但它在广度上无法击败GPT-4或其他LLM从一个在整个互联网上接受过训练的LLM和一个像Phi-3这样的小型模型中得到的答案差别很大。Boyd 说,公司经常发现,像 Phi-3 这样的小型机型更适合他们的定制应用,因为对于很多公司来说,他们的内部数据集无论如何都会偏小。而且,由于这些型号使用的计算能力较低,它们的价格往往要低得多。 ... PC版: 手机版:

封面图片

微软宣布推出了新版小型语言模型 Phi-3,这款模型能够查看图片并告诉你图片中有什么。

微软宣布推出了新版小型语言模型 Phi-3,这款模型能够查看图片并告诉你图片中有什么。 Phi-3-vision 是一种多模态模型,也就是说它能同时处理文本和图像,而且最适合在移动设备上使用。微软表示,现已提供预览的 Phi-3-vision 是一个拥有 42 亿参数的模型(参数指的是模型的复杂程度以及它对训练内容的理解程度),能够执行一般的视觉推理任务,比如对图表或图片提出问题。 但是,Phi-3-vision 的规模远小于其他以图像为中心的人工智能模型,比如 OpenAI 的 DALL-E 或 Stability AI 的 Stable Diffusion。与这些模型不同,Phi-3-vision 并不生成图像,但它能理解图像中的内容,并为用户分析这些内容。 标签: #微软 #AI 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

微软推出其规模最小的人工智能模型 Phi-3

微软推出其规模最小的人工智能模型 Phi-3 微软推出了其轻量级人工智能模型 Phi-3 Mini 的下一个版本,这是该公司计划发布的三款小型模型中的第一款。Phi-3 Mini 可测量 38 亿个参数,其训练数据集比 GPT-4 等大型语言模型要小。现在可在 Azure、Hugging Face 和 Ollama 上使用。微软计划发布 Phi-3 Small (7B 参数) 和 Phi-3 Medium (14B 参数)。参数指的是模型能理解多少复杂指令。与大型人工智能模型相比,小型人工智能模型通常运行成本更低,并且在手机和笔记本电脑等个人设备上表现更好。

封面图片

微软刚刚发布了 Phi-3 Mini,而且开源了。目前看它几乎所有基准测试中都表现更好。

微软刚刚发布了 Phi-3 Mini,而且开源了。目前看它几乎所有基准测试中都表现更好。 您可以在本地电脑搭建和免费使用它,喜欢倒腾的铁子可以按以下步骤试试看: 第一步:下载 LM Studio 。它是免费的开源软件,可让您运行任何开源 AI 模型。转至,然后下载并安装适合您操作系统的版本。 第二步:获得Phi-3。在主页上搜索“Phi-3”。选择“microsoft/Phi-3-mini-4k-instruct-gguf”,然后在右侧列表中下载 4K 版本。4K 版本更轻、更快,但比“fp16”损失更大一些。 第三步:开始使用Phi-3。单击左侧菜单中的聊天选项卡和“New Chat”。选择在顶部栏中选择的 Phi-3 模型。然后写下并发送您的提示!

封面图片

微软发布全新多模态人工智能小语种模型Phi-3-vision

微软发布全新多模态人工智能小语种模型Phi-3-vision 新模型名为 Phi-3-vision,顾名思义,这种 SML 不仅可以处理文本提示,还可以接受图像和文本提示来生成问题答案。微软表示,使用这种模式的人可以获得有关他们提交的图表的问题答案,也可以就 Phi-3-vision 模式接收到的图像提出任何开放式问题。Phi-3-vision 包括 42 亿个参数,比 38 亿个参数的 Phi-3 迷你模式大,但比 70 亿个参数的 Phi-3 小型模式和 140 亿个参数的 Phi-3 中型模式小得多。微软表示,Phi-3-vision 可以回答有关"一般视觉推理任务以及图表、图形和表格推理"的问题。新的Phi-3-vision模型目前是预览版,但还不知道何时会全面上市。不过,Phi-3 Mini、Phi-3 Small 和 Phi-3 Medium 现在都可以通过微软的 Azure AI 模型即服务进行访问。在 Build 2024 的相关新闻中,微软表示 Azure AI Studio 现已全面可用。该公司表示:pro-code 平台支持负责任的生成式人工智能开发,包括开发协同驾驶员,以支持复杂的应用程序和任务,如内容生成、数据分析、项目管理、日常任务自动化等。该公司表示,Azure AI Studio 支持"代码优先"功能和"友好的用户界面",因此开发人员可以选择如何在自己的编码项目中使用这些工具。微软还宣布,OpenAI 的最新大型语言模型ChatGPT-4o 现在可以通过 Azure AI Studio 和 API 普遍使用。 ... PC版: 手机版:

封面图片

英特尔在整个CPU和GPU产品组合中为微软Phi-3 AI模型做好了准备

英特尔在整个CPU和GPU产品组合中为微软Phi-3 AI模型做好了准备 在讨论细节之前,我们先来看看微软的 Phi-3 开放模型系列。该公司的新 GenAI 模型侧重于在更小、更高效的层面上提供功能,偏离了行业规范。有了Phi-3,我们可以看到小语言模型(SLM)的出现,它是处理能力有限的低功耗设备的理想选择。英特尔已成为首批在其产品阵容中支持 SLM 的硬件制造商之一,现在英特尔的 Gaudi AI 加速器、至强和酷睿 Ultra CPU 以及英特尔的 Arc GPU(独立和集成)都已优化,以支持微软的 Phi-3 型号。英特尔公司副总裁兼数据中心与人工智能软件部总经理 Pallavi Mahajan 介绍说:"我们利用业内最新的人工智能模型和软件,为客户和开发人员提供强大的人工智能解决方案。与人工智能软件生态系统中的其他领导者(如微软)积极合作,是让人工智能无处不在的关键。我们很荣幸能与微软密切合作,确保英特尔硬件(涵盖数据中心、边缘和客户端)积极支持几种新的Phi-3模型。"微软发布了多个 Phi-3 GenAI 模型,并根据各自的参数进行了分类。这些型号包括迷你型、小型和中型;有趣的是,英特尔展示了其所有开放型号产品的性能。从英特尔第六代至强 CPU(Granite Rapids)开始,该公司对 Phi-3 中型 4k 和 128k 变体进行了基准测试,与第五代至强(Emerald Rapids)相比,该平台的性能提高了 2 倍。谈到英特尔的酷睿Ultra CPU平台,该公司表示,Phi-3型号将催化边缘人工智能进程,并将提供"个性化和响应速度"等多项优势。为此,该公司用英特尔酷睿 Ultra 7 165H 对 Phi-3 mini 机型进行了测试,板载的独立 GPU 为 Arc A770,基准测试确实显示出令人印象深刻的性能和词元生成延迟。微软Phi-3人工智能模型的首次亮相确实将为个性化人工智能计算时代打开新的大门,而凭借现代处理器所拥有的性能,运行这样的模型完全不是问题。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人