微软发布全新多模态人工智能小语种模型Phi-3-vision

微软发布全新多模态人工智能小语种模型Phi-3-vision 新模型名为 Phi-3-vision,顾名思义,这种 SML 不仅可以处理文本提示,还可以接受图像和文本提示来生成问题答案。微软表示,使用这种模式的人可以获得有关他们提交的图表的问题答案,也可以就 Phi-3-vision 模式接收到的图像提出任何开放式问题。Phi-3-vision 包括 42 亿个参数,比 38 亿个参数的 Phi-3 迷你模式大,但比 70 亿个参数的 Phi-3 小型模式和 140 亿个参数的 Phi-3 中型模式小得多。微软表示,Phi-3-vision 可以回答有关"一般视觉推理任务以及图表、图形和表格推理"的问题。新的Phi-3-vision模型目前是预览版,但还不知道何时会全面上市。不过,Phi-3 Mini、Phi-3 Small 和 Phi-3 Medium 现在都可以通过微软的 Azure AI 模型即服务进行访问。在 Build 2024 的相关新闻中,微软表示 Azure AI Studio 现已全面可用。该公司表示:pro-code 平台支持负责任的生成式人工智能开发,包括开发协同驾驶员,以支持复杂的应用程序和任务,如内容生成、数据分析、项目管理、日常任务自动化等。该公司表示,Azure AI Studio 支持"代码优先"功能和"友好的用户界面",因此开发人员可以选择如何在自己的编码项目中使用这些工具。微软还宣布,OpenAI 的最新大型语言模型ChatGPT-4o 现在可以通过 Azure AI Studio 和 API 普遍使用。 ... PC版: 手机版:

相关推荐

封面图片

微软推出其规模最小的人工智能模型 Phi-3

微软推出其规模最小的人工智能模型 Phi-3 微软推出了其轻量级人工智能模型 Phi-3 Mini 的下一个版本,这是该公司计划发布的三款小型模型中的第一款。Phi-3 Mini 可测量 38 亿个参数,其训练数据集比 GPT-4 等大型语言模型要小。现在可在 Azure、Hugging Face 和 Ollama 上使用。微软计划发布 Phi-3 Small (7B 参数) 和 Phi-3 Medium (14B 参数)。参数指的是模型能理解多少复杂指令。与大型人工智能模型相比,小型人工智能模型通常运行成本更低,并且在手机和笔记本电脑等个人设备上表现更好。

封面图片

微软推出其规模最小的人工智能模型 Phi-3

微软推出其规模最小的人工智能模型 Phi-3 该公司于 12 月发布了 Phi-2,其性能与 Llama 2 等更大的型号不相上下。微软表示,Phi-3 的性能比前一版本更好,其响应速度接近比它大 10 倍的机型。微软Azure人工智能平台公司副总裁埃里克-博伊德(Eric Boyd)介绍说,Phi-3 Mini的性能与GPT-3.5等LLM不相上下,"只是外形尺寸更小而已"。与体积较大的同类,小型人工智能模型的运行成本通常更低,在手机和笔记本电脑等个人。据 The Information今年早些时候报道,微软正在组建一个专门研究轻量级人工智能模型的团队。 除了 Phi,该公司还建立了一个专注于解决数学问题的模型Orca-Math。微软的竞争对手也有自己的小型人工智能模型,它们大多针对文档摘要或编码辅助等较简单的任务。Google的 Gemma 2B 和 7B适合简单的聊天机器人和语言相关工作。Anthropic 的 Claude 3 Haiku可以阅读带图表的高密度研究论文并快速总结,而Meta 最近发布的 Llama 3 8B可能会用于一些聊天机器人和编码辅助工作。博伊德说,开发人员用"课程"来训练 Phi-3。他们的灵感来自于儿童是如何从睡前故事、单词较简单的书籍以及谈论较大主题的句子结构中学习的。Phi-3 只是在前几个迭代学习的基础上更进一步。Phi-1 专注于编码,Phi-2 开始学习推理,而 Phi-3 则更擅长编码和推理。虽然Phi-3系列模型知道一些常识,但它在广度上无法击败GPT-4或其他LLM从一个在整个互联网上接受过训练的LLM和一个像Phi-3这样的小型模型中得到的答案差别很大。Boyd 说,公司经常发现,像 Phi-3 这样的小型机型更适合他们的定制应用,因为对于很多公司来说,他们的内部数据集无论如何都会偏小。而且,由于这些型号使用的计算能力较低,它们的价格往往要低得多。 ... PC版: 手机版:

封面图片

微软宣布推出了新版小型语言模型 Phi-3,这款模型能够查看图片并告诉你图片中有什么。

微软宣布推出了新版小型语言模型 Phi-3,这款模型能够查看图片并告诉你图片中有什么。 Phi-3-vision 是一种多模态模型,也就是说它能同时处理文本和图像,而且最适合在移动设备上使用。微软表示,现已提供预览的 Phi-3-vision 是一个拥有 42 亿参数的模型(参数指的是模型的复杂程度以及它对训练内容的理解程度),能够执行一般的视觉推理任务,比如对图表或图片提出问题。 但是,Phi-3-vision 的规模远小于其他以图像为中心的人工智能模型,比如 OpenAI 的 DALL-E 或 Stability AI 的 Stable Diffusion。与这些模型不同,Phi-3-vision 并不生成图像,但它能理解图像中的内容,并为用户分析这些内容。 标签: #微软 #AI 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

微软推出小型 AI 模型 Phi-3-mini

微软推出小型 AI 模型 Phi-3-mini 微软公布了一种低成本的小型人工智能模型 Phi-3-mini,该模型可以在使用更少量数据的情况下执行内容创建和社交媒体帖子等任务。微软表示,Phi-3-mini 在各种评估语言、编码和数学能力的基准测试中,它的表现可以超过两倍于它的模型。 来源:财经慢报频道

封面图片

微软发布Copilot智能体 还带来了本机小语言模型

微软发布Copilot智能体 还带来了本机小语言模型 此外,微软还针对Copilot+ PC推出了本机小语言模型Phi-Silica。微软宣布,从6月份开始上市销售的所有Copilot+ PC都将嵌入Phi-Silica。这是一款微软专门为人工智能个人电脑所搭载神经处理单元(NPU)打造的模型,是公司所有模型中规模最小的,有33亿个参数。微软宣称,Copilot智能体并不会袖手旁观,等待命令,而是可以主动执行诸如监控电子邮件收件箱、自动化手动数据录入等任务。这代表了行业中所称的AI智能体在行为上的重大变革,也就是使聊天机器人能够独立智能地执行复杂任务。这是业界通常所说智能主体方面的一个重大变化,也就是让聊天机器人能自动执行一系列复杂任务。微软商业应用和平台副总裁查尔斯·拉曼纳(Charles Lamanna)在接受采访时解释:“我们很快意识到,仅限于用Copilot进行对话,极大地限制了它目前的功能。”“与其让Copilot等着别人和它聊天,不如让它更主动,让它能够在后台自动执行任务。”微软今天向极少数早期接入测试者展示了这一新能力,并计划在今年晚些时候在Copilot Studio公开进行预览。企业将能够创建能够处理IT支持、员工入职等多种任务的Copilot智能体。“Copilot正从与你并肩作战的助手,演变为为你工作的助手,”微软在一篇博客中说。这些Copilot智能体将由特定事件触发,并将结合企业自身的数据进行操作。以下是微软以新员工入职举例说明Copilot如何工作:想象你是一名新员工。一个积极主动的Copilot会向你打招呼,利用HR数据解答你的问题,把你介绍给同事,为你提供培训信息,帮助你填写表格,安排你第一周的会议。这样,HR及其他员工便可专注于他们的常规任务,无需再被行政管理工作所困扰。这种自动化可能会引发关于失业以及AI未来走向的问题和恐惧。拉曼纳认为,Copilot智能体可以去除工作中重复且单调的任务,如数据输入,而非完全替代工作。“工作和岗位是由许多不同而又多样的任务组成的。如果某人不断重复同一工作,那么这种工作很可能已经被现有技术自动化了。”拉曼纳说,“我们认为,随着Copilot和Copilot Studio的使用,一些任务将被完全自动化……但好消息是,大多数被自动化的任务都是没人真正想做的。”关于小型语言模型Phi-Silica,微软表示这款模型的首字延迟是每秒650个token,功耗大约为1.5瓦特。这意味着它不会大量占用系统资源,从而释放PC的CPU和GPU去处理其他计算任务。此外,Phi-Silica在生成Token时会重用NPU的KV缓存,并在CPU上运行,每秒能产生约27个Token。微软发言人表示,Phi-Silica的独特之处在于这是Windows首个本地部署的语言模型。它专为NPU优化,能够为设备带来极速的本地推理处理。这是一个关键时刻,标志着先进的AI技术将直接应用于Windows平台,支持第三方开发者创建卓越的第一方和第三方体验。这些体验将于今年秋季推向终端用户,从而提升Windows生态系统内的生产力和可访问性。Phi-Silica是微软Phi-3系列模型的第五款产品,其他四款产品是拥有38亿个参数的Phi-3 mini、70亿个参数的Phi-3 small、140亿个参数的Phi-3 medium和42亿个参数的Phi-3 vision。(辰辰) ... PC版: 手机版:

封面图片

几周前,OpenAI 在其首次开发者活动中发布了用于生成式人工智能服务的最新大型语言模型 GPT-4 Turbo。随后,微软宣布

几周前,OpenAI 在其首次开发者活动中发布了用于生成式人工智能服务的最新大型语言模型 GPT-4 Turbo。随后,微软宣布将把 GPT-4 Turbo 模型添加到其 Azure OpenAI 服务中。 今天,微软宣布增强其 Azure OpenAI 服务,GPT-4 Turbo with Vision 模型现已作为公开预览版提供给客户。 此外,微软还通过 GPT-4 Turbo with Vision 预览版为 Azure OpenAI 客户增加了更多功能。其中之一是光学字符识别(OCR),它可以检查图像并提取图像中的任何文本,以便将其整合到用户提示中。 GPT-4 Turbo with Vision 的另一项功能是对象接地,它可以让人工智能检查图像,并根据用户的文本提示显示图像中的关键对象。同样,人工智能还可以分析视频的特定帧。 标签: #OpenAI #微软 #Azure 频道: @GodlyNews1 投稿: @GodlyNewsBot

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人