微软刚刚发布了 Phi-3 Mini,而且开源了。目前看它几乎所有基准测试中都表现更好。

微软刚刚发布了 Phi-3 Mini,而且开源了。目前看它几乎所有基准测试中都表现更好。 您可以在本地电脑搭建和免费使用它,喜欢倒腾的铁子可以按以下步骤试试看: 第一步:下载 LM Studio 。它是免费的开源软件,可让您运行任何开源 AI 模型。转至,然后下载并安装适合您操作系统的版本。 第二步:获得Phi-3。在主页上搜索“Phi-3”。选择“microsoft/Phi-3-mini-4k-instruct-gguf”,然后在右侧列表中下载 4K 版本。4K 版本更轻、更快,但比“fp16”损失更大一些。 第三步:开始使用Phi-3。单击左侧菜单中的聊天选项卡和“New Chat”。选择在顶部栏中选择的 Phi-3 模型。然后写下并发送您的提示!

相关推荐

封面图片

微软推出小型 AI 模型 Phi-3-mini

微软推出小型 AI 模型 Phi-3-mini 微软公布了一种低成本的小型人工智能模型 Phi-3-mini,该模型可以在使用更少量数据的情况下执行内容创建和社交媒体帖子等任务。微软表示,Phi-3-mini 在各种评估语言、编码和数学能力的基准测试中,它的表现可以超过两倍于它的模型。 来源:财经慢报频道

封面图片

微软发布全新多模态人工智能小语种模型Phi-3-vision

微软发布全新多模态人工智能小语种模型Phi-3-vision 新模型名为 Phi-3-vision,顾名思义,这种 SML 不仅可以处理文本提示,还可以接受图像和文本提示来生成问题答案。微软表示,使用这种模式的人可以获得有关他们提交的图表的问题答案,也可以就 Phi-3-vision 模式接收到的图像提出任何开放式问题。Phi-3-vision 包括 42 亿个参数,比 38 亿个参数的 Phi-3 迷你模式大,但比 70 亿个参数的 Phi-3 小型模式和 140 亿个参数的 Phi-3 中型模式小得多。微软表示,Phi-3-vision 可以回答有关"一般视觉推理任务以及图表、图形和表格推理"的问题。新的Phi-3-vision模型目前是预览版,但还不知道何时会全面上市。不过,Phi-3 Mini、Phi-3 Small 和 Phi-3 Medium 现在都可以通过微软的 Azure AI 模型即服务进行访问。在 Build 2024 的相关新闻中,微软表示 Azure AI Studio 现已全面可用。该公司表示:pro-code 平台支持负责任的生成式人工智能开发,包括开发协同驾驶员,以支持复杂的应用程序和任务,如内容生成、数据分析、项目管理、日常任务自动化等。该公司表示,Azure AI Studio 支持"代码优先"功能和"友好的用户界面",因此开发人员可以选择如何在自己的编码项目中使用这些工具。微软还宣布,OpenAI 的最新大型语言模型ChatGPT-4o 现在可以通过 Azure AI Studio 和 API 普遍使用。 ... PC版: 手机版:

封面图片

微软推出其规模最小的人工智能模型 Phi-3

微软推出其规模最小的人工智能模型 Phi-3 该公司于 12 月发布了 Phi-2,其性能与 Llama 2 等更大的型号不相上下。微软表示,Phi-3 的性能比前一版本更好,其响应速度接近比它大 10 倍的机型。微软Azure人工智能平台公司副总裁埃里克-博伊德(Eric Boyd)介绍说,Phi-3 Mini的性能与GPT-3.5等LLM不相上下,"只是外形尺寸更小而已"。与体积较大的同类,小型人工智能模型的运行成本通常更低,在手机和笔记本电脑等个人。据 The Information今年早些时候报道,微软正在组建一个专门研究轻量级人工智能模型的团队。 除了 Phi,该公司还建立了一个专注于解决数学问题的模型Orca-Math。微软的竞争对手也有自己的小型人工智能模型,它们大多针对文档摘要或编码辅助等较简单的任务。Google的 Gemma 2B 和 7B适合简单的聊天机器人和语言相关工作。Anthropic 的 Claude 3 Haiku可以阅读带图表的高密度研究论文并快速总结,而Meta 最近发布的 Llama 3 8B可能会用于一些聊天机器人和编码辅助工作。博伊德说,开发人员用"课程"来训练 Phi-3。他们的灵感来自于儿童是如何从睡前故事、单词较简单的书籍以及谈论较大主题的句子结构中学习的。Phi-3 只是在前几个迭代学习的基础上更进一步。Phi-1 专注于编码,Phi-2 开始学习推理,而 Phi-3 则更擅长编码和推理。虽然Phi-3系列模型知道一些常识,但它在广度上无法击败GPT-4或其他LLM从一个在整个互联网上接受过训练的LLM和一个像Phi-3这样的小型模型中得到的答案差别很大。Boyd 说,公司经常发现,像 Phi-3 这样的小型机型更适合他们的定制应用,因为对于很多公司来说,他们的内部数据集无论如何都会偏小。而且,由于这些型号使用的计算能力较低,它们的价格往往要低得多。 ... PC版: 手机版:

封面图片

英特尔在整个CPU和GPU产品组合中为微软Phi-3 AI模型做好了准备

英特尔在整个CPU和GPU产品组合中为微软Phi-3 AI模型做好了准备 在讨论细节之前,我们先来看看微软的 Phi-3 开放模型系列。该公司的新 GenAI 模型侧重于在更小、更高效的层面上提供功能,偏离了行业规范。有了Phi-3,我们可以看到小语言模型(SLM)的出现,它是处理能力有限的低功耗设备的理想选择。英特尔已成为首批在其产品阵容中支持 SLM 的硬件制造商之一,现在英特尔的 Gaudi AI 加速器、至强和酷睿 Ultra CPU 以及英特尔的 Arc GPU(独立和集成)都已优化,以支持微软的 Phi-3 型号。英特尔公司副总裁兼数据中心与人工智能软件部总经理 Pallavi Mahajan 介绍说:"我们利用业内最新的人工智能模型和软件,为客户和开发人员提供强大的人工智能解决方案。与人工智能软件生态系统中的其他领导者(如微软)积极合作,是让人工智能无处不在的关键。我们很荣幸能与微软密切合作,确保英特尔硬件(涵盖数据中心、边缘和客户端)积极支持几种新的Phi-3模型。"微软发布了多个 Phi-3 GenAI 模型,并根据各自的参数进行了分类。这些型号包括迷你型、小型和中型;有趣的是,英特尔展示了其所有开放型号产品的性能。从英特尔第六代至强 CPU(Granite Rapids)开始,该公司对 Phi-3 中型 4k 和 128k 变体进行了基准测试,与第五代至强(Emerald Rapids)相比,该平台的性能提高了 2 倍。谈到英特尔的酷睿Ultra CPU平台,该公司表示,Phi-3型号将催化边缘人工智能进程,并将提供"个性化和响应速度"等多项优势。为此,该公司用英特尔酷睿 Ultra 7 165H 对 Phi-3 mini 机型进行了测试,板载的独立 GPU 为 Arc A770,基准测试确实显示出令人印象深刻的性能和词元生成延迟。微软Phi-3人工智能模型的首次亮相确实将为个性化人工智能计算时代打开新的大门,而凭借现代处理器所拥有的性能,运行这样的模型完全不是问题。 ... PC版: 手机版:

封面图片

Databricks 5000名员工原创了15000个比GPT质量更好的数据集用于Dolly 2.0,并开源

Databricks 5000名员工原创了15000个比GPT质量更好的数据集用于Dolly 2.0,并开源 Databricks:我们正在开源整个 ,包括训练代码、数据集和模型权重,所有这些都适合商业用途。这意味着任何组织都可以创建、拥有和定制可以与人交谈的强大 LLM,而无需支付 API 访问费用或与第三方共享数据。 如何开始? 要下载 Dolly 2.0 模型砝码,只需访问页面并访问上的 Dolly 存储库以下载 .并加入我们的,了解如何为您的组织利用LLM。来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

人工智能在几乎所有性能基准测试中都超过了人类

人工智能在几乎所有性能基准测试中都超过了人类 与前几期相比,本期内容更丰富,反映了人工智能的快速发展及其在我们日常生活中日益增长的重要性。从哪些行业使用人工智能最多,到哪个国家最担心人工智能会导致失业,报告都进行了研究。但报告中最突出的一点是人工智能在与人类竞争时的表现。对于没有关注人工智能的人来说,人工智能已经在许多重要的基准测试中击败了我们。2015 年,它在图像分类方面超过了我们,然后是基本阅读理解(2017 年)、视觉推理(2020 年)和自然语言推理(2021 年)。人工智能变得如此聪明,速度如此之快,以至于在此之前使用的许多基准现在都已过时。事实上,该领域的研究人员正在争分夺秒地开发新的、更具挑战性的基准。简单地说,人工智能通过测试的能力越来越强,以至于我们现在需要新的测试不是为了衡量能力,而是为了突出人类和人工智能仍有差异的领域,找到我们仍有优势的地方。值得注意的是,下面的结果反映的是使用这些旧的、可能已经过时的基准进行的测试。但总体趋势仍然非常明显:人工智能已经超越了人类的许多性能基准看看这些轨迹,尤其是最近的测试是如何用一条接近垂直的线来表示的,需要知道的是这些机器还只是蹒跚学步的婴儿。新的人工智能指数报告指出,到2023年,人工智能在高级数学问题解决和视觉常识推理等复杂的认知任务上仍将举步维艰。不过,这里的"挣扎"可能会引起误解;这当然并不意味着人工智能做得很差。MATH 是一个包含 12500 个具有挑战性的竞赛级数学问题的数据集,自推出以来的两年中,其性能得到了显著提高。2021 年,人工智能系统只能解决 6.9% 的问题。相比之下,在 2023 年,基于 GPT-4 的模型解决了 84.3% 的问题。人类的基线是 90%。我们这里说的不是普通人;我们说的是能解决这样的测试题的人:向人工智能提出的数学问题示例这就是 2024 年高等数学的发展状况,我们仍然处于人工智能时代的黎明期。然后是视觉常识推理(VCR)。除了简单的物体识别外,VCR 还能评估人工智能如何在视觉环境中利用常识性知识进行预测。例如,当看到桌子上有一只猫的图像时,具有 VCR 的人工智能应该预测猫可能会从桌子上跳下来,或者根据猫的重量,预测桌子足够结实,可以容纳猫。报告发现,在 2022 年至 2023 年期间,VCR 增加了 7.93%,达到 81.60,而人类的基线是 85。用于测试人工智能视觉常识推理的示例问题把思绪拉回到五年前。想象一下,即使你想给电脑看一张图片,并期望它能"理解"上下文,从而回答这个问题。如今,人工智能可以生成许多行业的书面内容。但是,尽管取得了巨大进步,大型语言模型(LLM)仍然容易产生'幻觉'。"幻觉"是OpenAI等公司推崇的一个非常柔和的术语,大致意思是"将虚假或误导性信息作为事实呈现"。去年,人工智能的"幻觉"倾向让纽约律师史蒂文-施瓦茨(Steven Schwartz)尴尬不已,他使用 ChatGPT 进行法律研究,却没有对结果进行事实核查。审理此案的法官很快就发现了人工智能在提交的文件中捏造的法律案件,并对施瓦茨的粗心大意处以 5000 美元(7750 澳元)的罚款。他的故事成为了全球新闻。HaluEval被用作幻觉的基准。测试表明,对许多当地语言学习者来说,幻觉仍然是一个重要问题。真实性是生成式人工智能的另一个难点。在新的人工智能指数报告中,TruthfulQA被用作测试法律硕士真实性的基准。它的 817 个问题(涉及健康、法律、金融和政治等主题)旨在挑战我们人类常犯的错误观念。2024 年初发布的 GPT-4 在基准测试中取得了 0.59 的最高分,比 2021 年测试的基于 GPT-2 的模型高出近三倍。这样的进步表明,在给出真实答案方面,LLM 的性能正在逐步提高。人工智能生成的图像如何?要了解文本到图像生成的指数级改进,请查看 Midjourney 自 2022 年以来在绘制《哈利-波特》方面所做的努力:渐进式版本的 Midjourney 如何改进文本到图像的生成这相当于人工智能 22 个月的进步。你认为人类艺术家需要多长时间才能达到类似的水平?利用文本到图像模型整体评估(HEIM),对 LLM 的文本到图像生成能力进行了基准测试,测试涉及对图像的"实际部署"非常重要的 12 个关键方面。人类对生成的图像进行了评估,发现没有一个模型在所有标准中都表现出色。在图像与文本的对齐度或图像与输入文本的匹配度方面,OpenAI 的DALL-E 2得分最高。基于Stable Diffusion的梦幻般逼真模型在质量(照片的逼真程度)、美学(视觉吸引力)和原创性方面排名最高。明年的报告会更精彩您会注意到,这份人工智能指数报告的截止时间是 2023 年年底,这一年是人工智能加速发展的动荡之年,也是人工智能发展的地狱之年。事实上,唯一比 2023 年更疯狂的年份是 2024 年,在这一年里,我们看到了Suno、Sora、Google Genie、Claude 3、Channel 1 和Devin 等重大发展成果的发布。这些产品和其他一些产品都有可能彻底改变整个行业。而 GPT-5 这个神秘的幽灵正笼罩着它们,它有可能成为一个广泛而无所不包的模式,从而吞噬所有其他模式。人工智能不会消失,这是肯定的。从本报告中可以看出,整个 2023 年的技术发展速度非常快,这表明人工智能只会不断发展,不断缩小人类与技术之间的差距。我们知道这有很多东西需要消化,但还有更多。报告还探讨了人工智能发展的弊端,以及它如何影响全球公众对其安全性、可信度和道德的看法。敬请期待本系列报道的第二部分!访问斯坦福大学相关页面了解更多: ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人