微软推出其规模最小的人工智能模型 Phi-3
微软推出其规模最小的人工智能模型Phi-3该公司于12月发布了Phi-2,其性能与Llama2等更大的型号不相上下。微软表示,Phi-3的性能比前一版本更好,其响应速度接近比它大10倍的机型。微软Azure人工智能平台公司副总裁埃里克-博伊德(EricBoyd)介绍说,Phi-3Mini的性能与GPT-3.5等LLM不相上下,"只是外形尺寸更小而已"。与体积较大的同类,小型人工智能模型的运行成本通常更低,在手机和笔记本电脑等个人。据TheInformation今年早些时候报道,微软正在组建一个专门研究轻量级人工智能模型的团队。除了Phi,该公司还建立了一个专注于解决数学问题的模型Orca-Math。微软的竞争对手也有自己的小型人工智能模型,它们大多针对文档摘要或编码辅助等较简单的任务。Google的Gemma2B和7B适合简单的聊天机器人和语言相关工作。Anthropic的Claude3Haiku可以阅读带图表的高密度研究论文并快速总结,而Meta最近发布的Llama38B可能会用于一些聊天机器人和编码辅助工作。博伊德说,开发人员用"课程"来训练Phi-3。他们的灵感来自于儿童是如何从睡前故事、单词较简单的书籍以及谈论较大主题的句子结构中学习的。Phi-3只是在前几个迭代学习的基础上更进一步。Phi-1专注于编码,Phi-2开始学习推理,而Phi-3则更擅长编码和推理。虽然Phi-3系列模型知道一些常识,但它在广度上无法击败GPT-4或其他LLM--从一个在整个互联网上接受过训练的LLM和一个像Phi-3这样的小型模型中得到的答案差别很大。Boyd说,公司经常发现,像Phi-3这样的小型机型更适合他们的定制应用,因为对于很多公司来说,他们的内部数据集无论如何都会偏小。而且,由于这些型号使用的计算能力较低,它们的价格往往要低得多。...PC版:https://www.cnbeta.com.tw/articles/soft/1428349.htm手机版:https://m.cnbeta.com.tw/view/1428349.htm
在Telegram中查看相关推荐
🔍 发送关键词来寻找群组、频道或视频。
启动SOSO机器人