微软研究院删除WizardLM模型 原因是发布几个月竟忘记做毒性测试

微软研究院删除WizardLM模型原因是发布几个月竟忘记做毒性测试比较搞笑的是这个模型发布没多久就被删除,原因是微软内部似乎对发布的AI模型有标准流程,需要经过一系列测试后才能发布。而WizardLM从几个月前发布到现在都没有进行毒性测试,该测试主要是测试模型中是否会生成一些不合规的内容,直到WizardLM2发布时微软研究院才发现错过了一些发布流程。所以现在整个WizardLM项目已经从GitHub上删除,同时Huggingface上的WizardLM主页也被清空,暂时不再提供WizardLM和WizardLM2下载。当然这也不是太大的问题,如果能通过毒性测试的话,这个模型很快就会重新发布,到时候GitHub和Huggingface上的主页也会恢复。GitHub:https://wizardlm.github.io/Huggingface:https://huggingface.co/WizardLM...PC版:https://www.cnbeta.com.tw/articles/soft/1427667.htm手机版:https://m.cnbeta.com.tw/view/1427667.htm

相关推荐

封面图片

微软研究院发布了Orca 2 LLM 其性能可媲美大语言模型

微软研究院发布了Orca2LLM其性能可媲美大语言模型微软在一篇博文中表示,Orca2是专为小规模LM设计的,但仍可用于回答LLM等复杂问题。Orca2有两种大小(70亿和130亿个参数),部分是利用今年早些时候微软帮助Meta推出的Llama2LLM制作的。该公司"根据量身定制的高质量合成数据"对基于Llama2的模型进行了微调。微软表示,这使得Orca2模型在处理问题时能够与其他"5-10倍大"的语言模型相媲美:Orca2使用扩展的、高度定制的合成数据集进行训练。这些训练数据的生成,向Orca2传授了各种推理技术,如逐步处理法、回忆然后生成法、回忆-推理-生成法、提取-生成法和直接回答法,同时还教会它针对不同的任务选择不同的解决策略。Orca2模型与Llama2和WizardLM等大型语言模型进行了一系列基准测试,测试内容包括"语言理解、常识推理、多步骤推理、数学问题解决、阅读理解"等。微软官方博客称:我们的初步测试结果表明,Orca2的性能大大超越了类似规模的模型。它还达到了类似或优于至少比它大10倍的模型的性能水平,展示了为更小的模型配备更好的推理能力的潜力。虽然微软承认Orca2确实存在局限性,但迄今为止的测试显示了"未来进步的潜力"。微软将把Orca2作为一个开源项目发布,以便其他人也能对其进行开发。...PC版:https://www.cnbeta.com.tw/articles/soft/1398829.htm手机版:https://m.cnbeta.com.tw/view/1398829.htm

封面图片

HuggingGPT:一个ChatGPT控制所有AI模型,自动帮人完成AI任务

HuggingGPT:一个ChatGPT控制所有AI模型,自动帮人完成AI任务HuggingFace+ChatGPT=HuggingGPT浙江大学与微软亚洲研究院的合作成果,HuggingGPT能帮你自动分析需要哪些AI模型,然后直接去调用HuggingFace上的相应模型,来帮你执行并完成。假定我们给出这样一个请求:请生成一个女孩正在看书的图片,她的姿势与example.jpg中的男孩相同。然后请用你的声音描述新图片。可以看到HuggingGPT是如何将它拆解为6个子任务,并分别选定模型执行得到最终结果的。()论文地址:https://arxiv.org/abs/2303.17580项目链接:https://github.com/microsoft/JARVIS参考链接:https://twitter.com/DrJimFan/status/1642563455298473986

封面图片

Hugging Face 和 ServiceNow 发布免费代码生成模型 StarCoder

HuggingFace和ServiceNow发布免费代码生成模型StarCoderAI创业公司HuggingFace和ServiceNow发布了免费的代码生成模型。类似DeepMind的AlphaCode、亚马逊的CodeWhisperer和GitHub的Copilot(基于OpenAI的Codex),StarCoder使用ApacheLicense2.0许可证,允许任何人免费使用,但严格意义上不是开源模型,它禁止用户使用该模型生成或传播恶意代码。StarCoder使用了开源代码数据集TheStack训练,有150亿参数。其数据集包括了逾80种不同编程语言和来自githubissues和commits的文本。#AI来源,https://github.com/bigcode-project/starcoder来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

微软:Phi-2模型性能优于竞争对手 可在设备上运行

微软:Phi-2模型性能优于竞争对手可在设备上运行“值得注意的是,Phi-2模型在多步推理任务(即编码和数学)上的表现优于参数达700亿的Llama2(Llama2模型系列包含70亿、130亿和700亿三种参数变体)。”微软补充称:“此外,Phi-2模型的性能与最近发布的谷歌GeminiNano2相当、甚至更好,尽管模型规模较小。”微软表示,Phi-2模型将在AzureStudio中推出。据悉,微软于今年6月发布只有13亿参数的Phi-1模型,适用于QA问答、聊天格式和代码等等场景。该模型完全基于高质量数据进行训练,在基准测试中的表现比同类模型高出10倍。微软今年9月更新发布了Phi-1.5版本,同样为13亿参数,可以写诗、写电子邮件和故事,以及总结文本。在常识、语言理解和推理的基准测试中,该模型在某些领域能够跟上多达100亿个参数的模型。微软在11月更新发布的Phi-2规模虽然比此前版本翻番,但相比较其它主流语言模型依然小很多。微软表示,Phi-2在逻辑推理和安全性方面显示出显著的改进,通过正确的微调和定制,小型语言模型是云和边缘应用程序的强大工具。...PC版:https://www.cnbeta.com.tw/articles/soft/1404019.htm手机版:https://m.cnbeta.com.tw/view/1404019.htm

封面图片

复旦大学开源国内首个类ChatGPT模型MOSS,支持插件增强

复旦大学开源国内首个类ChatGPT模型MOSS,支持插件增强4月21日消息,国内首个类ChatGPT模型MOSS已正式开源。该模型由复旦大学自然语言处理实验室开发,名字致敬于《流浪地球2》中的量子机器人MOSS。此前,在测试时曾发布在公开平台,但由于瞬间压力过大,导致服务器过载,学术团队也表示了道歉和承诺进一步优化。目前,MOSS模型已上线开源,相关代码、数据、模型参数已在Github和HuggingFace等平台开放,供科研人员下载。https://github.com/OpenLMLab/MOSShttps://moss.fastnlp.top/来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

终于意识到不对劲!微软从 Windows Server 2025 中删除 Copilot

终于意识到不对劲!微软从WindowsServer2025中删除Copilot在2月26日发布的WindowsServer2025Build26063预览版中,微软竟然给WindowsServer系统也添加了Copilot人工智能应用并且还要求管理员登录微软账号。不过在最新预览版中微软已经删除Copilot,微软从添加到删除都没有发布任何公告。https://www.landiannews.com/archives/103156.htmlWin11非内核代码没删干净

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人