OpenAI扩展其定制模型培训计划 帮助企业量身定制额外参数

OpenAI扩展其定制模型培训计划帮助企业量身定制额外参数但OpenAI表示,在与这批初始用户合作的过程中,它逐渐意识到需要"发展"该计划,以"进一步最大化性能",因此需要进行辅助微调。辅助微调是"定制模型"计划的一个新组成部分,它利用了微调以外的技术,如OpenAI所说的"更大规模的额外超参数和各种参数高效微调方法",使企业能够建立数据训练管道、评估系统等,以提高模型在特定任务中的性能。OpenAI以韩国电信巨头SKTelecom为例,该公司与OpenAI合作对GPT-4进行了微调,以提高其在韩语"电信业务相关对话"中的性能。另一家协助微调的客户Harvey正在OpenAI初创基金的支持下构建人工智能驱动的法律工具,该公司与OpenAI合作创建了一个判例法定制模型,其中纳入了数亿字的法律文本和专家律师的反馈意见。"我们相信,未来绝大多数组织都将开发针对其行业、业务或用例的个性化定制模型,"OpenAI在一篇博文中写道。"有了构建定制模型的各种技术,各种规模的组织都可以开发个性化模型,从而从其人工智能实施中实现更有意义、更具体的影响。"OpenAI飞速发展,据说其年收入已接近惊人的20亿美元。但公司内部肯定也有压力,尤其是在公司计划与微软合作开发价值1000亿美元的数据中心之际(如果报道属实的话)。毕竟,训练和服务旗舰生成式人工智能模型的成本不会在短期内降低--在OpenAI谋划下一步行动时,像定制模型训练这样的咨询工作可能正是保持收入稳定增长的关键。在扩大定制模型计划的同时,OpenAI今天宣布为使用GPT-3.5的开发人员提供新的模型微调功能,包括用于比较模型质量和性能的新仪表板、支持与第三方平台的集成(从人工智能开发人员平台Weights&Biases开始)以及工具的增强。...PC版:https://www.cnbeta.com.tw/articles/soft/1426219.htm手机版:https://m.cnbeta.com.tw/view/1426219.htm

相关推荐

封面图片

OpenAI 携手 Scale AI,为企业增强 GPT 模型微调功能

OpenAI携手ScaleAI,为企业增强GPT模型微调功能OpenAI近日,宣布和ScaleAI展开深度合作,在企业环境中增强GPT-3.5Turbo和GPT-4大语言模型。OpenAI表示通过双方的深度合作,可以帮助企业定制OpenAI的大语言模型,满足企业的个性化需求。OpenAI在博文中再次强调,通过微调API发送的所有数据均为客户财产,不会被OpenAI或任何其他实体用于训练其他模型。ScaleAI在数据标签和AI解决方案方面有着独到优势,OpenAI将其列为“首选合作伙伴”。来源,频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

OpenAI 因企业版 ChatGPT 的“巨大增长”而开启新的“企业之年”

OpenAI因企业版ChatGPT的“巨大增长”而开启新的“企业之年”OpenAI首席运营官BradLightcap表示,目前已有超过60万人注册使用ChatGPTEnterprise,而1月份这一数字约为15万人。尽管OpenAI面临着越来越多的AI公司提供的类似产品,但仍看到对企业版ChatGPT的需求激增。Lightcap表示,2024年是OpenAI的“企业之年”,“我们越来越感觉到,市场正在将我们拉向真正的应用,通过真正广泛地关注人工智能实现来提供真正的业务成果,我们已准备好为客户提供支持。”OpenAI还正式宣布了辅助微调,OpenAI员工将帮助客户对GPT-4进行微调。定制模型计划允许选定的组织与OpenAI研究人员合作,根据他们的特定需求训练定制的GPT-4模型。——

封面图片

阶跃星辰发布 Step-2 万亿参数 MoE 语言大模型预览版

阶跃星辰发布Step-2万亿参数MoE语言大模型预览版在今日上海开幕的2024全球开发者先锋大会上,通用大模型创业公司阶跃星辰正式对外亮相。阶跃星辰研发的Step-1V千亿参数多模态大模型,在中国权威的大型模型评估平台“司南”(OpenCompass)多模态模型评测榜单中位列第一,性能比肩GPT-4V。阶跃星辰创始人、CEO姜大昕博士在大会上正式对外发布了Step-2万亿参数MoE语言大模型预览版。模型采用MoE架构,聚焦深度智能的探索,并提供API接口给部分合作伙伴试用。据了解,参数量从千亿到万亿,对算力、系统、数据、算法四个方面都提出了极高的要求,业内只有极少数公司能做到。训练万亿参数模型体现了阶跃星辰的核心技术能力,也表明阶跃星辰在通用人工智能领域追赶OpenAI的实力和决心。

封面图片

5000亿参数 传微软准备推出自研大模型MAI-1

5000亿参数传微软准备推出自研大模型MAI-1据悉,微软还未明确MAI-1模型的确切用途,具体取决于模型效果如何。报道称,微软可能会在本月晚些时候召开的Build开发者大会上预览这款新模型。微软对此拒绝发表评论。据报道,MAI-1规模将比微软之前训练的小型开源模型“大得多”,这意味着其也会更加昂贵。上个月微软推出了一款名为Phi-3-mini的小型人工智能模型,希望用有成本效益的产品吸引更多客户群体。微软向OpenAI投资了上百亿美元,并在旗下生产力软件中部署OpenAI的人工智能技术,从而在生成式人工智能领域的早期竞赛中取得了领先地位。据报道,为了提升该模型,微软已经配置了装备了英伟达GPU的大型服务器集群,并储备了大量数据。报道称,MAI-1将有大约5000亿个参数。相比之下,OpenAI的GPT-4据称有1万亿个参数,Phi-3mini有38亿个参数。今年3月份,微软任命苏莱曼为新成立的消费级人工智能部门负责人,同时还聘用了Inflection的几名员工。报道补充说,新模型并不是源自Inflection,但可能用到了这家创业公司的训练数据。(辰辰)...PC版:https://www.cnbeta.com.tw/articles/soft/1429899.htm手机版:https://m.cnbeta.com.tw/view/1429899.htm

封面图片

OpenAI 在东京开设亚洲首个办事处,将发布日语优化型 GPT-4 模型

OpenAI在东京开设亚洲首个办事处,将发布日语优化型GPT-4模型OpenAI今日宣布,公司在亚洲的首个办事处落户日本东京。OpenAI表示将致力于与当地政府、企业和研究机构合作,开发安全的人工智能工具,满足当地的独特需求。OpenAI还将发布针对日语进行优化的GPT-4定制模型。与GPT-4Turbo相比,它在日文文本方面的性能有所提高,运行速度最多可提高三倍。与此同时,该模型提高了翻译和总结日语文本的性能和成本效益。线索:@ZaiHuabot投稿:@TNSubmbot频道:@TestFlightCN

封面图片

微软据悉正自主研发AI模型 降低对OpenAI的依赖

微软据悉正自主研发AI模型降低对OpenAI的依赖最新消息称,微软正在开发自己的人工智能模型,试图降低对OpenAI的依赖。这一决定在很大程度上是因为,运行先进人工智能模型的成本逐渐上升。上个月有报道称,OpenAI正处于潜在的财务危机中,甚至可能在2024年底破产。据悉,OpenAI仅运行其人工智能服务ChatGPT每天就需要花费约70万美元。尽管该公司试图通过GPT-3.5和GPT-4来实现盈利,但目前还没有产生足够的收入来实现收支平衡。一名现任员工和另一名最近刚离职的前员工向媒体表示,微软的一名高管已经指示其中一些研发人员开发内部的对话式人工智能机器人。目前,这名高管在微软管理着1500名研发人员。知情人士还称,微软希望其内部的大型语言模型比OpenAI的更便宜、更小巧,尽管在性能方面可能不如ChatGPT。知情人士还补充说,微软产品团队已经在努力将内部开发的人工智能模型整合到必应聊天(BingChat)等产品中。对此,OpenAI和微软尚未发表评论。微软毫不掩饰与OpenAI的合作关系。2019年,微软向OpenAI投资了10亿美元。在ChatGPT发布后,微软又向该公司投资了100亿美元。微软已经将OpenAI的人工智能技术整合到旗舰产品中,包括搜索引擎必应。...PC版:https://www.cnbeta.com.tw/articles/soft/1386951.htm手机版:https://m.cnbeta.com.tw/view/1386951.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人