五分钟速览OpenAI发布会:GPT-4 Turbo模型、GPT应用商店等登场

五分钟速览OpenAI发布会:GPT-4Turbo模型、GPT应用商店等登场(来源:OpenAIDevDay)在发布会的开始,奥特曼简短回顾了公司过去一年的发展历程,特别提到“公司在今年3月发布的GPT-4,至今仍是世界上能力最强的AI大模型”。时至今日,已经有200万开发者正在使用OpenAI的API(应用程序接口),在全球各地提供多种多样的服务;92%的财富500强公司正在使用OpenAI的产品搭建服务,而ChatGPT的周活用户数也达到1亿人。GPT-4Turbo模型登场随后便进入了新品发布时间,首先登场的是GPT-4Turbo模型。简单来说,相较于全球股民都很熟悉的GPT-4,GPT-4Turbo的进步主要体现在6个方面。1、AI能够理解更长的上下文对话长度(contextlength)。标准版GPT-4模型最多支持8192个token,此前的升级将其提高至最多3.2万个token。而GPT-4Turbo支持最高12.8万个token,相当于一本标准大小的300页纸质书所包含的文本量;奥特曼也表示,新模型在处理长文本情境下的准确度也有所提高;2、给予开发者更多的控制权。新的模型允许开发者指示模型固定以特定形式返回有效JSON—JSON模式。同时开发者可以通过访问seed参数和system_fingerprint响应字段,来实现“模型对每次请求都给出确定性的输出”。3、GPT-4对于现实世界的知识截止于2021年9月,GPT-4Trubo的知识则截止于2023年4月。4、多模态API来了。文生图模型DALL·E3、具有视觉输入能力的GPT-4Trubo,以及新的声音合成模型(TTS)都在今日进入API。OpenAI也在今天发布了新的语音识别模型WhisperV3,将在近期向开发者提供API。5、继向全球开发者开放GPT3.5微调(Fine-tuning)后,OpenAI宣布将向活跃开发者提供GPT-4微调的资格。对于开发细分行业的垂直AI应用而言,微调是必经的过程。对于这类开发者,OpenAI也推出了定制化模型项目,帮助一些组织训练针对特定领域的定制化GPT-4模型。奥特曼也表示,这件事情一开始并不会便宜。6、OpenAI将所有GPT-4用户的Token速率限制扩大了一倍,开发者可以申请进一步提高速率。与微软、Adobe类似,OpenAI也引入了“版权护盾”机制。在ChatGPT企业版用户和API用户遭到版权官司时,公司将会出面辩护,并支付因此产生的赔偿责任。在市场极为关注的定价方面,作为行业领先的大模型,GPT-4Turbo的价格要远低于GPT-4。其中输入Token的价格只有三分之一,而输出Token的价格只有一半。也就是说,输入1000个Token的定价为1美分,而输出1000个Token的定价为3美分。与此同时,GPT-3Turbo16K模型的价格也有所下调。(新定价表,来源:OpenAI)在新品发布间隙,微软CEO纳德拉也来到现场,猛夸了一顿OpenAI并再次强调“微软深爱着OpenAI”。ChatGPT也有更新奥特曼宣布,虽然今天是开发者大会,但OpenAI也忍不住对ChatGPT做出一些更新。首先,从今天开始ChatGPT将使用刚刚发布的GPT-4Trubo模型。另外,针对用户每次对话前都要选择不同模式的困扰,GPT-4Trubo也将迎来产品逻辑的更新,现在机器人能够主动根据对话来适配对应的功能。更新前更新后接下来本场活动的第二个重要产品登场——GPTs。用户将能通过自定义指令、拓展(模型)的知识边界和下达行动命令,来构建自己的GPT,并能对外发布给全球更多的人使用。更重要的是,整个构建“自定义GPT”的过程也是通过自然语言对话形成的。奥特曼也在现场演示了如何通过聊天搭建一个GPT。他给GPTBuilder的指令是“希望帮助创业者思考商业灵感并提供建议,然后‘拷问’他们为何公司发展得不够快。”随后ChatGPT迅速搭建了一个创业咨询GPT,还顺手生成了一个Logo。随后奥特曼在属性页面中上传了一份他自己关于创业公司的演讲稿,向这个用例提供了额外的知识。至此,自定义用途的GPT初步搭建完成。用户可以保存这个用例只给自己使用,也能对外公开发布。既然说到“公开发布”,OpenAI也顺势宣布,将在本月晚些时候上线“GPT应用商店”。对于那些最热门的GPT,公司还将分享一部分的营收,来推进GPT应用生态的进步。AssistantsAPI最后是面向开发者的新品AssistantsAPI。“助理API”是一个专门构建的人工智能,具有特定的指令,利用额外的知识,并能调用模型和工具来执行任务。新的助手API提供了如代码解释器、检索以及函数调用等功能,以处理此前开发者必须自己完成的诸多繁重工作。OpenAI介绍称,这个API的用例范围非常灵活,例如基于自然语言的数据分析应用、编程助手、AI度假规划器、语音控制DJ、智能视觉画布等等。作为示例,OpenAI的首席开发者体验官RomainHuet搭建了一个“知晓整场开发者大会”的用例,并调用Whisper来实现语音输入。同时由于这个API可以联网,所以Romain也在现场用语音指示AI随机挑选5位现场观众,给他们的OpenAI账户里各充值500美金。作为本场活动的最后一个惊喜环节,Romain再一次向AI发出指令,给现场所有人的账户里各打了500美元。...PC版:https://www.cnbeta.com.tw/articles/soft/1394965.htm手机版:https://m.cnbeta.com.tw/view/1394965.htm

相关推荐

封面图片

具有视觉功能的 GPT-4 Turbo 正式发布

具有视觉功能的GPT-4Turbo正式发布人工智能公司OpenAI宣布,具有视觉功能的GPT-4Turbo模型GPT-4TurbowithVision现已通过其API向开发人员提供。该模型延续了GPT-4Turbo系列128,000个token的窗口大小和截止至2023年12月的知识库并新增了视觉理解功能。视觉请求现在可以使用JSON模式和函数调用。——

封面图片

OpenAI宣布GPT-4 Turbo with Vision向ChatGPT用户和API开发者开放

OpenAI宣布GPT-4TurbowithVision向ChatGPT用户和API开发者开放不过OpenAI也宣布该版本面向部分使用API调用的开发者们开放,所以如果你已经有OpenAIAPI那么也可以通过API付费调用Vision版。GPT-4TurbowithVisio继承了GPT-4Turbo的所有特性,包括支持128K上下文窗口和截止到2023年12月的知识数据,与Turbo相比,Vision带来了视觉理解功能,可以用来理解图像和视觉内容。在推出Visio版之前开发者必须调用单独的文本和图像模型,而现在开发者调用一个模型即可处理内容,这可以大幅度简化开发者的内容处理流程,为开发者推出更多富有创意的用例打开了大门。OpenAI开发者团队也分享了一些使用该模型的用例,例如AI软件工程师助理Devin使用GPT-4TurbowithVisio更好地协助编写代码,MakeReal使用GPT-4TurbowithVisio将用户绘制的图片转换为一个可在线访问和交互的网站。健康和健身应用Healthift使用带有Vision的GPT-4Turbo来扫描用户膳食的照片,通过照片识别来提供营养见解。API费率方面GPT-4TurbowithVisio的价格要比普通版本更高一些,开发者们可以通过OpenAI开发者平台查询最新支持文档和费率以及API调用的一些限制。OpenAI开发者支持文档:https://platform.openai.com/docs/models/gpt-4-turbo-and-gpt-4...PC版:https://www.cnbeta.com.tw/articles/soft/1426850.htm手机版:https://m.cnbeta.com.tw/view/1426850.htm

封面图片

OpenAI新GPT-4 Turbo模型已可使用 四项能力提升

OpenAI新GPT-4Turbo模型已可使用四项能力提升不过更强大的能力同时也意味着更长的响应时间与更高的成本,对于预算有限的项目来说,这也是一个重要的考虑因素。据悉,OpenAI在4月10日正式发布了GPT-4Turbo,用户可以根据需求构建自己的GPT。GPT-4Turbo和GPT-4的主要区别在于几个方面:上下文窗口:GPT-4Turbo拥有更大的上下文窗口,可以处理高达128K个token,而GPT-4的上下文窗口较小。模型大小:GPT-4Turbo的模型大小为100B参数,这意味着它可以处理更多信息,生成更复杂和细腻的输出,而GPT-4的模型大小为10B参数。知识截止日期:GPT-4Turbo的训练数据包含到2023年4月的信息,而GPT-4的数据截止于2021年9月,后来扩展到2022年1月。成本:对于开发者来说,GPT-4Turbo的使用成本更低,因为它的运行成本对OpenAI来说更低。功能集:GPT-4Turbo提供了一些新功能,如JSON模式、可复现输出、并行函数调用等。总的来说,GPT-4Turbo的更新更重要的是完善了功能,增加了速度,准确性是否提高仍然存疑。这或许与整个大模型业界目前的潮流一致:重视优化,面向应用。而有可能再次颠覆AI领域的GPT-5,预计将在夏季推出。...PC版:https://www.cnbeta.com.tw/articles/soft/1427055.htm手机版:https://m.cnbeta.com.tw/view/1427055.htm

封面图片

OpenAI 连更 5 款模型:修复 GPT-4“变懒”BUG,GPT-3.5 Turbo 模型输出降价 50%

OpenAI连更5款模型:修复GPT-4“变懒”BUG,GPT-3.5Turbo模型输出降价50%OpenAI今天一口气宣布了5个新模型,包括两个文本嵌入模型、升级的GPT-4Turbo预览版和GPT-3.5Turbo、一个审核模型。更新GPT-4Turbo预览模型:重点修复了模型的“变懒”情况,能更彻底地完成代码生成等任务。新预览版还改善了对非英语生成问题的支持,引入“gpt-4-turbo-preview”模型别名,可自动指向最新的预览版。定价更低的新嵌入模型:OpenAI还引入了两种新的嵌入模式,一种是体积更小、效率更高的text-embedding-3-small模型,另一种是体积更大、功能更强的text-embedding-3-large模型。原生支持shortening:允许开发人员以降低存储和计算需求来换取一定的准确性。简单地说,保持主旨不变的情况下,shortening就像从一个复杂的标签中去掉一些不那么重要的细节。GPT-3.5Turbo:新的输入价格定格在每1ktoken价格为0.0005美元,而输出价格则为每1ktoken价格为0.0015美元。投稿:@TNSubmbot频道:@TestFlightCN

封面图片

OpenAI发布新嵌入模型,降低GPT-3.5 Turbo价格 | blog

OpenAI发布新嵌入模型,降低GPT-3.5Turbo价格OpenAI发布了新的嵌入模型和API更新,包括两个新的嵌入模型、更新的GPT-4Turbo预览模型、更新的GPT-3.5Turbo模型和更新的文本审核模型。新的嵌入模型包括一个小型高效的text-embedding-3-small模型和一个大型高性能的text-embedding-3-large模型,允许开发者在使用嵌入时权衡性能和成本,特别是可以通过减少嵌入的维数(即从序列的末尾移除一些数字)来实现。这些模型能够创建最多3072维的嵌入。OpenAI表示,发送到OpenAIAPI的数据默认不会被用来训练或改进OpenAI模型。

封面图片

OpenAI 向所有付费 API 用户开放 GPT-4

OpenAI向所有付费API用户开放GPT-4OpenAI从今天开始,所有付费API客户都可以访问GPT-4。OpenAI还表示自将推出包括GPT-3.5Turbo、Whisper及其DALL・E图像生成在内的更多API。OpenAI将允许开发人员微调GPT-4和GPT-3.5Turbo,该功能将使开发人员能够通过在自定义数据集上进行训练来提高GPT-4的准确性,OpenAI计划在2023年晚些时候为开发者提供这些服务。来源,,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人