openAI开发者大会总结:自定义GPT发布,API升级多模态,成本进一步降低

openAI开发者大会总结:自定义GPT发布,API升级多模态,成本进一步降低 自定义GPT:GPT仅需3分钟便能创造一个属于自己的gpt,可以根据上传的内容,专业性的回答相关联内容,可以面向任何人开放,GPT开发者可以像IOS开发者一样,生成各种自定义的GPT,并通过这些GPT赚取利润,openAI未来还将上线GPTs商店,帮助开发者共创价值。 API升级多模态:现有的GPT-4 API升级为GPT-4 Turbo,包含了全新的6项更新,分别是:上下文窗口提高到128k(相当于300页书籍);更多控制;多模态视觉、DALL-E 3和语音API一起开放;GPT-4微调开放;双倍GPTR-4调用速率限制开放。此外全新Assistants API,包含了检索、代码解释器等新功能。 成本降低:GPT-4 Turbo输入降价到原来的1/3,为1美分每千token,输出降价到原来的1/2,为3美分每千token,同时不再设置上下文长度区分,统一128k,代码解释器按绘画次数收费,每次三美分,检索则根据容量和天数收费。 来源:

相关推荐

封面图片

自定义 GPT 向 ChatGPT 用户免费开放

自定义 GPT 向 ChatGPT 用户免费开放 5月30日消息,ChatGPT 免费用户现在可以访问自定义 GPT、分析图表、询问有关照片的问题以及5月初 GPT-4o 新增的其他功能。 模型和网络响应、数据分析、图表创建、视觉、文件上传、记忆和自定义 GPT 模型等功能以前仅对付费用户 (ChatGPT Plus、Teams 和 Enterprise) 开放,但现在已经面向所有 ChatGPT 用户开放。虽然 ChatGPT 免费用户可以发现和使用自定义 GPT 模型,但仍无法创建自己的 GPT 模型。

封面图片

OpenAI 向所有付费 API 用户开放 GPT-4

OpenAI 向所有付费 API 用户开放 GPT-4 OpenAI从今天开始,所有付费 API 客户都可以访问 GPT-4。OpenAI 还表示自将推出包括 GPT-3.5 Turbo、Whisper 及其 DALL・E 图像生成在内的更多 API。 OpenAI 将允许开发人员微调 GPT-4 和GPT-3.5 Turbo,该功能将使开发人员能够通过在自定义数据集上进行训练来提高 GPT-4 的准确性,OpenAI 计划在 2023 年晚些时候为开发者提供这些服务。来源 ,, 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

OpenAI 将自定义数据功能引入 GPT-3.5 Turbo

OpenAI 将自定义数据功能引入 GPT-3.5 Turbo 从而在构建特定行为的同时更轻松地提高文本生成 AI 模型的可靠性。 OpenAI ,GPT-3.5 的微调版本在“某些细分任务”上可以匹配甚至超越该公司旗舰模型GPT-4的基本功能。 通过微调,通过 OpenAI 的 API 使用 GPT-3.5 Turbo 的公司可以使模型更好地遵循指令,例如让它始终以给定的语言进行响应。此外,微调使 OpenAI 客户能够缩短文本提示,以加快 API 调用并降低成本。 微调成本如下: 训练:0.008 美元/1K Token 使用输入:0.012 美元/1K Token 使用输出:0.016 美元/1K Token OpenAI 表示,对 GPT-4 的微调支持(与 GPT-3.5 不同,除了文本之外还可以理解图像)将于今年秋季晚些时候推出。

封面图片

OpenAI 的自定义 GPT 商店现已开张营业

OpenAI 的自定义 GPT 商店现已开张营业 OpenAI 的 GPT 商店,用户可以在其中分享他们的自定义聊天机器人,在长达数月的延迟后终于于周三推出。该商店为 ChatGPT 带来了更多潜在的用例,并将 OpenAI 的生态系统扩展到公司为客户构建的生态系统之外。OpenAI 表示,自 11 月宣布 GPT Builder 计划以来,用户已经创建了 300 多万个机器人(称为 GPT)。该公司表示,它计划每周在商店内重点展示有用的 GPT。OpenAI 还宣布将于今年第一季度启动与 GPT 创建者的收入共享计划。GPT 构建者将根据用户与聊天机器人的互动程度获得报酬,但该公司尚未分享实际情况的具体细节。 、、

封面图片

OpenAI 发布新一代大型多模态模型 GPT-4

OpenAI 发布新一代大型多模态模型 GPT-4 GPT-4 是一个大型多模态模型,可以接受文本和图像输入。GPT-4 在各种专业学术基准上有着人类水平表现,例如模拟律师考试中,GPT-4 的得分约为前10%,而 GPT-3.5 的得分约为倒数10%。 在多语言测试中,GPT-4 优于 GPT-3.5 和 Chinchilla (来自DeepMind) 还有 PaLM (来自谷歌) ,包括英语性能还有拉脱维亚语、威尔士语和斯瓦希里语等低资源语言。 OpenAI 还开放了角色扮演和性格定制能力,开发人员和用户可以自定义他们的AI风格,而不是具有固定冗长、语气和风格的经典 ChatGPT 个性。 ChatGPT Plus 订阅用户现可直接 GPT-4 ,未来将对免费用户开放一定数量的 GPT-4 体验。GPT-4 API 需要候选名单,每1k prompt tokens 的价格为$0.03,每1k completion tokens 的价格为$0.06。目前图像输入处在研究预览阶段,仅对少部分客户开放。 微软在 GPT-4 发布后也正式 Bing Chat 基于 GPT-4 运行,同时 Bing Chat 的 Edge 边栏功能上线。与数据停留在2021年9月的 GPT-4 离线版本不同,Bing Chat 可联网获取实时信息并且免费。

封面图片

OpenAI宣布GPT-4 Turbo with Vision向ChatGPT用户和API开发者开放

OpenAI宣布GPT-4 Turbo with Vision向ChatGPT用户和API开发者开放 不过 OpenAI 也宣布该版本面向部分使用 API 调用的开发者们开放,所以如果你已经有 OpenAI API 那么也可以通过 API 付费调用 Vision 版。GPT-4 Turbo with Visio 继承了 GPT-4 Turbo 的所有特性,包括支持 128K 上下文窗口和截止到 2023 年 12 月的知识数据,与 Turbo 相比,Vision 带来了视觉理解功能,可以用来理解图像和视觉内容。在推出 Visio 版之前开发者必须调用单独的文本和图像模型,而现在开发者调用一个模型即可处理内容,这可以大幅度简化开发者的内容处理流程,为开发者推出更多富有创意的用例打开了大门。OpenAI 开发者团队也分享了一些使用该模型的用例,例如 AI 软件工程师助理 Devin 使用 GPT-4 Turbo with Visio 更好地协助编写代码,Make Real 使用 GPT-4 Turbo with Visio 将用户绘制的图片转换为一个可在线访问和交互的网站。健康和健身应用 Healthift 使用带有 Vision 的 GPT-4 Turbo 来扫描用户膳食的照片,通过照片识别来提供营养见解。API 费率方面 GPT-4 Turbo with Visio 的价格要比普通版本更高一些,开发者们可以通过 OpenAI 开发者平台查询最新支持文档和费率以及 API 调用的一些限制。OpenAI 开发者支持文档: ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人