今天开始 GPT-4 API 全面开放

今天开始 GPT-4 API 全面开放 所有具有成功支付历史的 API 开发人员,现在都可以直接访问具有 8K 上下文的 GPT-4 API。OpenAI 计划在本月底前向新开发人员开放访问权限,然后根据计算可用性开始提高速率限制。 GPT-3.5 Turbo、DALL·E 和 Whisper API 现已普遍可用,text-davinci-002、text-davinci-003 等旧型号模型计划在2024年初退役。

相关推荐

封面图片

OpenAI 向所有付费 API 用户开放 GPT-4

OpenAI 向所有付费 API 用户开放 GPT-4 OpenAI从今天开始,所有付费 API 客户都可以访问 GPT-4。OpenAI 还表示自将推出包括 GPT-3.5 Turbo、Whisper 及其 DALL・E 图像生成在内的更多 API。 OpenAI 将允许开发人员微调 GPT-4 和GPT-3.5 Turbo,该功能将使开发人员能够通过在自定义数据集上进行训练来提高 GPT-4 的准确性,OpenAI 计划在 2023 年晚些时候为开发者提供这些服务。来源 ,, 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

▶ GPT 4: ▶ API Waitlist:

▶ GPT 4: ▶ API Waitlist: ▶ GPT-4 Developer Livestream 看图…… (后面补了个P9,直播里的手稿拍照转html) 邮件原文(翻译 by ChatGPT) 我们已经创建了GPT-4,这是我们最强大的模型。我们今天开始向API用户推出该模型。 请于今天(3月14日)下午1点(太平洋时间)加入我们,观看GPT-4的现场演示。 ▶ 关于GPT-4 由于其更广泛的通用知识和先进的推理能力,GPT-4可以更准确地解决困难问题。 ▶ 您可以通过以下方式了解更多信息: ·GPT-4概述页面以及早期客户使用该模型构建的内容。 ·博客文章详细介绍了该模型的功能和局限性,包括评估结果。 (一开始的那个链接) ▶ 可用性 ·API等待列表:请注册我们的等待列表,以获得受限制的GPT-4 API访问权限,该API使用与gpt-3.5-turbo相同的ChatCompletions API。我们将从今天开始邀请一些开发人员,并逐渐扩大可用性和速率限制,以平衡容量和需求。 (我也放在前面了) ·优先访问:开发人员可以通过为OpenAI Evals贡献模型评估来获得GPT-4的优先API访问权限,这将有助于我们改进该模型,使其对所有人都更好。 ·ChatGPT Plus:ChatGPT Plus订户将可以在chat.openai.com上使用GPT-4,并获得动态调整的使用上限。由于我们的容量非常有限,因此使用上限将取决于需求和系统性能。API访问仍将通过等待列表进行。 ▶ API定价 ·具有8K上下文窗口(约13页文本)的gpt-4将每1K提示令牌收取0.03美元,每1K完成令牌收取0.06美元。 ·具有32K上下文窗口(约52页文本)的gpt-4-32k将每1K提示令牌收取0.06美元,每1K完成令牌收取0.12美元。 ▶ 直播

封面图片

具有视觉功能的 GPT-4 Turbo 正式发布

具有视觉功能的 GPT-4 Turbo 正式发布 人工智能公司 OpenAI 宣布,具有视觉功能的 GPT-4 Turbo 模型 GPT-4 Turbo with Vision 现已通过其 API 向开发人员提供。该模型延续了 GPT-4 Turbo 系列 128,000 个 token 的窗口大小和截止至 2023 年 12 月的知识库并新增了视觉理解功能。视觉请求现在可以使用 JSON 模式和函数调用。

封面图片

Vercel Labs 推出 AI Playground 可用 GPT-4

Vercel Labs 推出 AI Playground 可用 GPT-4 是 Vercel 提供的在线平台,允许用户在交互式环境中测试和对比多个AI模型,包括 OpenAI 的 GPT-4 。用户可以输入文本或代码,AI 模型将根据输入生成响应。这使开发人员和非开发人员都可以轻松探索 AI 模型的功能、测试想法并构建 AI 驱动的应用程序。#AI 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

OpenAI宣布GPT-4 Turbo with Vision向ChatGPT用户和API开发者开放

OpenAI宣布GPT-4 Turbo with Vision向ChatGPT用户和API开发者开放 不过 OpenAI 也宣布该版本面向部分使用 API 调用的开发者们开放,所以如果你已经有 OpenAI API 那么也可以通过 API 付费调用 Vision 版。GPT-4 Turbo with Visio 继承了 GPT-4 Turbo 的所有特性,包括支持 128K 上下文窗口和截止到 2023 年 12 月的知识数据,与 Turbo 相比,Vision 带来了视觉理解功能,可以用来理解图像和视觉内容。在推出 Visio 版之前开发者必须调用单独的文本和图像模型,而现在开发者调用一个模型即可处理内容,这可以大幅度简化开发者的内容处理流程,为开发者推出更多富有创意的用例打开了大门。OpenAI 开发者团队也分享了一些使用该模型的用例,例如 AI 软件工程师助理 Devin 使用 GPT-4 Turbo with Visio 更好地协助编写代码,Make Real 使用 GPT-4 Turbo with Visio 将用户绘制的图片转换为一个可在线访问和交互的网站。健康和健身应用 Healthift 使用带有 Vision 的 GPT-4 Turbo 来扫描用户膳食的照片,通过照片识别来提供营养见解。API 费率方面 GPT-4 Turbo with Visio 的价格要比普通版本更高一些,开发者们可以通过 OpenAI 开发者平台查询最新支持文档和费率以及 API 调用的一些限制。OpenAI 开发者支持文档: ... PC版: 手机版:

封面图片

OpenAI 发布新一代大型多模态模型 GPT-4

OpenAI 发布新一代大型多模态模型 GPT-4 GPT-4 是一个大型多模态模型,可以接受文本和图像输入。GPT-4 在各种专业学术基准上有着人类水平表现,例如模拟律师考试中,GPT-4 的得分约为前10%,而 GPT-3.5 的得分约为倒数10%。 在多语言测试中,GPT-4 优于 GPT-3.5 和 Chinchilla (来自DeepMind) 还有 PaLM (来自谷歌) ,包括英语性能还有拉脱维亚语、威尔士语和斯瓦希里语等低资源语言。 OpenAI 还开放了角色扮演和性格定制能力,开发人员和用户可以自定义他们的AI风格,而不是具有固定冗长、语气和风格的经典 ChatGPT 个性。 ChatGPT Plus 订阅用户现可直接 GPT-4 ,未来将对免费用户开放一定数量的 GPT-4 体验。GPT-4 API 需要候选名单,每1k prompt tokens 的价格为$0.03,每1k completion tokens 的价格为$0.06。目前图像输入处在研究预览阶段,仅对少部分客户开放。 微软在 GPT-4 发布后也正式 Bing Chat 基于 GPT-4 运行,同时 Bing Chat 的 Edge 边栏功能上线。与数据停留在2021年9月的 GPT-4 离线版本不同,Bing Chat 可联网获取实时信息并且免费。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人