第一财经 - 直播区<b>快讯 |</b> OpenAI公布(对ChatGPT的)更新内容,包括更多可控制的API模型、功能调用

第一财经 - 直播区 <b>快讯 |</b> OpenAI公布(对ChatGPT的)更新内容,包括更多可控制的API模型、功能调用能力、更长的上下文和更低的价格。此外,嵌入模型成本降低了75%。<br />| #财经 #新闻 #资讯

相关推荐

封面图片

OpenAI 发布更新,函数调用和其他 API 更新

OpenAI 发布更新,函数调用和其他 API 更新 我们宣布了一些更新,包括更多可调控的 API 模型、函数调用能力、更长的上下文和更低的价格。 今天,我们有一些令人兴奋的更新: 1.在Chat Completions API中添加了新的函数调用功能。 2.更新了gpt-4和gpt-3.5-turbo的更多可控版本。 3.推出了gpt-3.5-turbo的新版本,具有16k的上下文长度(标准版本为4k)。 4.我们的最先进的嵌入模型成本降低了75%。 5.对于gpt-3.5-turbo的输入令牌,降低了25%的成本。 6.宣布了gpt-3.5-turbo-0301和gpt-4-0314模型的停用时间表。 更低的价格 Embeddings Text-embedding-ada-002 现在每 1,000 个代币的价格为 0.0001 美元,比之前的价格降低了 75%。 GPT-3.5 Turbo gpt-3.5-turbo是我们最受欢迎的聊天模型,为数百万用户提供 ChatGPT 支持。今天,我们将 gpt-3.5-turbo 的输入代币成本降低了25%。开发人员现在可以以每 1K 输入令牌 0.0015 美元和每 1K 输出令牌 0.002 美元的价格使用该模型,这相当于每美元大约 700 页。 gpt-3.5-turbo-16k定价为每1,000 输入代币 0.003 美元,每1,000 输出代币 0.004 美元。 来源:

封面图片

OpenAI新GPT-4 Turbo模型已可使用 四项能力提升

OpenAI新GPT-4 Turbo模型已可使用 四项能力提升 不过更强大的能力同时也意味着更长的响应时间与更高的成本,对于预算有限的项目来说,这也是一个重要的考虑因素。据悉,OpenAI在4月10日正式发布了GPT-4 Turbo,用户可以根据需求构建自己的GPT。GPT-4 Turbo和GPT-4的主要区别在于几个方面:上下文窗口:GPT-4 Turbo拥有更大的上下文窗口,可以处理高达128K个token,而GPT-4的上下文窗口较小。模型大小:GPT-4 Turbo的模型大小为100B参数,这意味着它可以处理更多信息,生成更复杂和细腻的输出,而GPT-4的模型大小为10B参数。知识截止日期:GPT-4 Turbo的训练数据包含到2023年4月的信息,而GPT-4的数据截止于2021年9月,后来扩展到2022年1月。成本:对于开发者来说,GPT-4 Turbo的使用成本更低,因为它的运行成本对OpenAI来说更低。功能集:GPT-4 Turbo提供了一些新功能,如JSON模式、可复现输出、并行函数调用等。总的来说,GPT-4 Turbo的更新更重要的是完善了功能,增加了速度,准确性是否提高仍然存疑。这或许与整个大模型业界目前的潮流一致:重视优化,面向应用。而有可能再次颠覆AI领域的GPT-5,预计将在夏季推出。 ... PC版: 手机版:

封面图片

第一财经 - 直播区<b>明日A股机会早知道 |</b> ①“讯飞星火认知大模型”V1.5即将发布 大模型发展全面加速<br /

第一财经 - 直播区 <b>明日A股机会早知道 |</b> ①“讯飞星火认知大模型”V1.5即将发布 大模型发展全面加速<br /><br />科大讯飞公告,将在6月9日如期发布“讯飞星火认知大模型”的...| #财经 #新闻 #资讯

封面图片

OpenAI 今天发布的最新更新!

OpenAI 今天发布的最新更新! 1、OpenAI增加了在Chat Completions API中调用函数的能力,这使得开发者可以自定义模型的行为。 2、发布了更新、更易控制的GPT-4和GPT-3.5 Turbo版本。 3、发布了新的16k上下文版本的GPT-3.5 Turbo,对比之前的4k的上下文,这使得模型可以处理更长的文本。 4、最先进的嵌入模型的成本降低了75%,GPT-3.5 Turbo的输入token的成本降低了25%,使得这些模型更经济实惠。 5、宣布了两个老版本模型的废弃时间表,意味着这两个模型在未来的某个时间点将不再提供服务。 6、重申了OpenAI的数据隐私和安全政策:用户拥有自己生成的所有数据,并且这些数据不会被用于模型训练。

封面图片

是开源中英双语对话模型 ChatGLM-6B 的第二代版本,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上,Ch

是开源中英双语对话模型 ChatGLM-6B 的第二代版本,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上,ChatGLM2-6B 引入了如下新特性: 更强大的性能:基于 ChatGLM 初代模型的开发经验,我们全面升级了 ChatGLM2-6B 的基座模型。ChatGLM2-6B 使用了 GLM 的混合目标函数,经过了 1.4T 中英标识符的预训练与人类偏好对齐训练,评测结果显示,相比于初代模型,ChatGLM2-6B 在 MMLU(+23%)、CEval(+33%)、GSM8K(+571%) 、BBH(+60%)等数据集上的性能取得了大幅度的提升,在同尺寸开源模型中具有较强的竞争力。 更长的上下文:基于 FlashAttention 技术,将基座模型的上下文长度(Context Length)由 ChatGLM-6B 的 2K 扩展到了 32K,并在对话阶段使用 8K 的上下文长度训练,允许更多轮次的对话。但当前版本的 ChatGLM2-6B 对单轮超长文档的理解能力有限,开发者会在后续迭代升级中着重进行优化。 更高效的推理:基于 Multi-Query Attention 技术,ChatGLM2-6B 有更高效的推理速度和更低的显存占用:在官方的模型实现下,推理速度相比初代提升了 42%,INT4 量化下,6G 显存支持的对话长度由 1K 提升到了 8K。 更开放的协议:ChatGLM2-6B 权重对学术研究完全开放,在获得官方的书面许可后,亦允许商业使用。

封面图片

OpenAI宣布GPT-4 Turbo with Vision向ChatGPT用户和API开发者开放

OpenAI宣布GPT-4 Turbo with Vision向ChatGPT用户和API开发者开放 不过 OpenAI 也宣布该版本面向部分使用 API 调用的开发者们开放,所以如果你已经有 OpenAI API 那么也可以通过 API 付费调用 Vision 版。GPT-4 Turbo with Visio 继承了 GPT-4 Turbo 的所有特性,包括支持 128K 上下文窗口和截止到 2023 年 12 月的知识数据,与 Turbo 相比,Vision 带来了视觉理解功能,可以用来理解图像和视觉内容。在推出 Visio 版之前开发者必须调用单独的文本和图像模型,而现在开发者调用一个模型即可处理内容,这可以大幅度简化开发者的内容处理流程,为开发者推出更多富有创意的用例打开了大门。OpenAI 开发者团队也分享了一些使用该模型的用例,例如 AI 软件工程师助理 Devin 使用 GPT-4 Turbo with Visio 更好地协助编写代码,Make Real 使用 GPT-4 Turbo with Visio 将用户绘制的图片转换为一个可在线访问和交互的网站。健康和健身应用 Healthift 使用带有 Vision 的 GPT-4 Turbo 来扫描用户膳食的照片,通过照片识别来提供营养见解。API 费率方面 GPT-4 Turbo with Visio 的价格要比普通版本更高一些,开发者们可以通过 OpenAI 开发者平台查询最新支持文档和费率以及 API 调用的一些限制。OpenAI 开发者支持文档: ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人