第一财经 - 直播区<b>快讯 |</b> OpenAI公布(对ChatGPT的)更新内容,包括更多可控制的API模型、功能调用

第一财经 - 直播区 <b>快讯 |</b> OpenAI公布(对ChatGPT的)更新内容,包括更多可控制的API模型、功能调用能力、更长的上下文和更低的价格。此外,嵌入模型成本降低了75%。<br />| #财经 #新闻 #资讯

相关推荐

封面图片

OpenAI 发布更新,函数调用和其他 API 更新

OpenAI 发布更新,函数调用和其他 API 更新 我们宣布了一些更新,包括更多可调控的 API 模型、函数调用能力、更长的上下文和更低的价格。 今天,我们有一些令人兴奋的更新: 1.在Chat Completions API中添加了新的函数调用功能。 2.更新了gpt-4和gpt-3.5-turbo的更多可控版本。 3.推出了gpt-3.5-turbo的新版本,具有16k的上下文长度(标准版本为4k)。 4.我们的最先进的嵌入模型成本降低了75%。 5.对于gpt-3.5-turbo的输入令牌,降低了25%的成本。 6.宣布了gpt-3.5-turbo-0301和gpt-4-0314模型的停用时间表。 更低的价格 Embeddings Text-embedding-ada-002 现在每 1,000 个代币的价格为 0.0001 美元,比之前的价格降低了 75%。 GPT-3.5 Turbo gpt-3.5-turbo是我们最受欢迎的聊天模型,为数百万用户提供 ChatGPT 支持。今天,我们将 gpt-3.5-turbo 的输入代币成本降低了25%。开发人员现在可以以每 1K 输入令牌 0.0015 美元和每 1K 输出令牌 0.002 美元的价格使用该模型,这相当于每美元大约 700 页。 gpt-3.5-turbo-16k定价为每1,000 输入代币 0.003 美元,每1,000 输出代币 0.004 美元。 来源:

封面图片

OpenAI新GPT-4 Turbo模型已可使用 四项能力提升

OpenAI新GPT-4 Turbo模型已可使用 四项能力提升 不过更强大的能力同时也意味着更长的响应时间与更高的成本,对于预算有限的项目来说,这也是一个重要的考虑因素。据悉,OpenAI在4月10日正式发布了GPT-4 Turbo,用户可以根据需求构建自己的GPT。GPT-4 Turbo和GPT-4的主要区别在于几个方面:上下文窗口:GPT-4 Turbo拥有更大的上下文窗口,可以处理高达128K个token,而GPT-4的上下文窗口较小。模型大小:GPT-4 Turbo的模型大小为100B参数,这意味着它可以处理更多信息,生成更复杂和细腻的输出,而GPT-4的模型大小为10B参数。知识截止日期:GPT-4 Turbo的训练数据包含到2023年4月的信息,而GPT-4的数据截止于2021年9月,后来扩展到2022年1月。成本:对于开发者来说,GPT-4 Turbo的使用成本更低,因为它的运行成本对OpenAI来说更低。功能集:GPT-4 Turbo提供了一些新功能,如JSON模式、可复现输出、并行函数调用等。总的来说,GPT-4 Turbo的更新更重要的是完善了功能,增加了速度,准确性是否提高仍然存疑。这或许与整个大模型业界目前的潮流一致:重视优化,面向应用。而有可能再次颠覆AI领域的GPT-5,预计将在夏季推出。 ... PC版: 手机版:

封面图片

OpenAI 今天发布的最新更新!

OpenAI 今天发布的最新更新! 1、OpenAI增加了在Chat Completions API中调用函数的能力,这使得开发者可以自定义模型的行为。 2、发布了更新、更易控制的GPT-4和GPT-3.5 Turbo版本。 3、发布了新的16k上下文版本的GPT-3.5 Turbo,对比之前的4k的上下文,这使得模型可以处理更长的文本。 4、最先进的嵌入模型的成本降低了75%,GPT-3.5 Turbo的输入token的成本降低了25%,使得这些模型更经济实惠。 5、宣布了两个老版本模型的废弃时间表,意味着这两个模型在未来的某个时间点将不再提供服务。 6、重申了OpenAI的数据隐私和安全政策:用户拥有自己生成的所有数据,并且这些数据不会被用于模型训练。

封面图片

第一财经 - 直播区<b>明日A股机会早知道 |</b> ①“讯飞星火认知大模型”V1.5即将发布 大模型发展全面加速<br /

第一财经 - 直播区 <b>明日A股机会早知道 |</b> ①“讯飞星火认知大模型”V1.5即将发布 大模型发展全面加速<br /><br />科大讯飞公告,将在6月9日如期发布“讯飞星火认知大模型”的...| #财经 #新闻 #资讯

封面图片

OpenAI宣布GPT-4 Turbo with Vision向ChatGPT用户和API开发者开放

OpenAI宣布GPT-4 Turbo with Vision向ChatGPT用户和API开发者开放 不过 OpenAI 也宣布该版本面向部分使用 API 调用的开发者们开放,所以如果你已经有 OpenAI API 那么也可以通过 API 付费调用 Vision 版。GPT-4 Turbo with Visio 继承了 GPT-4 Turbo 的所有特性,包括支持 128K 上下文窗口和截止到 2023 年 12 月的知识数据,与 Turbo 相比,Vision 带来了视觉理解功能,可以用来理解图像和视觉内容。在推出 Visio 版之前开发者必须调用单独的文本和图像模型,而现在开发者调用一个模型即可处理内容,这可以大幅度简化开发者的内容处理流程,为开发者推出更多富有创意的用例打开了大门。OpenAI 开发者团队也分享了一些使用该模型的用例,例如 AI 软件工程师助理 Devin 使用 GPT-4 Turbo with Visio 更好地协助编写代码,Make Real 使用 GPT-4 Turbo with Visio 将用户绘制的图片转换为一个可在线访问和交互的网站。健康和健身应用 Healthift 使用带有 Vision 的 GPT-4 Turbo 来扫描用户膳食的照片,通过照片识别来提供营养见解。API 费率方面 GPT-4 Turbo with Visio 的价格要比普通版本更高一些,开发者们可以通过 OpenAI 开发者平台查询最新支持文档和费率以及 API 调用的一些限制。OpenAI 开发者支持文档: ... PC版: 手机版:

封面图片

Mistral 宣布最新开放大模型 Mixtral 8x22B

Mistral 宣布最新开放大模型 Mixtral 8x22B 法国 AI 创业公司 Mistral 宣布了其最新的开放大模型 ,公布的测试显示它是目前最先进的开放模型。Mistral 称 8x22B 是真正开放的模型,使用 Apache 2.0 许可证,允许任何人不受限制的使用。它是一种稀疏 Mixture-of-Experts (SMoE)模型,有 1410 亿参数,但活跃参数仅为 390 亿,在其规模下提供了无与伦比的成本效率。Mixtral 8x22B 的优点包括:精通英语、法语、意大利语、德语和西班牙语,具有强大的数学和编码能力,原生能函数调用,64K 令牌上下文窗口。来源 , 频道:@kejiqu 群组:@kejiquchat

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人