微软 Azure OpenAI 服务现已支持 GPT-4 Turbo with Vision

None

相关推荐

封面图片

微软宣布带有视觉功能的GPT-4 Turbo可在Azure OpenAI服务上全面启用

微软宣布带有视觉功能的GPT-4 Turbo可在Azure OpenAI服务上全面启用 微软在一篇博文中表示,瑞典中部和美国东部2个 Azure OpenAI 区域的客户可以部署新的"gpt-4-turbo-2024-04-09"模型。这是一个多模态模型,能够处理文本和图像输入以生成文本输出。博客还补充道:我们的客户和合作伙伴一直在利用 GPT-4 Turbo with Vision 创建新流程、提高效率并创新业务。应用范围从改善在线购物体验的零售商,到丰富数字资产管理的媒体和娱乐公司,以及从图表中获得洞察力的各种组织。一些功能,如光学字符识别 (OCR)、对象接地、视频提示和"在您数据中使用图像",可在公开预览版模型中使用,但目前还不能在通用版中使用。微软表示,它正在"积极探索如何在未来的模型更新中最好地集成这些功能"。微软还补充说,"涉及图像(视觉)输入的推理请求的 JSON 模式和函数调用"将在不久的将来添加到 Azure OpenAI 服务客户的新模式中。该公司此前宣布,带有视觉功能的GPT-4 Turbo Azure OpenAI Service 客户的定价为输入每 1000 个词元 0.01 美元,输出每 1000 个词元 0.03 美元,增强功能的定价不同。微软最近宣布,它正在 Azure OpenAI 服务中测试一项新的"风险与安全监控"功能。该功能旨在让企业实时了解其人工智能系统的运行情况。它还能让企业了解黑客等人员是否试图滥用这些系统。了解更多: ... PC版: 手机版:

封面图片

【微软发布企业级 Azure OpenAI ChatGPT 服务,GPT-4 将于下周发布】

【微软发布企业级 Azure OpenAI ChatGPT 服务,GPT-4 将于下周发布】 微软发布基于MicrosoftAzure的企业级AzureOpenAIChatGPT服务,允许Azure用户可以使用AI模型(包括Dall-E2、GPT-3.5、Codex和其他由Azure特有的高性能和企业级云服务支撑的大语言模型)加速AI时代的数字化创新。此外,微软德国公司首席技术官安德烈亚斯·布劳恩(AndreasBraun)在AIinFocus-DigitalKickoff活动中投票,GPT-4将在下周发布,将提供多模态模型,会提供完全不同的可能性例如视频。

封面图片

OpenAI:新版GPT-4 Turbo现已向ChatGPT付费用户开放

封面图片

OpenAI宣布GPT-4 Turbo with Vision向ChatGPT用户和API开发者开放

OpenAI宣布GPT-4 Turbo with Vision向ChatGPT用户和API开发者开放 不过 OpenAI 也宣布该版本面向部分使用 API 调用的开发者们开放,所以如果你已经有 OpenAI API 那么也可以通过 API 付费调用 Vision 版。GPT-4 Turbo with Visio 继承了 GPT-4 Turbo 的所有特性,包括支持 128K 上下文窗口和截止到 2023 年 12 月的知识数据,与 Turbo 相比,Vision 带来了视觉理解功能,可以用来理解图像和视觉内容。在推出 Visio 版之前开发者必须调用单独的文本和图像模型,而现在开发者调用一个模型即可处理内容,这可以大幅度简化开发者的内容处理流程,为开发者推出更多富有创意的用例打开了大门。OpenAI 开发者团队也分享了一些使用该模型的用例,例如 AI 软件工程师助理 Devin 使用 GPT-4 Turbo with Visio 更好地协助编写代码,Make Real 使用 GPT-4 Turbo with Visio 将用户绘制的图片转换为一个可在线访问和交互的网站。健康和健身应用 Healthift 使用带有 Vision 的 GPT-4 Turbo 来扫描用户膳食的照片,通过照片识别来提供营养见解。API 费率方面 GPT-4 Turbo with Visio 的价格要比普通版本更高一些,开发者们可以通过 OpenAI 开发者平台查询最新支持文档和费率以及 API 调用的一些限制。OpenAI 开发者支持文档: ... PC版: 手机版:

封面图片

OpenAI宣布GPT-3.5 Turbo降价 还治好了GPT-4 Turbo的"懒病"

OpenAI宣布GPT-3.5 Turbo降价 还治好了GPT-4 Turbo的"懒病" OpenAI这次更新中,特别提到了它们的GPT-4Turbo和GPT-3.5 Turbo两大模型。它们都是大型多模式模型,可以理解和生成自然语言或代码。在新版本中,它们迎来了诸多增强功能,包括更精准的指令跟随、支持JSON模式、更多可复现的输出,以及并行函数调用的优化。此外,该公司还推出了全新的16k版本GPT-3.5 Turbo,这一版本在处理超长输入和输出时,相比标准的4k版本展现出了更为出色的性能。对于众多用户而言,GPT-3.5 Turbo并不陌生。作为大多数人通过ChatGPT进行互动的背后支持模型,它几乎已经成为了行业内的金标准。面对其他聊天机器人,如果用户发现其回答质量不及ChatGPT,那么继续使用后者无疑成为了最佳选择。在API领域,GPT-3.5 Turbo同样表现不俗。在执行各类任务时,它不仅能够提供比GPT-4更低的成本,还能保证更快的执行速度。因此,对于那些付费用户来说,此次输入价格下调50%、输出价格下调25%无疑是一大利好。具体来说,新的输入价格定格在每千个代币0.0005美元,而输出价格则为每千个代币0.0015美元。在处理文本密集型应用(如整篇论文或书籍的分析)时,这些代币的累积费用往往相当可观。而且随着开源大模型开始发力,OpenAI需要确保其客户不会离开。因此,这一价格调整无疑将为用户带来真正的实惠。当然,这也是模型精简和基础设施改进的结果。在GPT-3.5 Turbo上,OpenAI还悄然推出了代号为GPT-3.5 Turbo 0125的新模型版本。虽然该公司并未大肆宣扬,但这一版本显然包含了一系列“各种改进”。不过,相较于最新版本GPT-3.5 Turbo 0613,这一更新似乎并未带来公司认为值得特别提及的重大突破。在GPT-4 Turbo上,OpenAI同样有所动作。一个新的API使用预览模型GPT-4 Turbo 0125应运而生。这个模型成功解决了GPT-4 Turbo过去存在的一个老问题,即模型在面对某些任务时可能出现的“懒惰”情况。此外,GPT-4 Turbo 0125在代码生成等任务方面的表现也较之前的预览模型有了显著提升。目前,GPT-4 Turbo 0125仍处于预览模式阶段。不过,具有视觉效果的GPT-4 Turbo(即GPT-4 V)有望在“未来几个月内”与广大用户正式见面。在嵌入模型方面,OpenAI同样带来了令人振奋的消息。该公司推出了全新的text-embeddings-3-small和text-embeddings-3-large模型,它们相较于上一代的text-embeddings-ada-002展现出了更为强大的性能和更为亲民的价格。这些新模型能够创建多达3072维度的嵌入空间,从而捕获更多的语义信息并提高下游任务的准确性。在性能测试中,新模型将多语言检索(MIRACL)常用基准的平均分数从31.4%提升至54.9%,而在英语任务(MTEB)常用基准上的平均分数也从61.0%提升至64.6%。更值得一提的是,与text-embeddings-ada-002相比,text-embeddings-3-small的价格降到1/5,这无疑为开发人员带来了更为经济实惠的选择。此外,OpenAI还发布了一个全新版本的免费文本审核API。这一API能够检测文本是否包含敏感或不安全的内容,并且新版本还扩展了支持的语言和领域范围,同时为其预测提供了更为详尽的解释。 ... PC版: 手机版:

封面图片

新版 GPT-4 Turbo 现已向付费 ChatGPT 用户开放

新版 GPT-4 Turbo 现已向付费 ChatGPT 用户开放 人工智能公司 OpenAI 今日 (12日) 宣布,新版 GPT-4 Turbo 现已向付费 ChatGPT 用户开放。新版本提高了写作、数学、逻辑推理和编码方面的能力。OpenAI 表示,例如“当使用 ChatGPT 进行写作时,回复将更加直接、不那么冗长,并且使用更多的对话语言。”承诺“将继续投入精力来改进模型”。GPT-4 Turbo 可在 ChatGPT Plus、Team、Enterprise 和 API 中使用。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人