微软宣布带有视觉功能的GPT-4 Turbo可在Azure OpenAI服务上全面启用

微软宣布带有视觉功能的GPT-4 Turbo可在Azure OpenAI服务上全面启用 微软在一篇博文中表示,瑞典中部和美国东部2个 Azure OpenAI 区域的客户可以部署新的"gpt-4-turbo-2024-04-09"模型。这是一个多模态模型,能够处理文本和图像输入以生成文本输出。博客还补充道:我们的客户和合作伙伴一直在利用 GPT-4 Turbo with Vision 创建新流程、提高效率并创新业务。应用范围从改善在线购物体验的零售商,到丰富数字资产管理的媒体和娱乐公司,以及从图表中获得洞察力的各种组织。一些功能,如光学字符识别 (OCR)、对象接地、视频提示和"在您数据中使用图像",可在公开预览版模型中使用,但目前还不能在通用版中使用。微软表示,它正在"积极探索如何在未来的模型更新中最好地集成这些功能"。微软还补充说,"涉及图像(视觉)输入的推理请求的 JSON 模式和函数调用"将在不久的将来添加到 Azure OpenAI 服务客户的新模式中。该公司此前宣布,带有视觉功能的GPT-4 Turbo Azure OpenAI Service 客户的定价为输入每 1000 个词元 0.01 美元,输出每 1000 个词元 0.03 美元,增强功能的定价不同。微软最近宣布,它正在 Azure OpenAI 服务中测试一项新的"风险与安全监控"功能。该功能旨在让企业实时了解其人工智能系统的运行情况。它还能让企业了解黑客等人员是否试图滥用这些系统。了解更多: ... PC版: 手机版:

相关推荐

封面图片

几周前,OpenAI 在其首次开发者活动中发布了用于生成式人工智能服务的最新大型语言模型 GPT-4 Turbo。随后,微软宣布

几周前,OpenAI 在其首次开发者活动中发布了用于生成式人工智能服务的最新大型语言模型 GPT-4 Turbo。随后,微软宣布将把 GPT-4 Turbo 模型添加到其 Azure OpenAI 服务中。 今天,微软宣布增强其 Azure OpenAI 服务,GPT-4 Turbo with Vision 模型现已作为公开预览版提供给客户。 此外,微软还通过 GPT-4 Turbo with Vision 预览版为 Azure OpenAI 客户增加了更多功能。其中之一是光学字符识别(OCR),它可以检查图像并提取图像中的任何文本,以便将其整合到用户提示中。 GPT-4 Turbo with Vision 的另一项功能是对象接地,它可以让人工智能检查图像,并根据用户的文本提示显示图像中的关键对象。同样,人工智能还可以分析视频的特定帧。 标签: #OpenAI #微软 #Azure 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

微软宣布免费版Copilot已换成GPT-4 Turbo

微软宣布免费版Copilot已换成GPT-4 Turbo GPT-4 Turbo 版是 OPENAI 在 2023 年 11 月份推出的新模型,支持 128K 上下文,微软则是在 2023 年 12 月在 Microsoft Copilot 中添加了 GPT-4 Turbo 的支持。 不过这种新模型在微软这里也是要付费的,那就是需要开通 20 美元 / 月的 Copilot Pro 订阅后才能使用 GPT-4 Turbo。 现在,微软宣布所有用户都可以免费使用 GPT-4 Turbo,现在免费版 Copilot 也已经替换成 GPT-4 Turbo 模型,微软称这经过了相当多的工作。 目前 Copilot 提供 Copilot for Windows 版、网页版以及集成在 Microsoft Edge 浏览器中,对于受支持的国家或地区,用户可以通过任意一种方式免费使用 GPT-4 Turbo。来源 , 频道:@kejiqu 群组:@kejiquchat

封面图片

OpenAI最新GPT-4 Turbo模型让ChatGPT“更直接,更简洁”

OpenAI最新GPT-4 Turbo模型让ChatGPT“更直接,更简洁” OpenAI 声称,这个新模型("gpt-4-turbo-2024-04-09")在写作、数学、逻辑推理和编码方面都有所改进,而且知识库也更新了。与 ChatGPT 中的上一版 GPT-4 Turbo(截止日期为 2023 年 4 月)不同的是,它是根据截至 2023 年 12 月的公开数据进行训练的。OpenAI在X上的一篇文章中写道:"在使用ChatGPT(新版GPT-4 Turbo)写作时,回复会更直接、更少啰嗦,使用的对话语言也会更多。"在 ChatGPT 更新之前,OpenAI 于本周二发布了其 API 中的新模型,特别是 GPT-4 Turbo with Vision,它为通常只提供文本功能的 GPT-4 Turbo 增加了图像理解功能。《The Intercept》的报道显示,微软将 OpenAI 的 DALL-E 文本到图像模型作为战场工具推荐给了美国军方。此外,根据《The Information》的一篇报道,OpenAI最近解雇了两名研究人员,其中包括首席科学家伊利亚-苏茨克沃(Ilya Sutskever)的一名盟友,而苏茨克沃正是去年年底推动首席执行官萨姆-阿尔特曼下台的人之一。 ... PC版: 手机版:

封面图片

具有视觉功能的 GPT-4 Turbo 正式发布

具有视觉功能的 GPT-4 Turbo 正式发布 人工智能公司 OpenAI 宣布,具有视觉功能的 GPT-4 Turbo 模型 GPT-4 Turbo with Vision 现已通过其 API 向开发人员提供。该模型延续了 GPT-4 Turbo 系列 128,000 个 token 的窗口大小和截止至 2023 年 12 月的知识库并新增了视觉理解功能。视觉请求现在可以使用 JSON 模式和函数调用。

封面图片

【微软发布企业级 Azure OpenAI ChatGPT 服务,GPT-4 将于下周发布】

【微软发布企业级 Azure OpenAI ChatGPT 服务,GPT-4 将于下周发布】 微软发布基于MicrosoftAzure的企业级AzureOpenAIChatGPT服务,允许Azure用户可以使用AI模型(包括Dall-E2、GPT-3.5、Codex和其他由Azure特有的高性能和企业级云服务支撑的大语言模型)加速AI时代的数字化创新。此外,微软德国公司首席技术官安德烈亚斯·布劳恩(AndreasBraun)在AIinFocus-DigitalKickoff活动中投票,GPT-4将在下周发布,将提供多模态模型,会提供完全不同的可能性例如视频。

封面图片

OpenAI宣布GPT-4 Turbo with Vision向ChatGPT用户和API开发者开放

OpenAI宣布GPT-4 Turbo with Vision向ChatGPT用户和API开发者开放 不过 OpenAI 也宣布该版本面向部分使用 API 调用的开发者们开放,所以如果你已经有 OpenAI API 那么也可以通过 API 付费调用 Vision 版。GPT-4 Turbo with Visio 继承了 GPT-4 Turbo 的所有特性,包括支持 128K 上下文窗口和截止到 2023 年 12 月的知识数据,与 Turbo 相比,Vision 带来了视觉理解功能,可以用来理解图像和视觉内容。在推出 Visio 版之前开发者必须调用单独的文本和图像模型,而现在开发者调用一个模型即可处理内容,这可以大幅度简化开发者的内容处理流程,为开发者推出更多富有创意的用例打开了大门。OpenAI 开发者团队也分享了一些使用该模型的用例,例如 AI 软件工程师助理 Devin 使用 GPT-4 Turbo with Visio 更好地协助编写代码,Make Real 使用 GPT-4 Turbo with Visio 将用户绘制的图片转换为一个可在线访问和交互的网站。健康和健身应用 Healthift 使用带有 Vision 的 GPT-4 Turbo 来扫描用户膳食的照片,通过照片识别来提供营养见解。API 费率方面 GPT-4 Turbo with Visio 的价格要比普通版本更高一些,开发者们可以通过 OpenAI 开发者平台查询最新支持文档和费率以及 API 调用的一些限制。OpenAI 开发者支持文档: ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人