GPT-4 来了!OpenAI 还给出个 6个使用 GPT-4 的案例(翻译由ChatGPT完成,我有微弱修订),分别是:

GPT-4 来了! OpenAI 还给出个 6个使用 GPT-4 的案例(翻译由ChatGPT完成,我有微弱修订),分别是: 1、Duolingo | GPT-4改进了Duolingo上的对话 2、Be My Eyes | 使用GPT-4来改善视觉辅助功能 3、Stripe | 利用GPT-4来简化用户体验并打击欺诈 4、摩根士丹利 | 财富管理部署GPT-4来组织其庞大的知识库 5、可汗学院 | 将GPT-4集成为每个学生的定制导师 6、冰岛政府 | 利用GPT-4来保护其语言 申请使用 产品页面

相关推荐

封面图片

GPT-4相关能力的总结:

GPT-4相关能力的总结: - 支持多模态输入:GPT-4的API可以接受图像,并生成相应的字幕,并对图像进行分析。 - 在BAR考试中取得优异成绩:GPT-4取得了BAR 90分(满分一百),同时在生物奥林匹克竞赛的视觉题方面获得了99分,其推理能力远超ChatGPT。 - 超大上下文:GPT-4支持25,000个单词的上下文,可以使得完整的文档适合于一个提示符内。 - 更具创造性和协作性:与用户协作生成、编辑和迭代写作任务,具有更高的创造性和协作性。 - 多个合作伙伴正在测试GPT-4:Duolingo、Be My Eyes、Stripe、摩根士丹利、可汗学院等,甚至包括冰岛政府。 相关链接:

封面图片

OpenAI最新GPT-4 Turbo模型让ChatGPT“更直接,更简洁”

OpenAI最新GPT-4 Turbo模型让ChatGPT“更直接,更简洁” OpenAI 声称,这个新模型("gpt-4-turbo-2024-04-09")在写作、数学、逻辑推理和编码方面都有所改进,而且知识库也更新了。与 ChatGPT 中的上一版 GPT-4 Turbo(截止日期为 2023 年 4 月)不同的是,它是根据截至 2023 年 12 月的公开数据进行训练的。OpenAI在X上的一篇文章中写道:"在使用ChatGPT(新版GPT-4 Turbo)写作时,回复会更直接、更少啰嗦,使用的对话语言也会更多。"在 ChatGPT 更新之前,OpenAI 于本周二发布了其 API 中的新模型,特别是 GPT-4 Turbo with Vision,它为通常只提供文本功能的 GPT-4 Turbo 增加了图像理解功能。《The Intercept》的报道显示,微软将 OpenAI 的 DALL-E 文本到图像模型作为战场工具推荐给了美国军方。此外,根据《The Information》的一篇报道,OpenAI最近解雇了两名研究人员,其中包括首席科学家伊利亚-苏茨克沃(Ilya Sutskever)的一名盟友,而苏茨克沃正是去年年底推动首席执行官萨姆-阿尔特曼下台的人之一。 ... PC版: 手机版:

封面图片

OpenAI 将放出更多 GPT-4 API 测试邀请

OpenAI 将放出更多 GPT-4 API 测试邀请 OpenAI表示:我们将在接下来的几周邀请更多等待名单上的人来尝试GPT-4,并打算完全移除等待名单。感谢所有耐心等待的人,我们很期待看到您使用GPT-4构建的内容!

封面图片

OpenAI通过新更新治愈了GPT-4的"变懒"问题

OpenAI通过新更新治愈了GPT-4的"变懒"问题 最近,一些 ChatGPT 用户抱怨聊天机器人经常拒绝完成提示任务,并将原因归咎于 GPT-4 缺乏更新。不过,OpenAI 这次更新的是GPT-4 Turbo,它是更广泛使用的 GPT-4 的一个版本,是根据 2023 年 4 月的信息训练的,目前只有预览版。使用 GPT-4 的用户可能仍然会遇到同样的问题,因为 GPT-4 是根据 2021 年 9 月之前的数据进行学习的。OpenAI 在帖子中表示,在通过其 API 使用 GPT-4 的用户中,有超过 70% 的人已经转用 GPT-4 Turbo,因为它的知识库更新更快。该公司表示,GPT-4 Turbo 将在未来几个月内进行更多更新,包括全面推出带视觉功能的 GPT-4 Turbo。这将使用户能够进行更多的多模态提示,如文本到图像的生成。OpenAI 还推出了名为嵌入(embeddings)的小型人工智能模型。OpenAI 将 Embeddings 定义为"代表自然语言或代码等内容中概念的数字序列"。这可以帮助使用检索增强生成(一种从数据库中获取信息而不是生成答案的人工智能)的应用程序找出所访问的不同内容之间的关系。这些新型号(text-embedding-3-small 和功能更强大的 text-embedding-3-large)现已推出。 ... PC版: 手机版:

封面图片

OpenAI宣布GPT-4 Turbo with Vision向ChatGPT用户和API开发者开放

OpenAI宣布GPT-4 Turbo with Vision向ChatGPT用户和API开发者开放 不过 OpenAI 也宣布该版本面向部分使用 API 调用的开发者们开放,所以如果你已经有 OpenAI API 那么也可以通过 API 付费调用 Vision 版。GPT-4 Turbo with Visio 继承了 GPT-4 Turbo 的所有特性,包括支持 128K 上下文窗口和截止到 2023 年 12 月的知识数据,与 Turbo 相比,Vision 带来了视觉理解功能,可以用来理解图像和视觉内容。在推出 Visio 版之前开发者必须调用单独的文本和图像模型,而现在开发者调用一个模型即可处理内容,这可以大幅度简化开发者的内容处理流程,为开发者推出更多富有创意的用例打开了大门。OpenAI 开发者团队也分享了一些使用该模型的用例,例如 AI 软件工程师助理 Devin 使用 GPT-4 Turbo with Visio 更好地协助编写代码,Make Real 使用 GPT-4 Turbo with Visio 将用户绘制的图片转换为一个可在线访问和交互的网站。健康和健身应用 Healthift 使用带有 Vision 的 GPT-4 Turbo 来扫描用户膳食的照片,通过照片识别来提供营养见解。API 费率方面 GPT-4 Turbo with Visio 的价格要比普通版本更高一些,开发者们可以通过 OpenAI 开发者平台查询最新支持文档和费率以及 API 调用的一些限制。OpenAI 开发者支持文档: ... PC版: 手机版:

封面图片

具有视觉功能的 GPT-4 Turbo 正式发布

具有视觉功能的 GPT-4 Turbo 正式发布 人工智能公司 OpenAI 宣布,具有视觉功能的 GPT-4 Turbo 模型 GPT-4 Turbo with Vision 现已通过其 API 向开发人员提供。该模型延续了 GPT-4 Turbo 系列 128,000 个 token 的窗口大小和截止至 2023 年 12 月的知识库并新增了视觉理解功能。视觉请求现在可以使用 JSON 模式和函数调用。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人