沉迷 GPT-4 Code Interpreter。下图顺序展现了我使用 GPT-4 绘制图表的一个案例。

沉迷 GPT-4 Code Interpreter。下图顺序展现了我使用 GPT-4 绘制图表的一个案例。 目标:上传包含美国 SaaS 上市公司财务数据的 Raw Data Excel 文件(未清洗),绘制年营收图表,并按照我的诉求美化、调整图表类型。 1. 自带类似 Agent 的自省能力。 2. 能听懂我的自然语义描述,并调用 Python 的语句来完成我的需求,体验太好。 3. 其他工具通过 Prompt 接入,元数据描述 Prompt 的路线可执行。 4. 一点点看 GPT-4 拆解可以学到东西。做编程教练有潜力。 5. 利好产品(核心能力:洞察需求)和 creator economy 利益相关者。 #ChatGPT

相关推荐

封面图片

用 GPT-4 Code Interpreter 处理聚类后的数据

用 GPT-4 Code Interpreter 处理聚类后的数据 Midjourney 创作最受欢迎的 7 个大类方向是…… 以及每个类别的 TOP 50 Prompt 是…… Btw,我发现 Threads 有个好处是 -> 减轻了创作负担,每次只需要写一个小节 -> 没空了也没关系,能写一个小卡片算一个 等整个线程写完了再发就行 我的 Threads 原链接:

封面图片

GPT-4 来了!OpenAI 还给出个 6个使用 GPT-4 的案例(翻译由ChatGPT完成,我有微弱修订),分别是:

GPT-4 来了! OpenAI 还给出个 6个使用 GPT-4 的案例(翻译由ChatGPT完成,我有微弱修订),分别是: 1、Duolingo | GPT-4改进了Duolingo上的对话 2、Be My Eyes | 使用GPT-4来改善视觉辅助功能 3、Stripe | 利用GPT-4来简化用户体验并打击欺诈 4、摩根士丹利 | 财富管理部署GPT-4来组织其庞大的知识库 5、可汗学院 | 将GPT-4集成为每个学生的定制导师 6、冰岛政府 | 利用GPT-4来保护其语言 申请使用 产品页面

封面图片

OpenAI 发布新一代大型多模态模型 GPT-4

OpenAI 发布新一代大型多模态模型 GPT-4 GPT-4 是一个大型多模态模型,可以接受文本和图像输入。GPT-4 在各种专业学术基准上有着人类水平表现,例如模拟律师考试中,GPT-4 的得分约为前10%,而 GPT-3.5 的得分约为倒数10%。 在多语言测试中,GPT-4 优于 GPT-3.5 和 Chinchilla (来自DeepMind) 还有 PaLM (来自谷歌) ,包括英语性能还有拉脱维亚语、威尔士语和斯瓦希里语等低资源语言。 OpenAI 还开放了角色扮演和性格定制能力,开发人员和用户可以自定义他们的AI风格,而不是具有固定冗长、语气和风格的经典 ChatGPT 个性。 ChatGPT Plus 订阅用户现可直接 GPT-4 ,未来将对免费用户开放一定数量的 GPT-4 体验。GPT-4 API 需要候选名单,每1k prompt tokens 的价格为$0.03,每1k completion tokens 的价格为$0.06。目前图像输入处在研究预览阶段,仅对少部分客户开放。 微软在 GPT-4 发布后也正式 Bing Chat 基于 GPT-4 运行,同时 Bing Chat 的 Edge 边栏功能上线。与数据停留在2021年9月的 GPT-4 离线版本不同,Bing Chat 可联网获取实时信息并且免费。

封面图片

LLaV:一个拥有类似 GPT-4 的大语言+视觉模型

LLaV:一个拥有类似 GPT-4 的大语言+视觉模型 “使用机器生成的指令跟踪数据对大型语言模型 (LLM) 进行指令调优提高了新任务的零样本能力,但这一想法在多模式领域的探索较少。 所以,我们开始尝试使用纯语言 GPT-4 生成多模态语言图像指令跟踪数据。通过对此类生成的数据进行指令调整,并推出了 LLaVA:大型语言和视觉助手。 这是一种端到端训练的大型多模态模型,连接视觉编码器和 LLM 以实现通用视觉和语言理解。 早期实验表明,LLaVA 展示了令人印象深刻的多模型聊天能力,有时在看不见的图像 / 指令上表现出多模态 GPT-4 的行为,并且与合成多模态指令跟随数据集上的 GPT-4 相比,相对分数达到了 85.1%。 当在 Science QA 上进行微调时,LLaVA 和 GPT-4 的协同作用达到了 92.53%,这个准确率颇高。 因此,我们在 GitHub 正式开放 GPT-4 生成的视觉指令调整数据、模型和代码库。” |||||

封面图片

今日重磅: Open AI 正式推出 GPT-4!

今日重磅: Open AI 正式推出 GPT-4! 在演示视频中,GPT-4 可以实现: - 问它如何清洁装满食人鱼的鱼缸里面?( 回答惊喜连连~) - 自动编写一个python脚本来分析我的月度财务情况(支持主流编程语言) - 分析、理解图片,并「预测」可能性(这里的预测太酷了: 杠杆那头的棒球会被击飞) 综合来说: GPT-4 是多模态。直接读取图片和文档等应用场景。 (多模态意味着机器拥有了更多维度的输入数据处理能力,类似生物有了多感官能力。) GPT-4的高级推理能力超过了ChatGPT。 上下文理解巨幅提升。 GPT-4能够处理超过25,000字的文本,允许使用案例,如长形式的内容创建,扩展的对话,以及文件搜索和分析。 中文准确度大幅提升。 更多请访问Open AI官网: Invalid media:

封面图片

OpenAI新GPT-4 Turbo模型已可使用 四项能力提升

OpenAI新GPT-4 Turbo模型已可使用 四项能力提升 不过更强大的能力同时也意味着更长的响应时间与更高的成本,对于预算有限的项目来说,这也是一个重要的考虑因素。据悉,OpenAI在4月10日正式发布了GPT-4 Turbo,用户可以根据需求构建自己的GPT。GPT-4 Turbo和GPT-4的主要区别在于几个方面:上下文窗口:GPT-4 Turbo拥有更大的上下文窗口,可以处理高达128K个token,而GPT-4的上下文窗口较小。模型大小:GPT-4 Turbo的模型大小为100B参数,这意味着它可以处理更多信息,生成更复杂和细腻的输出,而GPT-4的模型大小为10B参数。知识截止日期:GPT-4 Turbo的训练数据包含到2023年4月的信息,而GPT-4的数据截止于2021年9月,后来扩展到2022年1月。成本:对于开发者来说,GPT-4 Turbo的使用成本更低,因为它的运行成本对OpenAI来说更低。功能集:GPT-4 Turbo提供了一些新功能,如JSON模式、可复现输出、并行函数调用等。总的来说,GPT-4 Turbo的更新更重要的是完善了功能,增加了速度,准确性是否提高仍然存疑。这或许与整个大模型业界目前的潮流一致:重视优化,面向应用。而有可能再次颠覆AI领域的GPT-5,预计将在夏季推出。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人