如果我们在 Minecraft 中解放 GPT-4 会怎样?

如果我们在Minecraft中解放GPT-4会怎样?我很高兴地宣布Voyager,这是第一个完全在上下文中玩Minecraft的终身学习代理。Voyager通过编写、提炼、提交和从技能库中检索*代码*不断改进自己。GPT-4解锁了一种新范式:“训练”是代码执行而不是梯度下降。“训练有素的模型”是Voyager迭代组合的技能代码库,而不是浮点数矩阵。我们正在将无梯度架构推向极限。https://vxtwitter.com/DrJimFan/status/1662115266933972993?s=20

相关推荐

封面图片

研究人员将ChatGPT加入到Minecraft中,探索其在游戏领域的潜力

研究人员将ChatGPT加入到Minecraft中,探索其在游戏领域的潜力支撑ChatGPT的技术有可能做得更多,而不仅仅是聊天。芯片制造商Nvidia公司的人工智能研究员Linxi"Jim"Fan与一些同事合作,设计了一种方法,将强大的语言模型ChatGPT和越来越多的其他应用程序和服务背后的"大脑"放进积木式视频游戏Minecraft中。包括该公司机器学习主管和加州理工学院教授阿尼玛-阿南德库马尔在内的Nvidia团队创建了一个名为Voyager的Minecraft机器人,该机器人使用GPT-4来解决游戏中的问题。该语言模型产生了帮助探索游戏的目标,以及随着时间推移提高机器人游戏技能的代码。Voyager并不像人一样玩游戏,但它可以通过API直接读取游戏的状态。例如,它可能会看到库存中的一根鱼竿和附近的一条河,并使用GPT-4来建议做一些钓鱼来获得经验的目标。然后,它将使用这个目标,让GPT-4生成所需的代码,让角色实现这个目标。该项目最新颖的部分是GPT-4生成的代码,用于向Voyager添加行为。如果最初建议的代码不能完美运行,Voyager会尝试使用错误信息、游戏的反馈以及GPT-4生成的代码描述来完善它。——

封面图片

OpenAI左脚踩右脚登天 让GPT-4帮人类训练GPT-4

OpenAI左脚踩右脚登天让GPT-4帮人类训练GPT-4OpenAI公布,其研究人员训练了一个基于GPT-4的模型,它被称为CriticGPT,用于捕捉ChatGPT代码输出中的错误。简单来说就是,CriticGPT让人能用GPT-4查找GPT-4的错误OpenAI称,如果通过CriticGPT获得帮助审查ChatGPT编写的代码,人类训练者的审查效果比没有获得这种帮助的人强60%;在CriticGPT帮助下,他们得出的批评结论比自己单独做的更全面。群友:狗溜狗关注频道@ZaiHuaPd频道爆料@ZaiHuabot

封面图片

GPT-4 有 1.8 万亿参数

GPT-4有1.8万亿参数OpenAI今年初公布的新一代大模型GPT-4的技术细节泄露,它有1.8万亿个参数,利用了16个混合专家模型(mixtureofexperts),每个有1110亿个参数,每次前向传递路由经过两个专家模型。它有550亿个共享注意力参数,使用了包含13万亿tokens的数据集训练,tokens不是唯一的,根据迭代次数计算为更多的tokens。GPT-4预训练阶段的上下文长度为8k,32k版本是对8k微调的结果。如果是在云端进行训练,以每A100小时1美元计算,那么一次的训练成本就高达6300万美元。不过今天的训练成本能降至2150万美元。来源,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

OpenAI通过更新解决了GPT-4的“懒惰”问题

在一篇中,OpenAI表示,更新后的GPT-4Turbo“在执行代码生成等任务时比之前的预览模型更加彻底,旨在减少模型未能完成任务的‘懒惰’情况。”不过,公司没有解释它更新了什么。最近,一些ChatGPT的用户抱怨这个聊天机器人经常拒绝完成给定的任务,并将问题归咎于GPT-4没有得到更新。然而,OpenAI的更新是针对GPT-4Turbo的,这是一个更广泛使用的GPT-4版本,它接受的训练资料是截至2023年4月的最新信息,目前只提供预览版。那些使用GPT-4的用户,这个版本的学习数据只到2021年9月之前的,可能仍然会遇到同样的“懒惰”问题。OpenAI在帖子中说,通过它们的API使用GPT-4的用户中,有超过70%的人转向使用了GPT-4Turbo,因为它拥有更加更新的知识库。标签:#OpenAI#ChatGPT频道:@GodlyNews1投稿:@GodlyNewsBot

封面图片

LLaV:一个拥有类似 GPT-4 的大语言+视觉模型

LLaV:一个拥有类似GPT-4的大语言+视觉模型“使用机器生成的指令跟踪数据对大型语言模型(LLM)进行指令调优提高了新任务的零样本能力,但这一想法在多模式领域的探索较少。所以,我们开始尝试使用纯语言GPT-4生成多模态语言图像指令跟踪数据。通过对此类生成的数据进行指令调整,并推出了LLaVA:大型语言和视觉助手。这是一种端到端训练的大型多模态模型,连接视觉编码器和LLM以实现通用视觉和语言理解。早期实验表明,LLaVA展示了令人印象深刻的多模型聊天能力,有时在看不见的图像/指令上表现出多模态GPT-4的行为,并且与合成多模态指令跟随数据集上的GPT-4相比,相对分数达到了85.1%。当在ScienceQA上进行微调时,LLaVA和GPT-4的协同作用达到了92.53%,这个准确率颇高。因此,我们在GitHub正式开放GPT-4生成的视觉指令调整数据、模型和代码库。”

封面图片

OpenAI 公司在中国申请注册 GPT-4 商标

OpenAI公司在中国申请注册GPT-4商标欧爱运营有限责任公司(OPENAIOPCO,LLC)近期申请注册了“GPT-4”商标,国际分类为科学仪器,当前商标状态为申请中。此前,该公司还申请注册了一枚国际分类为网站服务的“WHISPER”商标(IT之家注:Whisper为OpenAI此前发布的神经网络,声称其在英语语音识别方面已接近人类水平)。不久前,OpenAI发布了多模态预训练大模型GPT-4,与ChatGPT所用的模型相比,GPT-4不仅能够处理图像内容,且回复的准确性有所提高。目前,GPT-4仅向ChatGPTPlus的付费订阅用户及企业和开发者开放。GPT-4实现了以下几个方面的飞跃式提升:更聪明,做题水平越来越好;支持图像输入,拥有强大的识图能力,但目前只限内部测试;更长的上下文,文字输入限制提升至2.5万字;回答准确性显著提高;更安全,有害信息更少。——

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人