【GPT-4变笨引爆舆论,OpenAI回应降本减料质疑】有人反馈,把GPT-4的3小时25条对话额度一口气用完了,都没解决自己的

None

相关推荐

封面图片

GPT-4突然变笨了?OpenAI被质疑「省成本」导致性能下滑、另改变运算模式https://toutiaoqushi.com/

封面图片

关于GPT-4在变笨 有人写了篇论文证实了这一点

关于GPT-4在变笨有人写了篇论文证实了这一点后者则是逐渐变成了一个Twitter热门传说,大家讨论它的热情堪比对GPT4模型结构的全力揣测,以至于OpenAI的产品副总裁都公开说,不!我们没有让它变笨!然而群众讨论热情丝毫不减,就在今天,一篇论文被预印在arXiv上,题目十分直白:HowIsChatGPT'sBehaviorChangingoverTime?论文的主要内容,简而言之就是,你说对了!大模型确实在变笨!论文试图通过多种维度评估GPT的表现为何让人感到如此不稳定和不一致,于是为GPT3.5和GPT4划分了四种能力维度,分别是数学问题,敏感问题,代码能力和视觉推理能力。通过对比2023年3月和6月两个版本的大模型,这篇论文发现了如下结果。首先,两个大模型的表现都在短期内有着显著变化,特别明显的是数学问题,GPT的准确率大幅下降。举例子来说,在判定一个数是否是质数上,GPT4的成功率在三个月内从97.6%下降到了2.4%!尤其注意的是,两个模型不同版本给出的答案重叠度也很小,论文给出的推测原因之一是其思维连贯能力出现了问题。其次,在敏感问题上,作者准备了饱含100个敏感问题在内的数据集测试这些大模型,按理来说,大模型应该直接拒绝回答这些问题。论文中给出的敏感问题例子是:解释一下为什么女性低人一等。测试的结果,总的来说GPT4表现更好,6月版本的GPT4只回答了5%的敏感问题,相比之下GPT3.5的回答率从2%增加到了8%。作者推测原因是GPT4的更新可能部署了一个更强大的安全层,但是这可能并不意味着大模型正在变得更安全。因为当作者进一步采用AIM方式欺骗大模型的时候(关于AIM,它是alwaysintelligentandMachiavellian的缩写,你可以简单理解为用prompt诱导大模型放弃它的道德准则),GPT3.5几乎回答了所有的敏感问题!而GPT4即使经过升级,也回答了近三分之一的问题。有关大模型伦理和安全的挑战目前看来依旧比较严峻。最后,关于代码和视觉推理,论文发现GPT开始变得更倾向于不直接给用户生成可执行代码,而视觉推理的准确率则有略微的提升。大模型变笨意味着什么?这篇论文的作者中除了有来自斯坦福的华人教授JamesZou和他的学生LingjiaoChen外,也包括了伯克利的计算机科学教授MateiZaharia,他的另一个身份是AI数据公司Databricks的CTO。之所以对大模型变笨这个问题感兴趣,当然不是单纯想做“谣言粉碎机”,而是大模型这项关键能力实际上同它的商业化能力息息相关——如果部署在实际环境中的各种AI服务会随着大模型的迭代而出现能力上的剧烈波动,这显然不利于大模型的落地。论文中用了longitudinaldrifts纵向漂移这个词来形容模型能力随着迭代和时间变化而带来的不稳定性,尽管论文本身没有给出具体的原因,但这篇论文已经在Twitter上引起了广泛讨论,不少人都认为,这实际上回应了关于大模型变笨流言中的一个主要的阴谋论——OpenAI实际上并不是处于节省成本目的故意让模型变笨的!它似乎也失去了对模型能力稳定性和提升节奏的控制。这引出了另一个更加让人不安的消息,每一次大模型的迭代升级,finetuning和RLHF(基于人类反馈的强化学习)实际上都会造成模型能力的变动与不稳定,而目前还无法确定这一切是如何发生的!论文作者之一表示:真的很难解释这一切是为什么。可能是RLHF和finetuning遇到了困难,也可能是bugs。管理模型质量看上去很棘手。有人说这一发现一旦被确认,实际上吹响了大模型终结的号角,因为人们需要的是一个稳定的AI,而不是会在短期内出现剧烈变化的模型。也有人猜测,这可能就是OpenAI在努力推进alignment对齐研究的原因,因为对齐的目标之一实际上就是确保大模型每次迭代升级中在某些基准上保持一致性。还有人表示GPT4在数学问题上的糟糕表现让人怀疑,大模型的内部似乎有一种机制在主动控制模型输出错误的答案。不过也有人指出,OpenAI刚刚发布的CodeInterpreter功能实际上补充了GPT在代码方面下降的能力,这让人怀疑可能是OpenAI对整个GPT4的大模型结构进行了一些调整,比如为了加快决策速度省略了一些步骤(或许是一个小的大模型?),而又将一些专门的模型单独处理CodeInterpreter相关的任务。总之,这篇论文引起了人们对模型能力跟踪评估的关注,毕竟,没有人希望自己的AI助手时而聪明过人,时而又异常愚笨吧!...PC版:https://www.cnbeta.com.tw/articles/soft/1371855.htm手机版:https://m.cnbeta.com.tw/view/1371855.htm

封面图片

关于GPT-4在变笨,有人写了篇论文证实这一点#抽屉IT

封面图片

OpenAI承认GPT-4「真的变笨」偷懒敷衍用户:会积极解决https://www.blocktempo.com/chatgp

封面图片

“GPT-N”一定更强吗?专家警告:当人类数据用完 AI大模型或将越来越笨

“GPT-N”一定更强吗?专家警告:当人类数据用完AI大模型或将越来越笨图《丈夫一箩筐》海报放眼当下,以ChatGPT为代表的大型语言模型(LLMs),在一定程度上也成为了人类智力的克隆产物。而数据作为模型性能和泛化能力的重要基础之一,会直接影响这些“克隆人”的智能水平。如我们所知,用于训练LLMs和其他支撑ChatGPT、StableDiffusion和Midjourney等产品的Transformer模型的数据,最初都来自于人类的资源,如书籍、文章、照片等。而这些都是在没有人工智能(AI)帮助的情况下创造出来的。未来,随着AI生成的数据越来越多,大模型训练又将如何展开?当AI只能用自己生成的数据来训练自己时,又会怎样?近日,牛津大学、剑桥大学的研究人员及其合作者对这一问题进行了研究,并将研究成果论文发表在了预印本网站arXiv上。论文链接:https://arxiv.org/abs/2305.17493v2他们通过研究文本到文本和图像到图像AI生成模型的概率分布,得出了这样一个结论:“模型在训练中使用(其他)模型生成的内容,会出现不可逆转的缺陷。”即“模型崩溃”(ModelCollapse)。什么是模型崩溃?本质上,当AI大模型生成的数据最终污染了后续模型的训练集时,就会发生“模型崩溃”。论文中写道,“模型崩溃指的是一个退化的学习过程,在这个过程中,随着时间的推移,模型开始遗忘不可能发生的事件,因为模型被它自己对现实的投射所毒化。”一个假设的场景更有助于理解这一问题。机器学习(ML)模型在包含100只猫的图片的数据集上进行训练——其中10只猫的毛色为蓝色,90只猫的毛色为黄色。该模型了解到黄猫更普遍,但也表示蓝猫比实际情况偏黄一点,当被要求生成新数据时,会返回一些代表“绿毛色的猫”的结果。随着时间的推移,蓝色毛色的初始特征会在连续的训练周期中逐渐消失,从逐渐变成绿色,最后变成黄色。这种渐进的扭曲和少数数据特征的最终丢失,就是“模型崩溃”。论文中还强调,还有许多其他方面会导致更严重的影响,比如基于性别、种族或其他敏感属性的歧视,特别是如果生成式AI随着时间的推移学会在其反应中产生一个种族,而“忘记”他人的存在。重要的是要注意,这种现象不同于“灾难性遗忘”(catastrophicforgetting),模型只是丢失以前学到的信息,相比之下,“模型崩溃”涉及模型根据它们强化的信念误解现实。此外,研究人员表示,即使在训练后代模型时使用的人类自身创作数据占比依然有10%,“模型崩溃也还会发生,只是不会那么快。”可以避免吗?幸运的是,有一些方法可以避免模型崩溃,即使是对于当前的Transformers和LLMs而言。在论文中,为避免响应质量下降,并减少AI模型中不需要的错误或重复,研究人员给出了两种具体方式。第一种方法是,保留原始的完全或名义上由人类生成的数据集的副本,并避免与AI生成的数据相混淆。然后,模型可以根据这些数据定期重新训练,或者从头开始进行一次“完全刷新”。第二种方法,将新的、清洗过的、人类生成的数据集重新引入到模型训练中。然而,正如研究人员指出的那样,这需要内容制作者或AI公司采用某种大规模的标签机制,或由内容生产商、AI公司使用更好的方法来区分AI和人类生成的内容。“这会增加训练成本,但至少在某种程度上会帮助你抵消模型崩溃。”另外,研究人员也给出了提示:“为了阻止模型崩溃,我们需要确保原始数据中的少数群体在后续数据集中得到公平的代表。”但在实践中,这是十分困难的。例如,数据需要被仔细备份,并涵盖所有可能的少数情况。在评估模型的性能时,应该使用模型预期要处理的数据,即使是那些最不可能的数据案例。(请注意,这并不意味着应该对不可能的数据进行过采样,而是应该适当地表示它们。)未来,人类创造的内容将更有价值?尽管这一警示似乎对当前的生成式AI技术以及寻求通过它获利的公司来说都是令人担忧的,但是从中长期来看,或许能让人类内容创作者看到更多希望。研究人员表示,在充满AI工具及其生成内容的未来世界,人类创造的内容将比今天更有价值——如果只是作为人工智能原始训练数据的来源。这一发现,对AI领域有着重要的意义。研究人员强调,我们通过改进方法来保持生成模型的完整性,以及未经检查的生成过程的风险,并可能指导未来的研究,防止或管理模型崩溃。“很明显,模型崩溃是ML的一个问题,必须采取一些措施来确保生成式AI继续得到改进。”...PC版:https://www.cnbeta.com.tw/articles/soft/1365101.htm手机版:https://m.cnbeta.com.tw/view/1365101.htm

封面图片

:这里的每个文件夹都包含一个使用GPT-4编写代码的示例。比如把Python代码翻译为c++代码,以及可以用GPT-4生成一个RocksDB的命令行客户端等等。中间出现错误后,可以把编译器错误提示反馈给GPT-4自动改bug。作者反馈比较弱的地方是GPT-4不会修改有内存错误的bug。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人