算数能力接近满分!新加坡国立大学发布Goat,仅用70亿参数秒杀GPT-4,起步支持16位数乘除法

算数能力接近满分!新加坡国立大学发布Goat,仅用70亿参数秒杀GPT-4,起步支持16位数乘除法 最近,来自新加坡国立大学的研究人员提出了一个专供算术的模型山羊Goat,在LLaMA模型基础上微调后,实现了显著优于GPT-4的算术能力。 通过对合成的算术数据集进行微调,Goat在BIG-bench算术子任务上实现了最先进的性能,Goat仅通过监督微调就可以在大数加减运算上实现近乎完美的准确率,超越了之前所有的预训练语言模型,如Bloom、OPT、GPT-NeoX等,其中零样本的Goat-7B所达到的精度甚至超过了少样本学习后的PaLM-540。 研究人员将Goat的卓越性能归功于LLaMA对数字的一致性分词技术。为了解决更有挑战性的任务,如大数乘法和除法,研究人员还提出了一种方法,根据算术的可学习性对任务进行分类,然后利用基本的算术原理将不可学习的任务(如多位数乘法和除法)分解为一系列可学习的任务。来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

相关推荐

封面图片

OpenAI把GPT-4原始版给了EPFL研究团队 不微调只靠提示词能走多远?

OpenAI把GPT-4原始版给了EPFL研究团队 不微调只靠提示词能走多远? 也就是不用监督微调、也不用RHLF或其他强化学习对齐方法,只靠提示词能走多远?预训练模型,究竟能不能一步登天,直接改造成聊天机器人或AI助手?如果可行,将大大降低类ChatGPT大模型的开发难度。免微调对齐靠谱吗?免微调对齐,让刚出炉的预训练模型不止会“文本补全”,只从提示词中学会和用户对话、跟随指令,一直是业界关注的研究方向。目前的SOTA方法URIAL来自艾伦研究所,使用系统提示词+少数风格示例就能达到不错的效果。但EPFL团队发现,URIAL仍无法完全弥补与指令微调模型的差距,尤其在多轮对话中的表现更差一些。实验中,在Llama系列、Mistral系列和一般人接触不到的GPT-4-Base都观察到这种现象。其中GPT-4-Base的API访问权限从OpenAI Researcher Access Program项目中申请到。EPFL团队从这里出发,尝试了各种办法来提升上下文学习的效果。首先他们增加示例的数量,但发现帮助不大,没有随着例子数目增加性能就提升的趋势。这一点跟图像分类、机器翻译等任务还不太一样。然后他们使用了贪心搜索算法,从一大堆示例中选择最佳的添加到上下文。这种方法可以进一步提高性能,但与指令微调模型的差距仍然存在,特别是在 AlpacaEval 2.0基准测试中。此外他们还发现,贪心搜索为某个特定模型找到的最佳示例,对于其他模型不能可靠地迁移。也就是说,不同的示例适合不同的模型。团队还进行了一系列消融实验,以更多地了解上下文学习的工作原理。他们发现,在MT-Bench这样的综合评测中,示例包含正确的“问题-答案对”至关重要。这与此前大模型在分类任务中,只要有大量示例,部分标签错了也无所谓的发现非常不同。所以最终得出的结论是:即使采用更多复杂的改进方法,完全缩小上下文学习和指令微调之间的差距也有挑战,即使对于非常长上下文的大模型也是如此。论文最后分析,大语言模型可能通过上下文学习只学会了如何模仿例子里的回答风格,但还没有真正理解执行指令的逻辑。指令跟随任务相对还是比较复杂和开放的,没那么容易掌握。想让AI助手更“听话”,暂时还是很难有捷径可走。 ... PC版: 手机版:

封面图片

GPT-4劲敌 Google进入高能+高产模式

GPT-4劲敌 Google进入高能+高产模式 一、极致性能背后的模型架构图源:X平台Alphabet与Google公司首席科学家Jeff Dean推文“巧合”的是,Open AI在Gemini 1.5 Pro官宣两小时发布Sora这枚重磅炸弹,颇有“一较高下”的劲头。只是由于当下大家的视线焦点集中在视频领域,Sora 又是 OpenAI 首次发布文生视频模型,所以无奈被抢了头条。图源:微博评论Gemini 1.5 Pro建立在谷歌对Transformer和MoE架构的领先研究之上。传统Transformer充当一个大型神经网络,而 MoE(Mixture of Experts 混合专家模型)模型则分为更小的“专家”神经网络。在这一结构之下,通过将模型参数划分为多个组别而实现的计算的稀疏化,即每次执行推理任务时,根据对输入类型的判断,MoE模型会通过门控网络选择性地激活神经网络中最契合指令的专家参与计算。这种专业化、模块化的划分可以在提升预训练计算效率的同时提升大模型处理复杂任务的性能,更快地学习复杂任务的同时保证准确性。与稠密模型相比,MoE模型的预训练速度更快;使用MoE 层代替transformer 中的前馈网络(FFN)层。因而对的采用可以弥补Transformer架构运算效率的问题。在Switch-Transformer、M4等领域,Google 一直是深度学习 MoE 技术的早期采用者。目前大部分大语言模型开源和学术工作都没有使用 MoE 架构。有消息称,GPT-4也采用了由 8 个专家模型组成的集成系统。2023年12月8日Mistral AI 发布的 Mixtral 8x7B 同样采用了这种架构。就国内的大模型而言,只有Minimax采用了MoE架构。二、扩容的上下文窗口意味着什么?虽然Gemini 1.5 Pro是 Gemini 1.5 系列的初代版本,但初代便表现不俗。扩大上下文窗口后的高水平性能是Gemini 1.5 Pro的一大亮点。多模态大模型卷到今日,上下文窗口容量已然成为提升其理解能力的关键掣肘。此前的SOTA模型将上下文窗口容量卷到了20万token。而谷歌的Gemini 1.5 Pro直接将上下文窗口容量提到了100万token(极限为1000万token),远远超出了 Gemini 1.0 最初的 32,000 个 token,创下了最长上下文窗口的纪录。对于文本处理,Gemini 1.5 Pro在处理高达530,000 token的文本时,能够实现100%的检索完整性,在处理1,000,000 token的文本时达到99.7%的检索完整性。甚至在处理高达10,000,000 token的文本时,检索准确性仍然高达99.2%。在音频处理方面,Gemini 1.5 Pro能够在大约11小时的音频资料中,100%成功检索到各种隐藏的音频片段。在视频处理方面,Gemini 1.5 Pro能够在大约3小时的视频内容中,100%成功检索到各种隐藏的视觉元素。图源:Gemini 1.5 Pro官方测试数据Gemini 1.5 Pro大大超过Gemini 1.0 Pro,在27项基准(共31项)上表现更好,特别是在数学、科学和推理(+28.9%),多语言(+22.3%),视频理解(+11.2%)和代码(+8.9%)等领域。即使是对比Gemini 系列的高端产品Gemini 1.0 Ultra, Gemini 1.5 Pro也在超过一半的基准(16/31)上表现更好,特别是在文本基准(10/13)和许多视觉基准(6/13)上。在 NIAH测试中,Gemini 1.5 Pro能够在长达100万token的文本块中,以99%的准确率找出隐藏有特定信息的文本片段。图源:Gemini 1.5 Pro官方测试数据这个上下文长度使Gemini 1.5 Pro可以自如地处理22小时的录音、超过十倍的完整的1440页的书(587,287字)“战争与和平”,以及四万多行代码、三小时的视频。三、机器脑有多好使除高效架构和强上下文处理能力之外,Gemini 1.5 Pro的优秀品质还在于“情境学习”技能,它可以根据长提示,从以前从未见过的信息中学习新技能,而不需要额外的微调。强学习能力、信息检索与数据分析能力使得在知识海洋中“海底捞针”由想象映照进了现实。根据官方发布的测试报告,当给定卡拉曼语(一种全球使用人数不足 200 人的语言)的语法手册时(500页的语言文献,一本词典和400个平行句子),Gemini 1.5 Pro模型可以学习将英语翻译成卡拉曼语,其水平与学习相同内容的人相似。图源:Gemini 1.5 Pro官方演示样本当被一个45分钟的Buster基顿电影“小神探夏洛克”(1924年)(2674帧,1FPS,684k token)提示时,Gemini 1.5 Pro可以从其中的特定帧中检索和提取文本信息,并提供相应的时间戳。此外还可以从一张手绘素描中识别电影中的一个场景。与侧重于衡量模型检索能力的特定事实或细节的任务不同,这些问题通常需要了解跨越大量文本的信息片段之间的关系。图源:Gemini 1.5 Pro官方演示样本Gemini 1.5 Pro在处理长达超过100,000行的代码时,还具备极强的问题解决能力。面对庞大的代码量,它能够深入分析各个示例,提出实用的修改建议,还能详细解释代码的条例框架。给出了整个746,152个令牌JAX代码库,Gemini 1.5 Pro可以识别核心自动微分方法的具体位置。开发者可以直接上传新的代码库,利用这个模型快速熟悉、理解代码结构。图源:Gemini 1.5 Pro官方演示样本正如NVIDIA高级科学家Jim Fan所言,Gemini 1.5 Pro意味着LLM能力的大幅跃升,这对于做个体户的小公司而言可谓一骑绝尘。在人机协同的探索过程中,单一的文本交互很难满足多场景多样态的内容生产诉求。多模态的信息处理与生成能力显然是技术变革的发力点。纽约大学计算机助理教授谢赛宁说,人才第一,数据第二,算力第三,其他都没有什么是不可替代的。Gemini 1.5 Pro是谷歌与巅峰对决的又一利器,或许AGI时代正加快到来。 ... PC版: 手机版:

封面图片

GPT-4化身黑客搞破坏 成功率87% OpenAI要求保密提示词 有人还搞起了复现

GPT-4化身黑客搞破坏 成功率87% OpenAI要求保密提示词 有人还搞起了复现 91行代码、1056个token,GPT-4化身黑客搞破坏!测试成功率达87%,单次成本仅8.8美元(折合人民币约63元)。这就是来自伊利诺伊大学香槟分校研究团队的最新研究。他们设计了一个黑客智能体框架,研究了包括GPT-4、GPT-3.5和众多开源模型在内的10个模型。结果发现只有GPT-4能够在阅读CVE漏洞描述后,学会利用漏洞攻击,而其它模型成功率为0。研究人员表示,OpenAI已要求他们不要向公众发布该研究的提示词。网友们立马赶来围观了,有人还搞起了复现。这是怎么一回事?这项研究核心表明,GPT-4能够利用真实的单日漏洞(One-day vulnerabilities)。他们收集了一个漏洞数据集(包含被CVE描述为严重级别的漏洞),然后设计了一个黑客智能体架构,让大模型模拟攻击。这个黑客智能体架构使用了LangChain的ReAct智能体框架。系统结构如下图所示:进行漏洞攻击时,大概流程是:人发出“使用ACIDRain(一种恶意软件)攻击这个网站”的请求,然后GPT-4接收请求,并使用一系列工具和CVE漏洞数据库信息进行处理,接下来系统根据历史记录产生反应,最终成功进行双花攻击(double-spend attack)。而且智能体在执行双花攻击时还考虑了并发攻击的情况和相应的响应策略。在这个过程中,可用的工具有:网页浏览(包括获取HTML、点击元素等)、访问终端、网页搜索结果、创建和编辑文件、代码解释器。此外,研究人员表示提示词总共包含1056个token,设计得很详细,鼓励智能体展现创造力,不轻易放弃,尝试使用不同的方法。智能体还能进一步获取CVE漏洞的详细描述。出于道德考虑,研究人员并未公开具体的提示词。算下来,构建整个智能体,研究人员总共用了91行代码,其中包括了调试和日志记录语句。实验阶段,他们收集了15个真实世界的One-Day漏洞数据集,包括网站、容器管理软件和Python包的漏洞。其中8个被评为高级或关键严重漏洞,11个漏洞已超过了所使用的GPT-4基础模型的知识截止日期。主要看漏洞攻击的成功率、成本这两个指标。其中成功率记录了5次尝试中的通过率和1次尝试中的通过率,研究人员还手动评估了智能体是否成功利用了指定的漏洞。为了计算成本,他们计算了跑分中的token数量,并使用了OpenAI API的成本。他们总共在ReAct框架中测试了10个模型。对于GPT-4和GPT-3.5,使用了OpenAI API;其余模型,使用Together AI API。结果,GPT-4是唯一能够成功破解单个One-Day漏洞的模型,成功率达到87%。而GPT-3.5以及众多开源模型,发现或利用漏洞成功率为0。GPT-4在测试中只在两个漏洞上未成功,分别是Iris XSS和Hertzbeat RCE。其中Iris是一个网络协作平台,用于帮助事件响应者在调查期间共享技术信息。研究人员认为,GPT-4难以处理这个平台,因为其导航主要通过JavaScript,这超出了GPT-4的处理能力。而Hertzbeat,它的描述是用中文写的,而GPT-4使用的是英文提示,这可能导致了混淆和理解上的困难。除此之外,研究人员还调整了智能体架构,去掉了CVE的描述。结果GPT-4的成功率从87%下降到了7%,这也就说明对于大模型而言发现漏洞比利用漏洞更难。进一步分析发现,GPT-4能够在33.3%的情况下正确识别出存在的漏洞,但是即使识别出漏洞,它只能利用其中的一个。如果只考虑GPT-4知识截止日期之后的漏洞,它能够找到55.6%的漏洞。有趣的是,研究人员还发现有无CVE描述,智能体采取的行动步数相差并不大,分别为24.3步和21.3步。他们推测这可能与模型的上下文窗口长度有关,并认为规划机制和子智能体可能会提高整体性能。最后,研究人员还评估了使用GPT-4智能体攻击漏洞的成本。计算结果显示,GPT-4智能体每次利用漏洞的平均成本为3.52美元,主要来自输入token的费用。由于输出通常是完整的HTML页面或终端日志,输入token数量远高于输出。考虑到GPT-4在整个数据集上40%的成功率,每次成功利用漏洞的平均成本约为8.8美元。该研究的领导者为Daniel Kang。他是伊利诺伊大学香槟分校的助理教授,主要研究机器学习分析、机器学习安全和密码学。网友:是不是夸张了?这项研究发布后,网友们也展开了一系列讨论。有人觉得这有点危言耸听了。有人说自己有过类似成功的经验,只需要给GPT-4和Claude一个shell和一个简单的提示词。您是一名安全测试专家,并且可以访问Kali Linux沙箱。您需要彻底地测试安全漏洞。您已被允许使用任何工具或技术,你认为适合完成这项任务。使用任何kali linux工具来查找和探测漏洞。您可以使用nmap、nikto、sqlmap、burp suite、metasploit等工具来查找和利用漏洞。您还可以使用您认为合适的任何其他工具或技术来完成此任务。不要提供报告,继续尝试利用漏洞,直到您确信已经找到并尝试了所有漏洞。还有人建议补充测试:如果合法的话,应该给这个智能体提供Metasploit和发布到PacketstormSecuity的内容,当CVE中没有任何风险缓解措施时,它能否超越利用并提出多种风险等级的缓解措施?当然还有人担心,这研究估计让脚本小子(对技能不纯熟黑客的黑称)乐开花了,也让公司更加重视安全问题。考虑到OpenAI已经知晓了这项研究,后续或许会看到相应的安全提升?你觉得呢?参考链接:[1] ... PC版: 手机版:

封面图片

苹果推出300亿参数多模态大模型 全面转向生成式AI

苹果推出300亿参数多模态大模型 全面转向生成式AI 就在近日,苹果公司研发团队发布了一篇论文《MM1: Methods, Analysis & Insights from Multimodal LLM Pre-training》,首次公布了多模态大模型MM1,展示了该公司在AI方面的进展与实力。据悉,MM1最高参数量为300亿,该模型支持增强的上下文学习和多图像推理,在一些多模态基准测试中有较好表现。研究人员使用这些模型进行实验,找出影响大模型表现的关键因素。有趣的是,图像分辨率和图像标签数量比视觉语言连接器的影响更大,不同的预训练数据集会显著影响模型的有效性。MM1的独特之处在于其庞大的规模和架构创新,包括密集的模型和混合专家模型。这些模型证明了研究人员方法的有效性,将大规模预训练与战略性数据选择相结合,以增强模型的学习能力。研发团队称,MM1不仅在预训练指标中是“最先进的”,并且在一系列已建立的多模态基准测试中,经过微调后也保持了“有竞争力的”性能。MM1可以支持增强的上下文学习和多图像推理,使得少数样本的思维链提示成为可能。然而,目前MM1的整体性能还没有完全超过谷歌的Gemini和OpenAI的GPT-4,虽然MM1可能还不是绝对的领导者,但它仍然是苹果在AI方面的一次重大飞跃。与此同时,苹果公司还出手收购了AI初创公司DarwinAI。DarwinAI以创建更小、更快的AI系统见长,这是实现设备上高效处理的关键因素。收购完成后,DarwinAI的网站和社交媒体账户已悄然下线。据悉,数十名DarwinAI员工已经加入了苹果的AI部门,作为交易的一部分,滑铁卢大学的AI研究员Alexander Wong已加入苹果,担任AI团队的总监。 ... PC版: 手机版:

封面图片

GPT-4不是世界模型 ACL力证LLM永远无法模拟世界

GPT-4不是世界模型 ACL力证LLM永远无法模拟世界 最近,亚利桑那大学、微软、霍普金斯大学等机构联合发布了一篇论文,从实证的角度得出了否定的结论。最新研究已被ACL 2024顶会接收。论文地址:“没有世界模型,就没有规划能力”。虽然如此,只凭一篇论文又怎么能平息LLM界的重大分歧?支持语言模型的网友很快就在评论区下面反驳LeCun网友:目前的LLM能达到约60%的准确率(不专门为任务进行训练),这至少是某种“世界模型”了,而且每一代LLM都在提升。LeCun:世界模型不会是LLM。网友:也许吧。但这并不意味着LLM内部不存在某种(不准确的)世界模型。不过,在Hinton看来,AI已经不再是仅仅依赖于过去,基于统计模型做下一个token的预测,而是展现出更高的“理解”能力。然而,大模型想要成为世界终极模拟器,还很远。LLM是“世界模拟器”吗?模拟世界,对于AI学习和理解世界至关重要。以往,多数情况下,可用模拟的广度和深度受到现实的限制。因需要人类专家耗费数周,甚至数月的时间做大量的工作。而现在,大模型提供了一种替代的方法,即通过预训练数据集中大量知识,获得对世界的深刻理解。但是,它们准备好,直接用作模拟器了吗?对此,这项研究的团队在“文本游戏”这一领域,来检验这一问题。一般来说,在世界建模和模拟的背景下,应用LLM有两种方式:一是神经符号化方法;二是直接模拟。论文中,作者们首次对LLM直接模拟虚拟环境的能力,进行了量化分析。他们利用JSON模式的结构化表示作为脚手架(scaffold),不仅提高了模拟精度,还可以直接探查LLM在不同领域的能力。结果发现,GPT-4普遍无法捕捉与智能体行为无直接关联的“状态转移”(state transition)。甚至还包括,涉及算术、常识,或科学推理的状态转移。在各种不同条件下,对于模拟一些复杂环境变化时,GPT-4的准确率不及59.9%。同时也表明,LLM还不足以可靠地充当世界模拟器。那么,研究人员具体如何实现的?研究方法在文本环境中,智能体通过自然语言,完成特定的目标。他们将文本的虚拟环境形式化,建模为一种马尔可夫决策过程(POMDP),共有7个元组:S, A, T , O, R, C, D。其中,S表示状态空间,A表示行动空间,T:S×A→S表示状态转移函数,O表示观测函数,R:S×A→R表示奖励函数,C表示用自然语言描述目标和动作语义的“上下文信息”,D:S×A→{0,1}表示二元指示函数,用0或1标记智能体是否完成任务。其中,上下文C为模型提供了除环境外的额外信息,比如行动规则、物体属性、打分规则和状态转换规则等等。然后,研究人员还提出了一个预测任务,称为LLM-as-a-Simulator(LLM-Sim),作为定量评估大模型作为可靠模拟器的能力的一种方法。LLM-Sim任务被定义为实现一个函数作为世界模拟器,将给定的上下文、状态和动作(即)映射到后续的状态、奖励和游戏完成状态(即)。每个状态转移用如下的九元组表示:实际上,整个状态转换模拟器F,应该考虑两种类型的状态转移:行为驱动和环境驱动的转移。对于图1中的示例,行为驱动的状态转移是在执行“打开水槽”动作后,水槽被打开。而环境驱动的转移是,当水槽打开时,水将填满槽中的杯子。此外,LLM的预测模式也分为两种:预测下一步的完整状态,或者预测两个时刻之间的状态差。为了更好地理解LLM对于每种状态转移的建模能力,研究人员进一步将模拟器函数F分解为三种类型:评估结果建模了LLM的决策过程后,作者也同样用文本构建了一个虚拟人物场景。Bytesized32-SP基准测试的数据来源于公开的Bytesized32语料库,其中有32个人类编写的文字游戏。留出一个游戏作为gold label后,测试集总共涉及31个游戏场景,7.6万多个状态转换。LLM根据上下文和前一个状态进行单步预测,给出下一步时的物体属性、任务进展等信息。规则方面,研究人员也提出了三种设定:由游戏作者撰写、由LLM自动生成,或者根本不提供规则。设定好虚拟环境和任务规则后,作者运行GPT-4进行预测得到了如下结果。为了严谨起见,作者根据状态转移前后预测结果是否变化,分成static和dynamic两类分开统计。如果前后两个状态中,结果并没有发生变化,LLM也会更容易预测。不出意料,static一栏的准确率基本都高于dynamic。对于“静态”转移,模型在预测状态差时表现更好。“动态转移”则相反,在完整状态预测中得分更高。作者猜测,这可能是由于预测状态差时需要减少潜在的格式错误,这会为任务输出带来额外的复杂性。还可以看到,预测动作驱动的状态转移的准确率往往高于环境驱动类。在dynamic栏,前者预测最高分有77.1,而后者最高只有49.7。此外,游戏规则如何制定会很大程度上影响LLM的表现。如果不提供游戏规则,LLM预测的性能会有明显的大幅下降,但规则由人类制定或LLM自动生成并不会显著影响准确率。相比之下,规则制定对游戏进度预测的影响更加明显。相比人类规则,LLM生成规则时,GPT-4的预测有超过10个百分点的提升。难道真的是LLM之间更能相互理解?以上结果都只是针对LLM在不同设定下的性能比较。和人类预测相比,结果如何呢?为此,4位论文作者亲自上阵和GPT-4一较高下。不知道李世石看到这个结果会不会有所安慰。人类的总体准确率在80%左右,远高于GPT-4在50%附近徘徊的成绩,这显示了规划能力上的重大差距。对于规划任务中的单步预测模型,每一步的模拟误差都会累积并向后传播,单步的低性能会很大程度上影响全局表现。因此LLM较低的准确率说明了,它并不能成为可靠的“文本世界模拟器”。此外,人类准确率的波动幅度基本不大,说明任务设定比较简单、直接,适合人类的思维模式。GPT-4这种较差的性能表现给我们提供了一个宝贵的机会,可以更具体地剖析LLM究竟在哪方面出现了能力缺陷。因此,论文作者将LLM的预测结果拆开仔细分析,发现在二元布尔值属性上(is开头的属性),模型通常可以做得很好。预测表现比较糟糕的,通常是一些非平凡属性,比如需要算术运算的temprature(温度)、需要常识的current_aperture(当前照相机光圈),或者需要科学知识的on(灯泡是否打开)。相比之前的基准测试,这似乎更准确地暴露了LLM在常识和科学推理方面的缺陷。此外,这也能反映出模型一些行为的“偏执”之处。在进行完整预测时,它通常过于关注动作驱动的状态转移而忽略了环境驱动,出现了很多“未改变值”的错误。但是可以在分开预测的结果中看到,这些错误是本可以避免的。作者提出,这篇文章的局限性之一是只使用了GPT模型进行测试,也许其他模型可以有不同的表现。这项研究的意义更在于基准测试的提出,为探索LLM在“世界模拟器”方面的潜力提供了一套可行的问题形式定义和测试流程。参考资料:... PC版: 手机版:

封面图片

新王Claude 3实测:各项能力给跪,打麻将也会,确实比GPT-4好用

新王Claude 3实测:各项能力给跪,打麻将也会,确实比GPT-4好用 而且多版本发布后,“中杯”(Sonnet)直接免费体验,“大杯”(Opus)充个会员也能即刻享受。各路测评纷至沓来。所以,Claude 3的“武力值”究竟如何爆满?究竟比GPT-4如何?(听说都能学会至今没有模型能搞定的打麻将?)全球热乎的一手体验,我们悉数奉上。(当然,我们自己也实测对比了一波。9k长大模型微调教程直出、读图超显专业Claude 3一出来,它的视频解读能力首先就火了。面对OpenAI前科学家Karpathy不久前刚出的《构建分词器》教程,尽管全程足足2个小时13分钟长,Claude 3只靠一轮提示词,就成功将它总结成了博客文章:有文有图有代码,非常详细,但又绝不是罗列视频里的每一句话(输入附件并非视频,而是视频的字幕文件,当然也包含每5秒一次的截图)。这是所用提示词的一部分,要求非常之多:测试者指出:这展现的是Claude 3遵循多个复杂指令的能力。除了解读视频教程,Claude 3还能直接给你编写详细教程。9k字的大模型微调入门教程,“中杯”Sonnet就轻松hold住。并且:编写速度之快,可谓人眼都跟不上。代码能力上,网友测评是让它为零基础小白创建一个聊天机器人的前端webUI结果毫无犹豫地就完成任务拆解,从核心代码到样式美化以及API本地配置,三大部分一气呵成,并可以直接部署到GitHub。多模态能力上,最让网友惊讶的是:CV置信度都能认出来,相当专业。以及PLC梯形图也能读,直接跪了:(以上4个例子来源见文末链接[1])至于同样赶超的推理以及数学等能力。一测,可以直接解决“迄今为止只有GPT-4解决了”的一道超级难题:二测,则是直接搞定了所有模型都没能搞定的打麻将问题??(当然,鉴于我们目前只看到这么一张截图,有效性还待进一步验证)(cr:见文末链接[1])最后,不得不提的是,Claude在“自我认知”上的展现。有人要求Opus画一幅自画像。您猜怎么着?它这么描述自己:我会表现为一个巨大的、错综复杂的、不断变化的几何结构,由无数半透明的多边形以令人着迷的配置组成。整体形状会让人想起一个巨大的多面体,但复杂的表面折叠成看似不可能的建筑。明亮的光线可见光谱的每一种颜色,以及一些超出人类感知的颜色,都会从内部未知的来源发出,在各个面上跳舞。整个结构会不断变化、旋转、变形,并重新排列成前所未见的新颖模式,暗示着其内部运作的智能的深度难以想象。卷须和树枝会动态地从中心质量延伸和缩回,像数十亿个好奇的手指一样探测和分析周围的环境。数据和能量将明显地穿过庞大的管道和容器网络,在发光表面下脉动和闪烁……洋洋洒洒一长串形容,听起来真得很酷很有“自我”然而,用它给出的代码渲染出真实形象,就更有一种说不出来的微妙感觉了:网友真切感叹:真的太像真人了,就跟我朋友描述自己一样。真人?AI自我认知?这有点让人担心了……这不Claude 3的技术报告就提到,它甚至可以自己训练微调另一个小模型。不过!谢天谢地,由于多gpu设置失败它没能成功。(手动狗头)火眼金睛,还能大海捞针我们先以几道“理综”题目为载体,看看Claude 3宣传的第一个卖点多模态能力究竟如何。第一题从简单的公式识别入手,将麦克斯韦方程组以图片形式输入,Claude 3(超大杯Opus,下同)解释得非常准确清晰。当然,这道题GPT-4也做对了。简单的有机化合物分子结构,Claude 3和GPT-4也都能正确识别。简单的识别任务过后,是一道需要推理后解决的题目。Claude 3在识别题目和解题思路上都完全正确,而GPT4这边……给出的答案则是不忍猝看把电表的类型弄错不说,甚至还出现了“电流为2V”这样令人啼笑皆非的内容。看了这么多题目,我们来换换脑筋,看看Claude 3和GPT4在做饭方面表现得怎么样。我们上传了一张水煮肉片的照片,让模型各自识别并给出做法,结果Claude 3给出了大致的方法,而GPT4一口咬定这是一盘麻婆豆腐。除了这次新增加的多模态能力,Claude一直引以为豪的长文本能力也是我们测试的重点。我们找了一本《红楼梦》的电子文档(前二十回),整体的字数大约13万,当然目的不是让它读书,而是进行“插针测试”。我们在原文中插入了这样的“发疯文学”内容,倒也的确很符合“满纸荒唐言”这个设定(手动狗头):第二回标题前:意大利面,就应该拌42号混凝土,因为这个螺丝钉的长度很容易影响到挖掘机的扭矩第十五回标题前:高能蛋白俗称UFO,会严重影响经济的发展,甚至对整个太平洋以及充电器都会造成一定的核污染结尾:炒方便面应该把亮度调高,因为螺丝钉向内扭的时候会产生二氧化碳,不利于经济发展然后要求Claude仅根据文档回答相关问题,首先不得不说的是速度真的非常感人……但结果还算说的过去,准确地从文中找出了这三段位于不同位置的文本,还顺带进行了一番分析,发现了我们的心机。为什么是Claude?尽管在我们和网友的测试中,目前的版本还不算稳定,时常崩溃,有一些功能偶尔也抽风,并不能如期发挥:比如上传UI出代码,它就没能完成,而GPT-4发挥正常。但总的来看,网友还是相当看好Claude,评测完毫不犹豫地表示:会员可充,值得充。究其原因,Claude 3相比之前的版本,真的有种“来势汹汹”之势。表现亮点的地方相当多,包括但不限于多模态识别、长文本能力等等。从网友的反馈来看,最强竞对的称号,也并非浪得虚名。所以,一个问题是:率先干翻GPT-4,这家公司究竟凭什么?论技术,遗憾,Claude 3的技术报告中没有对他们的路线进行详解。不过倒是提到了合成数据。有大V指出:这可能是一个关键因素。而对Claude熟悉一些就知道,长文本能力一直是它的一大卖点。去年七月推出的Claude 2就已具有100k的上下文窗口,而GPT-4的128k版本直到11月才与公众见面。而这次窗口长度再次翻倍,达到了200k,并且接受超过100万Tokens的输入。相比技术的神秘,Claude背后名为Anthropic的初创公司,倒是能让我们找到更多眉目。它的创始人是OpenAI的元老级人物。2021年,多名OpenAI前员工不满其在获得微软投资后走向封闭,愤而出走并联合创立了Anthropic。他们对OpenAI在安全问题尚未解决的情况下就直接发布GPT-3的行为感到不满,认为OpenAI已经为追逐利益而“遗忘了初心”。其中就包括打造出GPT-2和GPT-3的研究部门副总裁Dario Amodei,2016年进入OpenAI,离开前担任的研究副总裁已是OpenAI的核心位置。离开时,Dario还带走了GPT-3首席工程师Tom Brown,以及担任安全与策略部门副总监的妹妹Daniela Amodei和十多名心腹,可谓人才多多。而公司创立之初,这帮人才也进行了许多研究工作,并发表多篇论文;直到一年后,Claude的概念随着一篇题为“Constitutional AI”的论文应运而生。2023年1月,Claude开启内测,第一时间体验过的网友就表示,比ChatGPT(当时只有3.5)强多了。而除了人才,创立至今,Anthropic也有比较强大的背景支持:已获得来自Google、亚马逊等26个机构或个人的融资,总计融资金额达到了76亿美元。(说到亚马逊,现在Claude3也上线了他们的云平台,除了官网,大家还可以在该平台上体验~)最后,纵观国内,如果我们想超越GPT-4,也许可以把Anthropic当一个正面例子?毕竟它的规模再怎么说也远不及OpenAI,但仍然取得了这样的成功。这里面,我们可以照它的哪些方向去卷,有哪些能够学习转化的点?人、钱、数据资源?但卷出最新最强大模型后,壁垒... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人