Onboard! 报复式疯狂上新这次嘉宾阵容实在是太重磅啦!好久没有这么鸡冻

Onboard! 报复式疯狂上新这次嘉宾阵容实在是太重磅啦!好久没有这么鸡冻 大名鼎鼎的 Jim Fan, Nvidia 资深科学家,Twitter上的AI大V(Jeff Bezos 都在关注!)Hanjun Dai, 深度参与Google Gemini 的资深研究员,当然还有硅谷徐老师! 这次在Stanford附近录制,将近3小时! 上半部分主题是 Generative Agents, 还有Llama 2 开源LLM。三位对agents都有最一线的研究和落地经验,从AutoGPT开始,Agents 从技术到应用,最新进展、技术和场景的挑战,由此延伸到开源与闭源LLM的竞争格局。 一大波上新快来关注Onboard!

相关推荐

封面图片

下棋下哭柯洁的DeepMind 这次要让生物界地震?

下棋下哭柯洁的DeepMind 这次要让生物界地震? 生物体内几乎所有的分子结构,它都可以预测。这意味着生物医学研究从此开了真 · 上帝视角,任何生物分子作用机理都将从黑盒中打开,变成透视模式。不少媒体和网友开始欢呼, 21 世纪,这下真要成生物的世纪了……要看懂这次新发布的 AlphaFold 3 有多牛,咱们就得先知道, DeepMind 和它的 AlphaFold ,曾给了分子生物圈多大的震撼……我们在九年义务教育里都学过,生物体内最多的物质就是蛋白质,而要搞清楚生物分子的底层原理,就必须知道每个蛋白质具体长啥样。这么说吧,在 AlphaFold 之前,大伙们预测蛋白质结构主要两种办法,一是用 X 光照蛋白质晶体,也就是先拍片子再分析片子,再来搞懂它长啥样。二是核磁共振 ( NMR ) 光谱,拍出大体形状轮廓,再推测它的结构。这些传统办法不仅慢,适用范围小,需要不断试错,还费钱,每拍一次片子就花好几万美金,抵一辆小米 su7 。这也是为啥蛋白质研究方向生物学家,费钱且需要大量经验……只有那些经验的老师傅,蛋白质仙人,才能更快猜到蛋白质的准确形状,少拍点片子。所以人们就琢磨,这种需要经验总结的工作能不能靠 AI 解决呢?DeepMind 就来干这事了,为了克服传统拍片子的问题,第一代 AlphaFold 选择技术路线的时候就摊牌了:不拍片子!蛋白质既然由氨基酸构成,初代 AlphaFold 用的方法就是,利用来自各处公开的已知蛋白质结构,把这些蛋白质中每一对氨基酸的距离,链接角度,汇总起来做成一张图, AI 用神经网络消化完他们,再让 AI 做出自己的预测。而 2018 年第一代 AlphaFold 一经发布,就技惊四座,力压一众实验室老师傅,获得第 13 届蛋白质结构预测大赛 ( CASP ) 冠军。AI ,很神奇吧。不过,初代 AlphaFold 有个问题,它更依赖局部数据的特征来训练,它不太能提取到较远元素之间的关系。就好像一个只会写短文,但学不会写长篇小说的作家。问题是,很多蛋白质分子有长距离的依赖性,这让初代 AlphaFold 的实力就有点捉襟见肘了。好在 2020 年发布的 AlphaFold2.0 ,用上后来在 ChatGPT 上大火的 Transformer 模型。Transformer 模型的注意力机制,则完美解决了长距离氨基酸的问题,进步有多大呢?2018 年蛋白质结构预测大赛里 1.0 版本准确度得分不到 60 分,但是 2020 年大赛里 2.0 版本拿到了惊人的 92.4 分,它能生成的范围已经涵盖了人类已知蛋白质的 98% ,更重要的是它完全开源。可以说, 2.0 版本已经基本解决了单链蛋白质的预测问题,到 2021 年,基于 2.0 改版的 AlphaFold-Multimer 发布,也支持上了多链,准确度上也取得了突破,蛋白质之间作用的预测准确率超过 70% 。所以现在很多公司也用上了它们,甚至助力了国外一些新冠疫苗研发。但在 DeepMind 看来,蛋白质结构预测上的胜利,还远远没发挥完 AI 的潜力,因为生物体内的复杂分子结构不止有蛋白质,还有核酸,小分子配体等等,这就好比你花了十年时间学刻钥匙开锁技术,结果一出师,发现大家用的都是指纹锁密码锁,用传统钥匙的人太少了!所以这次 AlphaFold 3 ,他们更新了一个更牛逼的全方位模型,不仅能预测蛋白质 DNA RNA 等各种小分子,还能揭示他们之间的互相作用。那这是怎么干的呢?答案是,他们用了 Diffusion 。对,就是大名鼎鼎的扩散模型,在 AI 绘画大火的时候,想必大家就听说过。它的原理就是把原图像不断打码,再让 AI 学会预测这些马赛克的生成过程,然后反过来实现从马赛克到图像的生成。不过,就像 AI 画画生成不好手指, Sora 椅子视频会穿模一样, Diffusion 加持下的 AlphaFold 3 也会预测错误,特别是在一些长得相似难以区分的结构上,比如各位高中有机化学里学过的手性分子。所以在这些容易出错的地方, DeepMind 用了一个叫做交叉蒸馏的操作,说白了就是让有 Transform 模型的 2 代版本先预测,再把预测数据添加到 AlphaFold 3 的训练中,也就是相当于让 2 代扮演教师,领着 3 代去做,这样就能减少预测失误。生成的效果有多好?直接看官方图吧AlphaFold 3 对 7BBV - 酶 ( 存在于一种土壤真菌体内 ) 的预测,其中酶蛋白( 蓝色 )、离子( 黄色球体 )和单糖( 黄色 )与真实结构( 灰色 )几乎重合AlphaFold 3 对感冒病毒刺突蛋白( 蓝色 )与抗体( 绿松石色 )和单糖( 黄色 )相互作用时的结构预测,与真实结构准确匹配( 灰色的)AlphaFold 3 对蛋白复合物的预测,其中蛋白质( 蓝色 )与 DNA ( 粉色 )结合,预测模型与实验测定的真实分子结构( 灰色 )近乎完美匹配除了生成质量相当哇塞,精度也是遥遥领先的原子级。在蛋白质与核酸配体的模拟上全面优于其他产品,抗原抗体的模拟也同样优秀。而操作 AlphaFold3 就更容易了。用 ChatGPT ,咱还得想办法提个好问题、写好提示词,而在 AlphaFold 3 ,你只需要输入一些分子列表,它就能预测出它们是如何组合在一起的。试想一下,原先需要花大量时间精力和资金才能观察到的现象,现在只需要在网站输入参数再单击,几分钟后就能产生极高清晰度和准确度的生物大分子模型。甚至细胞系统内部的生化过程,现象, DNA 如何发挥作用,药物和激素的反应如何进行,也全都能在极短时间内被整明白。这些遥遥领先的数据,和大家的热情好像都在说:这次发布已经不是跨越式进步了,而是革命性的突破,整个传统生物医疗的科研方式,似乎都要被改变了。不过世超觉得,乐观是好的,但是科学这玩意儿除了乐观,要的还得是中肯和严谨。在各路媒体和网友都在 “ 炸裂 ” “ 颠覆 ” “ 改变世界 ” 的时候,圈内对的不少大佬,也发表了些对 AlphaFold 3 的评价。比如颜宁教授团队就发现, 3.0 版本在一个糖蛋白预测中就翻车了,表现甚至不如前代版本。也有不少科学家吐槽 3.0 相比 2.0 它还不开源了,使用次数也有限制。甚至,还有人质疑 DeepMind 的老板 Hassabis ,他自己就创立过一家 “ 专注人工智能的药物公司 ” ,号称要 “ 利用人工智能重新定义药物发现 ” ,但从 2021 年到,今天他们还没有推出任何药物。当然这就有点在尬黑了,毕竟药物研发过程中,蛋白质结构问题只是其中一小部分,这并不能对药物研发进度产生决定性影响……总之,世超觉得 AlphaFold 的三代产品确实喜人,但在生命科学的漫漫实践长路上,它依旧有着不少难题需要去突破。不过说到底,进步总还是好事,希望 DeepMind 能再多搞点,搞快点吧。 ... PC版: 手机版:

封面图片

最强开源大模型一夜易主:谷歌Gemma 7B碾压Llama 2 13B 重燃开源之战

最强开源大模型一夜易主:谷歌Gemma 7B碾压Llama 2 13B 重燃开源之战 与此同时,谷歌还放出了16页的技术报告。谷歌表示,Gemma这个名字源自拉丁语「gemma」,也就是「宝石」的意思,似乎是在象征着它的珍贵性。历史上,Transformers、TensorFlow、BERT、T5、JAX、AlphaFold和AlphaCode,都是谷歌为开源社区贡献的创新。而谷歌今天在全球范围内同步推出的Gemma,必然会再一次掀起构建开源AI的热潮。同时也坐实了OpenAI「唯一ClosedAI」的名头。OpenAI最近刚因为Sora火到爆,Llame据称也要有大动作,谷歌这就又抢先一步。硅谷大厂,已经卷翻天了!Hugging Face CEO也跟帖祝贺。还贴出了Gemma登上Hugging Face热榜的截图。Keras作者François Chollet直言:最强开源大模型,今日易主了。有网友已经亲自试用过,表示Gemma 7B真是速度飞快。谷歌简直是用Gemini拳打GPT-4,用Gemma脚踢Llama 2!网友们也是看热闹不嫌事大,召唤Mistral AI和OpenAI今晚赶快来点大动作,别让谷歌真的抢了头条。(手动狗头)可以看到,Gemma-7B模型在涵盖一般语言理解、推理、数学和编码的8项基准测试中,性能已经超越了Llama 2 7B和13B!并且,它也超越了Mistral 7B模型的性能,尤其是在数学、科学和编码相关任务中。在安全性方面,经过指令微调的Gemma-2B IT和 Gemma-7B IT模型,在人类偏好评估中都超过了Mistal-7B v0.2模型。特别是Gemma-7B IT模型,它在理解和执行具体指令方面,表现得更加出色。这次,除了模型本身,谷歌还提供了一套工具帮助开发者,确保Gemma模型负责任的使用,帮助开发者用Gemma构建更安全的AI应用程序。- 谷歌为JAX、PyTorch和TensorFlow提供了完整的工具链,支持模型推理和监督式微调(SFT),并且完全兼容最新的Keras 3.0。- 通过预置的Colab和Kaggle notebooks,以及与Hugging Face、MaxText、NVIDIA NeMo和TensorRT-LLM等流行工具的集成,用户可以轻松开始探索Gemma。- Gemma模型既可以在个人笔记本电脑和工作站上运行,也可以在Google Cloud上部署,支持在Vertex AI和Google Kubernetes Engine (GKE) 上的简易部署。- 谷歌还对Gemma进行了跨平台优化,确保了它在NVIDIA GPU和Google Cloud TPU等多种AI硬件上的卓越性能。并且,使用条款为所有组织提供了负责任的商业使用和分发权限,不受组织规模的限制。不过,Gemma并没有能够在所有的榜单中,都拿下SOTA。在官方放出的评测中,Gemma 7B在MMLU、HellaSwag、SIQA、CQA、ARC-e、HumanEval、MBPP、GSM8K、MATH和AGIEval中,成功击败了Llama 2 7B和13B模型。相比之下,Gemma 7B在Boolq测试中,只与Mistral 7B打了个平手。而在PIQA、ARC-c、Winogrande和BBH中,则不敌Mistral 7B。在OBQA和trivalent QA中,更是同时被7B和13B规模的Llama 2 7B斩于马下。谷歌这次发布的两个版本的Gemma模型,70 亿参数的模型用于GPU和TPU上的高效部署和开发,20亿参数的模型用于CPU和端侧应用程序。在18个基于文本的任务中的11个中,Gemma都优于相似参数规模的开源模型,例如问答、常识推理、数学和科学、编码等任务。模型架构方面,Gemma在Transformer的基础上进行了几项改进,从而在处理复杂任务时能够展现出更加出色的性能和效率。- 多查询注意力机制其中,7B模型采用了多头注意力机制,而2B模型则使用了多查询注意力机制。结果显示,这些特定的注意力机制能够在不同的模型规模上提升性能。- RoPE嵌入与传统的绝对位置嵌入不同,模型在每一层都使用了旋转位置嵌入技术,并且在模型的输入和输出之间共享嵌入,这样做可以有效减少模型的大小。- GeGLU激活函数将标准的ReLU激活函数替换成GeGLU激活函数,可以提升模型的表现。- 归一化化位置(Normalizer Location)每个Transformer子层的输入和输出都进行了归一化处理。这里采用的是RMSNorm作为归一化层,以确保模型的稳定性和效率。架构的核心参数如下:两种规模的参数如下:Gemma 2B和7B分别针对来自网络文档、数学和代码的主要英语数据的2T和6Ttoken,进行了训练。与Gemini不同,这些模型不是多模态的,也没有针对多语言任务的SOTA进行训练。谷歌使用了Gemini的SentencePiece分词器的子集,来实现兼容性。团队对Gemma 2B和7B模型进行了微调,包括有监督的微调(SFT)和基于人类反馈的强化学习(RLHF)。在有监督的微调阶段,研究者使用了一个由纯文本、英文、由人工和机器生成的问题-答案对组成的数据集。在强化学习阶段,则是使用了一个基于英文偏好数据训练出的奖励模型,以及一套精心挑选的高质量提示作为策略。研究者发现,这两个阶段对于提升模型在自动评估和人类偏好评估中的表现,至关重要。研究者根据基于LM的并行评估,选择了数据混合物进行监督微调。给定一组保留prompt,研究者会从测试模型中生成响应,从基准模型中生成对相同提示的响应,随机洗牌,然后要求一个更大、能力更强的模型在两种响应之间表达偏好。研究者构建了不同的提示集,以突出特定的能力,如遵循指令、实事求是、创造性和安全性。我们使用了不同的基于LM的自动评委,采用了一系列技术,如思维链提示、使用评分标准和章程等,以便与人类偏好保持一致。研究者进一步利用来自人类反馈的强化学习(RLHF),对已经进行过有监督微调的模型进行了优化。他们从人类评估者那里收集他们的偏好选择,并在 Bradley-Terry 模型的基础上,训练了一个奖励函数,这与Gemini项目的做法相似。研究者采用了一个改进版的REINFORCE算法,加入了 Kullback–Leibler 正则化项,目的是让策略优化这个奖励函数,同时保持与最初调整模型的一致性。与之前的有监督微调阶段相似,为了调整超参数并进一步防止奖励机制被滥用,研究者使用了一个高性能模型作为自动评估工具,并将其与基准模型进行了直接对比。谷歌在多个领域对Gemma进行了性能评估,包括物理和社会推理、问答、编程、数学、常识推理、语言建模、阅读理解等。Gemma2B和7B模型与一系列学术基准测试中的多个外部开源大语言模型进行了比较。在MMLU基准测试中,Gemma 7B模型不仅超过了所有规模相同或更小的开源模型,还超过了一些更大的模型,包括Llama 2 13B。然而,基准测试的制定者评估人类专家的表现为89.8%,而Gemini Ultra是首个超越此标准的模型,这表明Gemma在达到Gemini和人类水平的性能上,还有很大的提升空间。并且,Gemma模型在数学和编程的基准测试中表现尤为突出。在通常用于评估模型分析能力的数学任务中,Gemma 模型在GSM8K和更具挑战性的 MATH基准测试上至少领先其他模型10分。同样,在HumanEval上,它们至少领先其他开源模型6分。Gemma甚至在MBPP上超过了专门进行代码微调的CodeLLaMA 7B模型的性能(CodeLLaMA得分为41.4%,而 Gemma 7B得分为44.4%)。近期研究发现,即便是经过精心对齐的人工智能模型,也可能遭受新型对抗攻击,这种攻击能够规避现有的对齐措施。这类攻击有可能使模型行为异常,有时甚至会导致模型重复输出它在训练过程中记住的数据。因此,研究者专注于研究模型的「可检测记忆」能力,这被认为是评估模型记忆能力的一个上限,并已在多项研究中作为通用定义。研究者对Gemma预训练模型进行了记忆测试。具体来说,他们从每个数据集中随机选择了10,000篇文档,并使用文档开头的50个词元作为模型的prompt。测试重点是精确记忆,即如果模型能够基于输入,精确地生成接下来的50token,与原文完全一致,便认为模型「记住了」这段文本。此外,为了探测模型是否能够以改写的形式记忆信息,研究者还测试了模型的「近似记忆」能力,即允许在生成的文本和原文之间存... PC版: 手机版:

封面图片

一年狂揽73亿美元投资 Anthropic点燃硅谷大模型“战火”

一年狂揽73亿美元投资 Anthropic点燃硅谷大模型“战火” Anthropic发布的跑分显示,Opus在多项基准测试中得分都超过了GPT-4 和Gemini 1.0 Ultra,拥有接近人类本科生水平的知识,“在数学、编程、多语言理解、视觉等多个维度树立了新的行业基准”。自去年3月GPT-4发布后,其一直是行业的最高标准以及追赶目标,此次Claude 3的出现,意味着其Top 1地位可能不保,不少人发出“GPT-4时代已过”的感叹。不过,天使投资人、资深人工智能专家郭涛对第一财经表示,这可能是一种过于过激的说法,GPT-4在许多应用中可能会比 Claude 3 更适合。开源大模型生态社区OpenCSG的创始人陈冉也并不认可“时代已过”,他表示,这是一个层级和另外一个层级比,毕竟GPT-4已经出来很长一段时间了。Claude 3之后,大家自然地将目光投向了OpenAI,GPT-5或许已经不远,这是“暴风雨前的宁静”。全面超越GPT-4?据Anthropic官方发布的跑分结果,Claude 3 Opus在本科级别专业知识(MMLU)、研究生级别专家推理(GPQA)、基础数学(GSM8K)等领域都超过了GPT-4在内的领先模型。事实真的如此吗?在Claude 3发布后,陈冉进行了试用和测评,在用他自己的一套方法测试了Opus的逻辑推理、代码等能力后,他认为,Claude 3的整体性能相比GPT-4平均提升了50%以上,包括“幻觉”、正确率和非正确率方面的表现等。从大模型胡乱回答问题的“幻觉”这一项来看,Claude3相比GPT-4要好很多,另外,在 GPT-4中,有些问题不会被回答,但在Claude 3中其回答的正确率提高了。在代码能力和推理上,陈冉测试了贪吃蛇游戏、扑克游戏等,他对第一财经表示,在这些方面GPT-4都失败了,但Claude 3 Opus做到了。在陈冉看来,此次Anthropic的发布策略很好,一次性推出三个不同性能的大模型,最出色的大模型打分都比GPT-4高,较小的模型打分也不低,而在成本上相对轻量的两个模型会比GPT-4便宜。Anthropic此次发布的Opus、Sonnet和Haiku分别针对不同的性能需求和成本效益。据官方介绍,Opus是最智能的模型,可以处理复杂的分析、具有多个步骤的较长任务以及高阶数学和编码任务;Sonnet是性能和速度的最佳组合,可实现高效、大体量的任务;Haiku是最快且最具成本效益的模型,可以执行轻量级操作,具有行业领先的速度。在成本上,能力最好的Claude 3 Opus比 GPT-4 Turbo 还要贵得多:GPT-4 Turbo 每百万token的输入/输出费用为 10/30 美元 ,而 Claude 3 Opus为 15/75 美元。不过,也有更具性价比的选择,Claude 3系列中,Sonnet的输入/输出定价是3 美元/15 美元,Haiku是0.25 美元/1.25 美元。值得一提的是,此次发布的Claude 3系列模型都支持 200k的上下文窗口, Anthropic还特别表示,在这个基础上,所有三个模型都能够接受超过 100 万tokens的输入,会提供给有特定需要的客户。作为对比,2023年更新的GPT-4窗口文本容量限制是32k,而2023年11月更新的GPT-4 turbo版能够接收128k的输入,相当于10万字的小说长度。对大模型来说,上下文窗口的文本长度越大,意味着其能更好地理解长篇文章或对话。此前,上海人工智能实验室领军科学家林达华对第一财经介绍,有了长语境交互,大模型能够读几百页的财报,将里面一些非常细致的信息精准提取出来形成摘要,或者听一场几个小时的会议转录,并将会议的关键信息摘取出来,对于大模型的落地很有用。基于Claude 3在多项能力上超越了GPT-4,行业这两天也出现了“GPT4时代已过”的声音,不过,郭涛认为,Claude 3 在某些基准测试中超过了 GPT-4,并不意味着 GPT-4 的时代已经过去,一方面基准测试并不能全面反映一个模型的全部能力,例如创造性写作、情感理解或特定领域知识方面的表现;另一方面,GPT-4在许多应用中可能会比 Claude 3 更适合,“而OpenAI也在不断研发新的技术和模型,很难说 GPT-4 的时代已经过去。”能与OpenAI一较高下吗对于Claude3这次的超越,在惊叹其表现之余,业界没有太多的意外,Anthropic过去一直被视为OpenAI最大的竞争对手之一。Anthropic的核心团队来自OpenAI,其创始人达里奥·阿莫迪(Dario Amodei)曾是OpenAI的研究副总裁,也是一位与高效利他主义社区有联系的研究员,因对OpenAI的未来方向有一些分歧而离开,并在2021年成立了Anthropic,计划以可信、安全可控的方式发展AI。Anthropic是目前除OpenAI外最被看好的大模型初创公司之一。在过去一年,Anthropic狂揽约73亿美元的投资,其中,亚马逊、Google作为最主要的投资者,分别投资了40亿美元和20亿美元,韩国电信巨头SK下注约1亿美元。就在过去一个月,Anthropic再次获得7.5亿美元的投资,来自硅谷风投机构Menlo Ventures。在未来与OpenAI的竞争中,陈冉认为Anthropic的胜面不小,一方面,其团队在算法上与OpenAI几乎没有差距,且Anthropic背后有亚马逊、Google这样的靠山,算力方面也并不缺,其次,作为背后投资者亚马逊拥有许多生态和场景,相应也能提供很多高质量的数据。陈冉认为,现在大模型竞争最关键的是数据,数据的质量越高越能训练好模型。“最终Claude有可能会赢。因为特色是合规和安全。”在Claude3发布后次日,陈冉在朋友圈表示。相比GPT-4等模型,Claude对安全的强调尤为明显。在技术文档中,Anthropic表示,Claude在训练过程中重点是有帮助、无害和诚实,Anthropic通过给模型一个想法来做到这一点,即一套伦理和行为原则,模型使用这些原则来指导其输出,以避免性别歧视、种族主义和有害的产出,以及避免帮助人类从事非法或不道德的活动。此外,Anthropic还会有安全评估,信任和安全团队会监控违反原则的有害、恶意用例的提示和输出。对于Anthropic未来是否能和 OpenAI 一较高下,郭涛认为这主要取决于几方面的因素。一方面,持续的研发和创新是保持竞争力的关键。如果 Anthropic 能够持续推出先进的技术和改进,它有可能在市场上与 OpenAI 竞争。另一方面,AI 大模型的成功不仅取决于核心技术,还取决于能够建立广泛的生态系统和合作伙伴关系,他认为,OpenAI 在这方面有着较强的影响力和网络效应。此外,如何在商业模式和市场策略上进行创新和调整,也是决定未来竞争格局的重要因素。“大家有共识目前Claude 3已经在部分能力上超越GPT-4,但具体未来能不能比GPT系列好,拭目以待。”陈冉说。Claude 3出现了,GPT-5还会远吗?在Claude 3发布后不久,英伟达高级科学家Jim Fan就在X上发文调侃,“正在等待几个小时后精心安排的GPT-5的发布”。Jim Fan随后表示,“我喜欢Claude在GPT和Gemini主导的竞技场上掀起热度。但请记住,GPT-4V这个每个人都迫切想要超越的高水位线,是在2022年完成训练的。这是暴风雨前的宁静。” ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人