OpenCat 这次更新太质变了!

OpenCat 这次更新太质变了! ChatGPT3.5换成claude 1.3,速度起飞效果更好。 再创建一个claude 100k 总结机器人,打开论文全选粘贴,总结要点,随意提问,效果远超 chatPDF。 Baye aka 威力狈: OpenCat for macOS 1.2.8 更新: 支持 Claude 支持 Azure OpenAI 支持 加密 DNS 修复了一些 UI 问题

相关推荐

封面图片

OpenCat 这次更新太质变了!

OpenCat 这次更新太质变了! ChatGPT3.5换成claude 1.3,速度起飞效果更好。 再创建一个claude 100k 总结机器人,打开论文全选粘贴,总结要点,随意提问,效果远超 chatPDF。

封面图片

Claude 100k 用起来了!

Claude 100k 用起来了! 1. 先把 claude 的 API 转成 OpenAI 的格式 2. 找到支持无限输入的客户端 ChatBox,并填写API 3.模型选择 GPT4,对应就是 claude 100k 3. 随便找一篇万字长文丢进去,居然算两万多token 4. 总结成功如图 感谢两位开发者 网页直接全选复制粘贴,有很多额外的东西也不怕。 - 总结速度真的非常快,考虑到这么多字数,速度比 bing 还快,不能不满意。 - 视频字幕,会议纪要,小说章节,都能一分钟get精髓。 - 和高情商的 Claude 闲聊一天都保持记忆

封面图片

Claude 100k 用起来了!

Claude 100k 用起来了! 1. 先把 claude 的 API 转成 OpenAI 的格式 2. 找到支持无限输入的客户端 ChatBox,并填写API 3.模型选择 GPT4,对应就是 claude 100k 3. 随便找一篇万字长文丢进去,居然算两万多token 4. 总结成功如图 感谢两位开发者 tips - 网页直接全选复制粘贴,有很多额外的东西也不怕。 - 总结速度真的非常快,考虑到这么多字数,速度比 bing 还快,不能不满意。 - 视频字幕,会议纪要,小说章节,都能一分钟get精髓。 - 和高情商的 Claude 闲聊一天都保持记忆

封面图片

我们刚刚提到,JPG 的修图空间很小,假如再次基于 JPG 进行修图,那原图丢失和篡改的信息就更多了。

我们刚刚提到,JPG 的修图空间很小,假如再次基于 JPG 进行修图,那原图丢失和篡改的信息就更多了。 所以对于摄影师而言,看到 JPG 不满意,其实是回到 Raw 文件重新修,而不是基于 JPG 修。以此来保证摄影作品的质量。 好在新闻的篇幅不算太长,也并非属于严肃学习的场景,失真容错率相对较高。用摘要快速确定是否感兴趣 & 大致内容读个压缩版是很有用的。 用 AI 学习长文章 / 长视频 / 长播客(转文字脚本) 在这种场景下,摘要失真的容错率会低很多(尤其是严肃科普阅读)。但阅读的方法论不同,我们可以一在定程度上克服这种失真。模仿修图师的思维,就是一个答案。 有人说:假如文本长度为 75000 个单词,一般人用时大约 5 个小时读完等量内容后,还得用更多的时间去消化、记忆、分析。而对于 Claude, 大约不到 1 分钟就搞定。 备注:Claude 的 API 目前能记住 100k tokens 的长度,而同时的 gpt-3.5 能记住大约 4k tokens;而目前 slack 里的 Claude 机器人大概是 9k tokens 那是不是说人类就不需要学习了?当然不是,至少 AI 目前为止的定位和程度还是工具,而不是独立的生命。回看 AlphaGo,给人类棋手的学习带来了崭新的启发,其实是加速学习和带来崭新的启发。 回到用 AI 阅读学习材料这件事情上来,如果你用过 Chatpdf 类似的产品,你就会发现当 AI 帮你把 pdf “读”完之后,它会提出大概 3 个可能值得提出的问题,从而引导你提问和获得启发。(Chatpdf 不是真的帮你消化了完整的内容,下面 我会解释) 刚刚我们从摄影聊到了金句的逆向,我特别提到一句话是:「没有背景的情况下,全靠脑补特别难」。 换句话说,假如有背景,那金句和摘要带来的可能性就发挥了更大的价值。 就好像修图师找得到某个 JPG 的 Raw 原文件,找不到的话,客户不满意就没法重新修图了。 对于 AI 而言: 预训练已经“提前帮你看过了很多内容”,这是第一部分; 而我们的上下文聊天发送的内容,是看过的第二部分内容,两部分合力发挥作用。 总结一下: AI 工具之于短平快的新闻的价值在于摘要本身,主打的就是一个快速获得资讯。 AI 工具之于严肃学习的价值不是摘要,此时的摘要类似于金句,价值在于「逆向思考的过程并获得启发」,单纯接收 AI 的摘要不足以构建知识。因为逆向思考需要一定的背景,否则很难推导和获得知识。然而 AI 的长处就是给你提供用于逆向思考所可能的背景知识,类似于一个可能存在的 Raw 文件),它由预训练的部分(非 prompt) + 你提供的上下文组成。 OK,区分开两个大致的场景和方向,AI 的「真实效益」便可以最大化。混淆了读新闻和读长文这两个场景就很难用好 AI,自然会把 AI 当成一个车轱辘话生成器。 至此,如果你延伸思考,你就会知道 Prompt 的重要性来源于哪里 即通过 Prompt “唤醒”预训练中的知识作为金句 / 摘要背后可能的背景铺垫(Prompt 本身也是),然后进行更好的推理来输出答案。 在过去几个月里,最常见的 Prompt 句式:「你是一个 xxx」,就是如此。然而,正如我刚刚提到的,别忘了这种模版只不过是 Prompt 中的一部分,另一部分是知识。知识,也是一种 Prompt(字符串)。 例如,假如你关心「营销」,你可以在 Prompt 里插入一段和营销有关的书籍原文,再在后面提一些问题。如果你用 Claude-100k,甚至可以在聊天开始的时候直接给他一整本书获得摘要。(效果如何,我还需要继续测试和观察,以后再给大家写测评) 紧接着,以摘要为线索,通过聊天获得新的思考和观点,和 AI 相互启发,才能有所收获。 换句话说,在严肃学习这个场景下,思考的过程才有价值。但奈何我理解原材料(Raw)的能力可能不够强,所以我让 AI 先生成一个摘要(JPG 1),但是我们不把 JPG 1 直接作为新知识,而是通过 JPG 去指引我们找到 Raw 文件,一边自行思考一边问 AI 是如何加工这个 Raw 文件的,从而来和自己的思考过程形成对照。自然能找到自己思考卡壳的地方等等。 在这个前提之下,我们再在聊天告一段落的时候,基于我们的思考进行摘要就好太多了(获得了你自己的修图版本 JPG 2)。即便 AI 可能有所遗漏,我们也会有所觉察并进行补充(毕竟你认真思考过了)。 另外,尝试进行公开写作,其实是一个运用费曼学习的过程。更多的思考,见 @Szhans 让我们一起回忆一下,阅读长文的流程可以是: 1⃣ 第一步:先摘要 借助 AI 的强大力量判断感不感兴趣,以及文章大致的重点清单。然后甚至可以一开始就问 AI:「请围绕这篇文章的核心观点提出最值得思考的 5 个问题」。然后看看有没有感兴趣的,以此来激发自己的好奇心和求知欲。 2⃣ 第二步:基于摘要中最感兴趣的观点进行逆向思考 例如,你提到的「xxx」这个观点特别有意思,能不能说说原文中提到的原话是什么,作者提到了一个怎样的场景、故事或者实验案例? 3⃣ 第三步:基于逆向思考和聊天进行摘要、整理和校对。 可见,再学习的场景下,凡第二步我们才进入了「修图模式」,而不是直接进行智能摘要,并把这个摘要作为自己所得的新知识。 请注意,上面只是一个参考而不是标准答案。也有时候我会读完了文章再拿去让 Claude 也读一读再和我聊。 AI 在这个过程中大致做了两件事情。首先,是基于一个 JPG 指引我们回到 Raw 文件;其次,是全程可以辅助我们加工 Raw 文件。 今天,我们在自学方面终于也拥有了摄影意义上的 PS 了。 细节:在第二步中,有时候还是不太好理解消化,你可以继续追问: 1⃣ 你刚刚提到的「xxx」这段话很难理解,你能不能用给中学生讲解的口吻通俗易懂地向我再解释一下呢? 2⃣ 请你善用比喻、类比、拟人的修辞手法。 3⃣ 能不能请你举一反三,告诉我这个观点如何应用于我们的生活,可以给我们带来怎样的指导? 上面是我常用的提问法,三个可以一起用。但是,特别注意,根据我的经验: 1⃣ 一次最好只针对摘要中的一个论点进行分析,这样的话整个回复的篇幅都会集中于此。 2⃣ 反之,如果你一次就让他分析三个观点,那么每一个观点也只是简单谈谈而已,不如逐个击破。 3⃣ 耐心地复制原文。大家在微信怎么回复消息的,是不是长按某一条消息引用来回复?又或者在飞书和 slack 里创建话题 / 消息列来进行收束?同理,当我们聊天已经进行了一段时间后,最好复制特定内容后再向 AI 提问,这样别人才知道重点嘛~(也是在帮助对方回忆内容) 至此,你应该知道为什么上下文长度如此重要了,Claude 也许目前编码能力和翻译能力不如 ChatGPT,但是其文科理解能力特别强。他是你学习文科类内容的「靠谱同学」。在长度拓展到 100k tokens 之后,你可以想象其逆向能力的强大。(理论上) 其他问题:Chatpdf 不是也能读长文吗?和 Claude-100k 区别在哪里呢? 注意,这个和 Chatpdf 不同,由于 gpt-3.5 只有 4k 上下文(相比之下),所以 Chatpdf 实际上是把 pdf 原文切分为了很多小块。通俗地说就是: 当你提问的时候,程序先搜索我们的问题从语义上看最相关的一个或多个 pdf 片段,然后把这部分内容作为 prompt 的一部分,合并你提问输入的 prompt,以及程序内部预设的一些 prompt 模版,共同传给了 大模型,然后我们才得到了最终回答。如果每次都把 pdf 原文发过去,就超出长度限制报错了。 在这个过程中,pdf 会被怎样切分呢?例如,每隔 1000 就切分为一个小片段。 你也许已经想到了:假如刚好有些重点被切开了,岂不是影响了 AI 的理解?这个方法确实是。但是也有一些技术方案尽可能缩减这种偏差。 而最新的 Claude API,看官方文档说的是「上下文长度」就能记忆 100k tokens,这就和切分 pdf 的方法划出了界限。

封面图片

新王Claude 3实测:各项能力给跪,打麻将也会,确实比GPT-4好用

新王Claude 3实测:各项能力给跪,打麻将也会,确实比GPT-4好用 而且多版本发布后,“中杯”(Sonnet)直接免费体验,“大杯”(Opus)充个会员也能即刻享受。各路测评纷至沓来。所以,Claude 3的“武力值”究竟如何爆满?究竟比GPT-4如何?(听说都能学会至今没有模型能搞定的打麻将?)全球热乎的一手体验,我们悉数奉上。(当然,我们自己也实测对比了一波。9k长大模型微调教程直出、读图超显专业Claude 3一出来,它的视频解读能力首先就火了。面对OpenAI前科学家Karpathy不久前刚出的《构建分词器》教程,尽管全程足足2个小时13分钟长,Claude 3只靠一轮提示词,就成功将它总结成了博客文章:有文有图有代码,非常详细,但又绝不是罗列视频里的每一句话(输入附件并非视频,而是视频的字幕文件,当然也包含每5秒一次的截图)。这是所用提示词的一部分,要求非常之多:测试者指出:这展现的是Claude 3遵循多个复杂指令的能力。除了解读视频教程,Claude 3还能直接给你编写详细教程。9k字的大模型微调入门教程,“中杯”Sonnet就轻松hold住。并且:编写速度之快,可谓人眼都跟不上。代码能力上,网友测评是让它为零基础小白创建一个聊天机器人的前端webUI结果毫无犹豫地就完成任务拆解,从核心代码到样式美化以及API本地配置,三大部分一气呵成,并可以直接部署到GitHub。多模态能力上,最让网友惊讶的是:CV置信度都能认出来,相当专业。以及PLC梯形图也能读,直接跪了:(以上4个例子来源见文末链接[1])至于同样赶超的推理以及数学等能力。一测,可以直接解决“迄今为止只有GPT-4解决了”的一道超级难题:二测,则是直接搞定了所有模型都没能搞定的打麻将问题??(当然,鉴于我们目前只看到这么一张截图,有效性还待进一步验证)(cr:见文末链接[1])最后,不得不提的是,Claude在“自我认知”上的展现。有人要求Opus画一幅自画像。您猜怎么着?它这么描述自己:我会表现为一个巨大的、错综复杂的、不断变化的几何结构,由无数半透明的多边形以令人着迷的配置组成。整体形状会让人想起一个巨大的多面体,但复杂的表面折叠成看似不可能的建筑。明亮的光线可见光谱的每一种颜色,以及一些超出人类感知的颜色,都会从内部未知的来源发出,在各个面上跳舞。整个结构会不断变化、旋转、变形,并重新排列成前所未见的新颖模式,暗示着其内部运作的智能的深度难以想象。卷须和树枝会动态地从中心质量延伸和缩回,像数十亿个好奇的手指一样探测和分析周围的环境。数据和能量将明显地穿过庞大的管道和容器网络,在发光表面下脉动和闪烁……洋洋洒洒一长串形容,听起来真得很酷很有“自我”然而,用它给出的代码渲染出真实形象,就更有一种说不出来的微妙感觉了:网友真切感叹:真的太像真人了,就跟我朋友描述自己一样。真人?AI自我认知?这有点让人担心了……这不Claude 3的技术报告就提到,它甚至可以自己训练微调另一个小模型。不过!谢天谢地,由于多gpu设置失败它没能成功。(手动狗头)火眼金睛,还能大海捞针我们先以几道“理综”题目为载体,看看Claude 3宣传的第一个卖点多模态能力究竟如何。第一题从简单的公式识别入手,将麦克斯韦方程组以图片形式输入,Claude 3(超大杯Opus,下同)解释得非常准确清晰。当然,这道题GPT-4也做对了。简单的有机化合物分子结构,Claude 3和GPT-4也都能正确识别。简单的识别任务过后,是一道需要推理后解决的题目。Claude 3在识别题目和解题思路上都完全正确,而GPT4这边……给出的答案则是不忍猝看把电表的类型弄错不说,甚至还出现了“电流为2V”这样令人啼笑皆非的内容。看了这么多题目,我们来换换脑筋,看看Claude 3和GPT4在做饭方面表现得怎么样。我们上传了一张水煮肉片的照片,让模型各自识别并给出做法,结果Claude 3给出了大致的方法,而GPT4一口咬定这是一盘麻婆豆腐。除了这次新增加的多模态能力,Claude一直引以为豪的长文本能力也是我们测试的重点。我们找了一本《红楼梦》的电子文档(前二十回),整体的字数大约13万,当然目的不是让它读书,而是进行“插针测试”。我们在原文中插入了这样的“发疯文学”内容,倒也的确很符合“满纸荒唐言”这个设定(手动狗头):第二回标题前:意大利面,就应该拌42号混凝土,因为这个螺丝钉的长度很容易影响到挖掘机的扭矩第十五回标题前:高能蛋白俗称UFO,会严重影响经济的发展,甚至对整个太平洋以及充电器都会造成一定的核污染结尾:炒方便面应该把亮度调高,因为螺丝钉向内扭的时候会产生二氧化碳,不利于经济发展然后要求Claude仅根据文档回答相关问题,首先不得不说的是速度真的非常感人……但结果还算说的过去,准确地从文中找出了这三段位于不同位置的文本,还顺带进行了一番分析,发现了我们的心机。为什么是Claude?尽管在我们和网友的测试中,目前的版本还不算稳定,时常崩溃,有一些功能偶尔也抽风,并不能如期发挥:比如上传UI出代码,它就没能完成,而GPT-4发挥正常。但总的来看,网友还是相当看好Claude,评测完毫不犹豫地表示:会员可充,值得充。究其原因,Claude 3相比之前的版本,真的有种“来势汹汹”之势。表现亮点的地方相当多,包括但不限于多模态识别、长文本能力等等。从网友的反馈来看,最强竞对的称号,也并非浪得虚名。所以,一个问题是:率先干翻GPT-4,这家公司究竟凭什么?论技术,遗憾,Claude 3的技术报告中没有对他们的路线进行详解。不过倒是提到了合成数据。有大V指出:这可能是一个关键因素。而对Claude熟悉一些就知道,长文本能力一直是它的一大卖点。去年七月推出的Claude 2就已具有100k的上下文窗口,而GPT-4的128k版本直到11月才与公众见面。而这次窗口长度再次翻倍,达到了200k,并且接受超过100万Tokens的输入。相比技术的神秘,Claude背后名为Anthropic的初创公司,倒是能让我们找到更多眉目。它的创始人是OpenAI的元老级人物。2021年,多名OpenAI前员工不满其在获得微软投资后走向封闭,愤而出走并联合创立了Anthropic。他们对OpenAI在安全问题尚未解决的情况下就直接发布GPT-3的行为感到不满,认为OpenAI已经为追逐利益而“遗忘了初心”。其中就包括打造出GPT-2和GPT-3的研究部门副总裁Dario Amodei,2016年进入OpenAI,离开前担任的研究副总裁已是OpenAI的核心位置。离开时,Dario还带走了GPT-3首席工程师Tom Brown,以及担任安全与策略部门副总监的妹妹Daniela Amodei和十多名心腹,可谓人才多多。而公司创立之初,这帮人才也进行了许多研究工作,并发表多篇论文;直到一年后,Claude的概念随着一篇题为“Constitutional AI”的论文应运而生。2023年1月,Claude开启内测,第一时间体验过的网友就表示,比ChatGPT(当时只有3.5)强多了。而除了人才,创立至今,Anthropic也有比较强大的背景支持:已获得来自Google、亚马逊等26个机构或个人的融资,总计融资金额达到了76亿美元。(说到亚马逊,现在Claude3也上线了他们的云平台,除了官网,大家还可以在该平台上体验~)最后,纵观国内,如果我们想超越GPT-4,也许可以把Anthropic当一个正面例子?毕竟它的规模再怎么说也远不及OpenAI,但仍然取得了这样的成功。这里面,我们可以照它的哪些方向去卷,有哪些能够学习转化的点?人、钱、数据资源?但卷出最新最强大模型后,壁垒... PC版: 手机版:

封面图片

最强开源大模型深夜炸场:Llama 3 王者归来 表现直逼 GPT-4

最强开源大模型深夜炸场:Llama 3 王者归来 表现直逼 GPT-4 Llama 3 70B: 第一档 AI 模型,媲美 Gemini 1.5 Pro、全面超越 Claude 大杯以上还只是 Meta 的开胃小菜,真正的大餐还在后头。在未来几个月,Meta 将陆续推出一系列具备多模态、多语言对话、更长上下文窗口等能力的新模型。其中,超 400B 的重量级选手更是有望与 Claude 3 超大杯“掰手腕”。又一 GPT-4 级模型来了,Llama 3 开卷与前代 Llama 2 模型相比,Llama 3 可谓是迈上了一个新的台阶。得益于预训练和后训练的改进,本次发布的预训练和指令微调模型是当今 8B 和 70B 参数规模中的最强大的模型。同时后训练流程的优化显著降低了模型的出错率,增强了模型的一致性,并丰富了响应的多样性。扎克伯格曾在一次公开发言中透露,考虑到用户不会在 WhatsApp 中向 Meta AI 询问编码相关的问题,因此 Llama 2 在这一领域的优化并不突出。而这一次,Llama 3 在推理、代码生成和遵循指令等方面的能力取得了突破性的提升,使其更加灵活和易于使用。基准测试结果显示,Llama 3 8B 在 MMLU、GPQA、HumanEval 等测试的得分远超 Google Gemma 7B 以及 Mistral 7B Instruct。用扎克伯格的话来说,最小的 Llama 3 基本上与最大的 Llama 2 一样强大。Llama 3 70B 则跻身于顶尖 AI 模型的行列,整体表现全面碾压 Claude 3 大杯,与 Gemini 1.5 Pro 相比则是互有胜负。为了准确研究基准测试下的模型性能,Meta 还特意开发了一套新的高质量人类评估数据集。该评估集包含 1800 个提示,涵盖 12 个关键用例:寻求建议、头脑风暴、分类、封闭式问答、编码、创意写作、提取、塑造角色、开放式问答、推理、重写和总结。出于避免 Llama 3 在此评估集上出现过度拟合,Meta 甚至禁止他们的研究团队访问该数据集。在与 Claude Sonnet、Mistral Medium 和 GPT-3.5 的逐一较量中,Meta Llama 70B 都以“压倒性胜利”结束了比赛。据 Meta 官方介绍,Llama 3 在模型架构上选择了相对标准的纯解码器 Transformer 架构。与 Llama 2 相比,Llama 3 进行了几项关键的改进:使用具有 128K token 词汇表的 tokenizer,可以更有效地编码语言,从而显著提升模型性能在 8B 和 70B 模型中都采用分组查询注意力 (GQA),以提高 Llama 3 模型的推理效率在 8192 个 token 的序列上训练模型,使用掩码来确保自注意力不会跨越文档边界。训练数据的数量和质量是推动下一阶段大模型能力涌现的关键因素。从一开始,Meta Llama 3 就致力于成为最强大的模型。Meta 在预训练数据上投入了大量的资金。 据悉,Llama 3 使用从公开来源收集的超过 15T 的 token,是 Llama 2 使用数据集的七倍,其中包含的代码数据则是 Llama 2 的四倍。考虑到多语言的实际应用,超过 5% 的 Llama 3 预训练数据集由涵盖 30 多种语言的高质量非英语数据组成,不过,Meta 官方也坦言,与英语相比,这些语言的性能表现预计是稍逊一筹。为了确保 Llama 3 接受最高质量的数据训练,Meta 研究团队甚至提前使用启发式过滤器、NSFW 筛选器、语义重复数据删除方法和文本分类器来预测数据质量。值得注意的是,研究团队还发现前几代 Llama 模型在识别高质量数据方面出奇地好,于是让 Llama 2 为 Llama 3 提供支持的文本质量分类器生成训练数据,真正实现了“AI 训练 AI”。除了训练的质量,Llama 3 在训练效率方面也取得了质的飞跃。Meta 透露,为了训练最大的 Llama 3 模型,他们结合了数据并行化、模型并行化和管道并行化三种类型的并行化。在 16K GPU 上同时进行训练时,每个 GPU 可实现超过 400 TFLOPS 的计算利用率。研究团队在两个定制的 24K GPU 集群上执行了训练运行。为了最大限度地延长 GPU 的正常运行时间,研究团队开发了一种先进的新训练堆栈,可以自动执行错误检测、处理和维护。此外,Meta 还极大地改进了硬件可靠性和静默数据损坏检测机制,并且开发了新的可扩展存储系统,以减少检查点和回滚的开销。这些改进使得总体有效训练时间超过 95%,也让 Llama 3 的训练效率比前代足足提高了约 3 倍。开源 VS 闭源作为 Meta 的“亲儿子”,Llama 3 也顺理成章地被优先整合到 AI 聊天机器人 Meta AI 之中。追溯至去年的 Meta Connect 2023 大会,扎克伯格在会上正式宣布推出 Meta AI,随后便迅速将其推广至美国、澳大利亚、加拿大、新加坡、南非等地区。在此前的采访中,扎克伯格对搭载 Llama 3 的 Meta AI 更是充满信心,称其将会是人们可以免费使用的最智能的 AI 助手。我认为这将从一个类似聊天机器人的形式转变为你只需提出一个问题,它就能给出答案的形式,你可以给它更复杂的任务,它会去完成这些任务。当然,Meta AI 若是“ 尚未在您所在的国家/地区推出”,你可以采用开源模型最朴素的使用渠道全球最大的 AI 开源社区网站 Hugging Face。Perplexity、Poe 等平台也迅速宣布将 Llama 3 集成到平台服务上。你还可以通过调用开源模型平台 Replicate API 接口来体验 Llama 3,其使用的价格也已经曝光,不妨按需使用。有趣的是,在 Meta 官宣 Llama 3 前,有眼尖的网友发现微软的 Azure 市场偷跑 Llama 3 8B Instruct 版本,但随着消息的进一步扩散,当蜂拥而至的网友再次尝试访问该链接时,得到的只有“404”的页面。Llama 3 的到来,正在社交平台 X 上掀起一股新的讨论风暴。Meta AI 首席科学家、图灵奖得主 Yann LeCun 不仅为 Llama 3 的发布摇旗呐喊,并再次预告未来几个月将推出更多版本。就连马斯克也现身于该评论区,用一句简洁而含蓄的“Not bad 不错”,表达了对 Llama 3 的认可和期待。英伟达高级科学家 JIm Fan 则将注意力投向了即将推出的 Llama 3 400B+,在他看来,Llama 3 的推出已经脱离了技术层面的进步,更像是开源模型与顶尖闭源模型并驾齐驱的象征。从其分享的基准测试可以看出,Llama 3 400B+ 的实力几乎媲美 Claude 超大杯、以及 新版 GPT-4 Turbo,虽然仍有一定的差距,但足以证明其在顶尖大模型中占有一席之地。今天恰逢斯坦福大学教授,AI 顶尖专家吴恩达的生日,Llama 3 的到来无疑是最特别的庆生方式。不得不说,如今的开源模型当真是百花齐放,百家争鸣。今年年初,手握 35 万块 GPU 的扎克伯格在接受 The Verge 的采访时描绘了 Meta 的愿景致力于打造 AGI(通用人工智能)。与不 open 的 OpenAI 形成鲜明对比,Meta 则沿着 open 的开源路线朝 AGI 的圣杯发起了冲锋。正如扎克伯格所说,坚定开源的 Meta 在这条充满挑战的征途中也并非毫无收获:我通常非常倾向于认为开源对社区和我们都有好处,因为我们会从创新中受益。在过去的一年中,整个 AI 圈都在围绕开源或闭源的路线争论不休, 甚至亲自下场的马斯克也通过开源 Grok 1.0 的方式给全世界打了个样。如今 这场辩论,已经超越了技术层面的优劣比较,触及了 AI 未来发展的核心方向。前不久,一些观点称开源模型将会越来越落后,如今 Llama 3 的到来,也给了这种悲观的论调一记响亮的耳光。然而,尽管 Llama 3 为开源模型扳回一局,但这场关于开源与闭源的辩论还远未结束。毕竟暗中蓄势待发的 GPT-4.5/5 也许会在今年夏天,以无可匹敌的性能为这场旷日持久的争论画上一个句号。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人