吴恩达的另一个Ai课,之前用LangChain搭建过自己的问答小模型,十行代码就搞定了。

吴恩达的另一个Ai课,之前用LangChain搭建过自己的问答小模型,十行代码就搞定了。 吴恩达和LangChain 官方合作的新的“用于LLM应用开发的LangChain”的课程的全部课程《模型、提示语和解析器、链式》(中英文字幕) 1-8课全部都翻译好了,仅供学习交流,严禁用于商业用途 百度网盘链接:提取码: bgm3 阿里云盘链接:

相关推荐

封面图片

吴恩达公布了三门新的AI短课程,限时免费中

吴恩达公布了三门新的AI短课程,限时免费中 - 使用 ChatGPT API 构建系统 - 使用 Langchain 构建应用 - 扩散模型的工作原理 特别是 langchain 的课程和资料,应用开发者都应该看看。 学习地址

封面图片

吴恩达和OpenAI合作的新的“使用ChatGPT API构建系统”的课程的全部课程《大语言模型、ChatGPT API格式和T

吴恩达和OpenAI合作的新的“使用ChatGPT API构建系统”的课程的全部课程《大语言模型、ChatGPT API格式和Token介绍》(中英文字幕) 1-11课全部都翻译好了,搞了好几个小时 链接:提取码: 22b7

封面图片

吴恩达公布了三门新的AI课程

吴恩达公布了三门新的AI课程 - 使用 ChatGPT API 构建系统 - 使用 Langchain 构建应用 - 扩散模型的工作原理 特别是 langchain 的课程和资料,应用开发者都应该看看。 Andrew Ng: 1/Thrilled to announce: 3 new Generative AI courses! * Building Systems with the ChatGPT API, with OpenAI’s @isafulf * LangChain for LLM Application Development, with LangChain’s @hwchase17 * How Diffusion Models Work, by @realSharonZhou Check them out:

封面图片

面向开发者的 LLM 入门课程 | 这个库存放吴恩达大模型系列课程中文版,包括《Prompt Engineering》、《Bui

面向开发者的 LLM 入门课程 | 这个库存放吴恩达大模型系列课程中文版,包括《Prompt Engineering》、《Building System》和《LangChain》 。 《ChatGPT Prompt Engineering for Developers》、《Building Systems with the ChatGPT API》、《LangChain for LLM Application Development》等教程 作为由吴恩达与 OpenAI 联合推出的官方教程,在可预见的未来会成为 LLM 的重要入门教程,但是目前还只支持英文版且国内访问受限,打造中文版且国内流畅访问的教程具有重要意义;同时,GPT 对中文、英文具有不同的理解能力。本教程在多次对比、实验之后确定了效果大致相当的中文 Prompt,支持学习者研究如何提升 ChatGPT 在中文语境下的理解与生成能力。

封面图片

吴恩达课程出的和母猪下仔一样,新课《深入了解量化》发布。

吴恩达课程出的和母猪下仔一样,新课《深入了解量化》发布。 将从零开始学习实现线性量化的不同形式,包括非对称和对称模式。 课程还将指导如何在不同的维度(如单个张量、单个通道、单个组)上进行量化,以确保性能不受影响。 学习构建量化器,将任何开源深度学习模型的密集层压缩至8位精度。 通过将四个2位的权重打包进一个8位的整数中,实践如何将权重量化至2位。 课程地址:

封面图片

吴恩达:美国加州AI安全法案将扼杀开源大模型

吴恩达:美国加州AI安全法案将扼杀开源大模型 例如,根据该法案的定义,Meta的Llama-3被定义为超过1亿美元训练成本的“前沿模型”。如果有人将该模型用于非法用途,Meta也会受到严重处罚。咱们2000多年前大秦的连坐制度,咋还出口了呢~加州的地理位置非常特殊,这里既有斯坦福、加州理工、南加州大学等名校,也是Google、苹果、OpenAI、Meta等科技巨头总部的所在地,所以,该法案也受到了吴恩达、Yann LeCun等AI界泰斗的抵制。例如,该法案中的22603(a)(3)(4)条要求"有限职责豁免"向政府部门提交证明,并在有错误时停止模型的运行;第22603(b)条要求开发者需要报告任何模型的潜在的AI安全事故。如果开发者无法完全掌控基于其模型的各种衍生版本,若发生安全事故,责任将归属于第一开发者。也就是说,开发者需要对模型的能力做出保证,一旦大模型开源后被他人修改,能力发生变化,会面临合规风险的处罚。所以,企业、个人开发者在开源大模型权重时会非常谨慎,这相当于是一个连带责任。此外,该法案中的22604(a)(b)规定,当用户使用其“前沿模型”和算力资源时,开发者需要提交客户的所有资料,包括客户的身份、信用卡号、账号、客户标识符、交易标识符、电子邮件、电话号码。同时,每年都要提交一次资料,并对用户的行为、意图进行评估。用户的所有资料会被备份7年,也会在海关、边境总署备案。而开发者也需要具备紧急停止大模型的能力,例如,用户使用其模型用于别的业务场景,可以不用通过用户本地直接关闭模型。像这种严格的监管条例还有不少,无形之中会加重企业、开发者对大模型的合规成本和开放权重的态度。尤其是那种“秦朝连坐制度”,用户使用了你的模型开发了其他潜在危险的应用,特别是这个判定还很模糊,那么第一开发者弱没有“豁免权”将会一起被处罚,真的是挺离谱的。对于SB-1047法案的拟定,吴恩达发表了一篇深度长文进行回应。他表示,该法案中有很多问题,首先就是危险范畴定义不合理,如果有人使用他们的模型做超出规定的事情,原作者一起被处罚。此外对造成的伤害定义也不太好,例如,造成5亿美元的损失,这在AI领域还是很难实现的。如果最终议会通过了这个方案,那么将会对AI大模型领域造成很大影响,将彻底扼杀开源大模型的技术创新。吴恩达进一步指出,应该监管的是AI应用程序而不是大模型本身。例如,电机是一种技术。当我们把它放在搅拌机、电动汽车、透析机或导弹中时,它就成为了一种应用。如果我们通过法律规定,如果任何人以有害的方式使用电机,制造商将承担相应的责任。那么,电机制造商要么关闭生产,要么将电机的性能制造的非常小,难以大范围应用。SB-1047法案似乎没有考虑过大模型有益处的应用,而是全部针对他的有害来处理的,这是不公平的。如果这样的监管法案最终通过了,可能会阻止人们使用电机制造导弹,但我们也会失去使用搅拌机、电动汽车和透析机的机会。吴恩达在最近演讲中谈SB-1047更大的忧虑是,加州的SB-1047法案一旦通过,其他州可能会效仿,整个负面影响会不断扩大。图灵奖获得者、Meta首席科学家- Yann LeCun直言,SB-1047法案意味着,加州的科技产业将直接面临终结。知名架构师Daniel Jeffries也赞成Yann的观点,并发表长文强烈呼吁加州议会对SB-1047法案提反对票。并且认为,SB-1047根本就不是一个法案,就是一个“特洛伊木马”。原因很简单,这是由一群小范围利益群体制定的规则,他们坚信AI大模型会带来“世界毁灭”,完全不顾他的好处。此外,他提出中国已经具备与OpenAI等科技巨头竞争的大模型,在电动汽车、自动驾驶、城市AI大脑皆处于领先地位。这个方案要是通过了,将直接压制美国AI领域的发展进程。普通用户对SB-1047法案也是相当抵制的,这个法案的最终目的,就是让第一开发者为自己的大模型永久负责,并保证不会出现任何危险。这简直是难以执行的监管,会严重影响开源领域的发展。同时嘲讽道,让一群平均年龄63岁的人,来监管AI大模型有点不靠谱啊~~也有人建议,不行就把开源大模型这事交给中国来做吧,Quen 2、零一万物等开源大模型的性能已经和GPT-4、GPT-4o等旗鼓相当。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人