吴恩达的另一个Ai课,之前用LangChain搭建过自己的问答小模型,十行代码就搞定了。

吴恩达的另一个Ai课,之前用LangChain搭建过自己的问答小模型,十行代码就搞定了。吴恩达和LangChain官方合作的新的“用于LLM应用开发的LangChain”的课程的全部课程《模型、提示语和解析器、链式》(中英文字幕)1-8课全部都翻译好了,仅供学习交流,严禁用于商业用途百度网盘链接:https://pan.baidu.com/s/1du83IfY5iGQPrEO_OTTMTA?pwd=bgm3提取码:bgm3阿里云盘链接:https://www.aliyundrive.com/s/BwaB3S5yoMB

相关推荐

封面图片

吴恩达短课程:LangChain for LLM Application Development

吴恩达短课程:LangChainforLLMApplicationDevelopmenthttps://www.deeplearning.ai/short-courses/langchain-for-llm-application-developmentLangChain其实特别简单,入门就去读它的文档。还有一本免费电子书也推荐一个,https://leanpub.com/langchain/

封面图片

吴恩达公布了三门新的AI课程

吴恩达公布了三门新的AI课程-使用ChatGPTAPI构建系统-使用Langchain构建应用-扩散模型的工作原理特别是langchain的课程和资料,应用开发者都应该看看。AndrewNg: 1/Thrilledtoannounce:3newGenerativeAIcourses!*BuildingSystemswiththeChatGPTAPI,withOpenAI’s@isafulf*LangChainforLLMApplicationDevelopment,withLangChain’s@hwchase17*HowDiffusionModelsWork,by@realSharonZhouCheckthemout:

封面图片

吴恩达课程出的和母猪下仔一样,新课《深入了解量化》发布。

吴恩达课程出的和母猪下仔一样,新课《深入了解量化》发布。将从零开始学习实现线性量化的不同形式,包括非对称和对称模式。课程还将指导如何在不同的维度(如单个张量、单个通道、单个组)上进行量化,以确保性能不受影响。学习构建量化器,将任何开源深度学习模型的密集层压缩至8位精度。通过将四个2位的权重打包进一个8位的整数中,实践如何将权重量化至2位。课程地址:https://www.deeplearning.ai/short-courses/quantization-in-depth/

封面图片

吴恩达:美国加州AI安全法案将扼杀开源大模型

吴恩达:美国加州AI安全法案将扼杀开源大模型例如,根据该法案的定义,Meta的Llama-3被定义为超过1亿美元训练成本的“前沿模型”。如果有人将该模型用于非法用途,Meta也会受到严重处罚。咱们2000多年前大秦的连坐制度,咋还出口了呢~加州的地理位置非常特殊,这里既有斯坦福、加州理工、南加州大学等名校,也是Google、苹果、OpenAI、Meta等科技巨头总部的所在地,所以,该法案也受到了吴恩达、YannLeCun等AI界泰斗的抵制。例如,该法案中的22603(a)(3)(4)条要求"有限职责豁免"向政府部门提交证明,并在有错误时停止模型的运行;第22603(b)条要求开发者需要报告任何模型的潜在的AI安全事故。如果开发者无法完全掌控基于其模型的各种衍生版本,若发生安全事故,责任将归属于第一开发者。也就是说,开发者需要对模型的能力做出保证,一旦大模型开源后被他人修改,能力发生变化,会面临合规风险的处罚。所以,企业、个人开发者在开源大模型权重时会非常谨慎,这相当于是一个连带责任。此外,该法案中的22604(a)(b)规定,当用户使用其“前沿模型”和算力资源时,开发者需要提交客户的所有资料,包括客户的身份、信用卡号、账号、客户标识符、交易标识符、电子邮件、电话号码。同时,每年都要提交一次资料,并对用户的行为、意图进行评估。用户的所有资料会被备份7年,也会在海关、边境总署备案。而开发者也需要具备紧急停止大模型的能力,例如,用户使用其模型用于别的业务场景,可以不用通过用户本地直接关闭模型。像这种严格的监管条例还有不少,无形之中会加重企业、开发者对大模型的合规成本和开放权重的态度。尤其是那种“秦朝连坐制度”,用户使用了你的模型开发了其他潜在危险的应用,特别是这个判定还很模糊,那么第一开发者弱没有“豁免权”将会一起被处罚,真的是挺离谱的。对于SB-1047法案的拟定,吴恩达发表了一篇深度长文进行回应。他表示,该法案中有很多问题,首先就是危险范畴定义不合理,如果有人使用他们的模型做超出规定的事情,原作者一起被处罚。此外对造成的伤害定义也不太好,例如,造成5亿美元的损失,这在AI领域还是很难实现的。如果最终议会通过了这个方案,那么将会对AI大模型领域造成很大影响,将彻底扼杀开源大模型的技术创新。吴恩达进一步指出,应该监管的是AI应用程序而不是大模型本身。例如,电机是一种技术。当我们把它放在搅拌机、电动汽车、透析机或导弹中时,它就成为了一种应用。如果我们通过法律规定,如果任何人以有害的方式使用电机,制造商将承担相应的责任。那么,电机制造商要么关闭生产,要么将电机的性能制造的非常小,难以大范围应用。SB-1047法案似乎没有考虑过大模型有益处的应用,而是全部针对他的有害来处理的,这是不公平的。如果这样的监管法案最终通过了,可能会阻止人们使用电机制造导弹,但我们也会失去使用搅拌机、电动汽车和透析机的机会。吴恩达在最近演讲中谈SB-1047更大的忧虑是,加州的SB-1047法案一旦通过,其他州可能会效仿,整个负面影响会不断扩大。图灵奖获得者、Meta首席科学家-YannLeCun直言,SB-1047法案意味着,加州的科技产业将直接面临终结。知名架构师DanielJeffries也赞成Yann的观点,并发表长文强烈呼吁加州议会对SB-1047法案提反对票。并且认为,SB-1047根本就不是一个法案,就是一个“特洛伊木马”。原因很简单,这是由一群小范围利益群体制定的规则,他们坚信AI大模型会带来“世界毁灭”,完全不顾他的好处。此外,他提出中国已经具备与OpenAI等科技巨头竞争的大模型,在电动汽车、自动驾驶、城市AI大脑皆处于领先地位。这个方案要是通过了,将直接压制美国AI领域的发展进程。普通用户对SB-1047法案也是相当抵制的,这个法案的最终目的,就是让第一开发者为自己的大模型永久负责,并保证不会出现任何危险。这简直是难以执行的监管,会严重影响开源领域的发展。同时嘲讽道,让一群平均年龄63岁的人,来监管AI大模型有点不靠谱啊~~也有人建议,不行就把开源大模型这事交给中国来做吧,Quen2、零一万物等开源大模型的性能已经和GPT-4、GPT-4o等旗鼓相当。...PC版:https://www.cnbeta.com.tw/articles/soft/1434999.htm手机版:https://m.cnbeta.com.tw/view/1434999.htm

封面图片

关于 AI 的顶尖课程(权威且免费,来自吴恩达,coursera,哈佛,斯坦福,谷歌等:

关于AI的顶尖课程(权威且免费,来自吴恩达,coursera,哈佛,斯坦福,谷歌等:ChatGPT开发者提示工程由DeepLearningAI和OpenAI为开发者提供的关于ChatGPTPrompt工程的免费课程。来自@AndrewYNg在这短短的1.5小时课程中,他和@isafulf会教您如何使用大型语言模型(LLM)快速构建应用程序,以及这样做的最佳实践。吴恩达的0基础人工智能入门经典课程面向所有人的AI入门课程,包括非技术人员。还是由吴老师@AndrewYNg和DeepLearningAI在2019年推出,是一个4周的,0基础的系统课程,94万人报名。哈佛CS50使用Python学习AI机器学习的基础知识。为期7周,66万人报名斯坦福CS224N介绍自然语言处理(NLP)及其工作原理。2022年推出,部分课程由克里斯托弗·曼宁老师讲授,斯坦福大学教授、斯坦福自然语言处理组负责人。学习Prompting包含60多个内容模块的提示工程综合课程。带你从初级到高级。机器学习简介Google的免费机器学习入门课程学习AI,通过微软的GitHubCopilot4月25日推出时效性很强为ML新手,使用python语言的工程师准备的LangChain101:Prompts课程您将学习如何:-构建LLMPrompts-构建聊天Prompts-使用Prompts选择器-使用解析器格式化输出

封面图片

资源做投资和人生的高手,投资思维课

资源名称:做投资和人生的高手,投资思维课描述:这门课,是戴老板复盘了上百个案例、跟踪过数百笔交易后,总结提炼出的投资思维框架。它不是简单帮你做预测,而是通过12种思维模型,帮你拓宽视野,用投资视角外观世界、内省人生。课程也并非艰涩的公式,60个经典案例,把知识点融汇串联,用流畅细腻的笔法,像讲故事般说给你听。以投资思维观世界,做投资和人生的高手。不变应万变,从这儿开始。链接:https://www.aliyundrive.com/s/2YD7EaXaEko

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人