吴恩达:美国加州AI安全法案将扼杀开源大模型
吴恩达:美国加州AI安全法案将扼杀开源大模型例如,根据该法案的定义,Meta的Llama-3被定义为超过1亿美元训练成本的“前沿模型”。如果有人将该模型用于非法用途,Meta也会受到严重处罚。咱们2000多年前大秦的连坐制度,咋还出口了呢~加州的地理位置非常特殊,这里既有斯坦福、加州理工、南加州大学等名校,也是Google、苹果、OpenAI、Meta等科技巨头总部的所在地,所以,该法案也受到了吴恩达、YannLeCun等AI界泰斗的抵制。例如,该法案中的22603(a)(3)(4)条要求"有限职责豁免"向政府部门提交证明,并在有错误时停止模型的运行;第22603(b)条要求开发者需要报告任何模型的潜在的AI安全事故。如果开发者无法完全掌控基于其模型的各种衍生版本,若发生安全事故,责任将归属于第一开发者。也就是说,开发者需要对模型的能力做出保证,一旦大模型开源后被他人修改,能力发生变化,会面临合规风险的处罚。所以,企业、个人开发者在开源大模型权重时会非常谨慎,这相当于是一个连带责任。此外,该法案中的22604(a)(b)规定,当用户使用其“前沿模型”和算力资源时,开发者需要提交客户的所有资料,包括客户的身份、信用卡号、账号、客户标识符、交易标识符、电子邮件、电话号码。同时,每年都要提交一次资料,并对用户的行为、意图进行评估。用户的所有资料会被备份7年,也会在海关、边境总署备案。而开发者也需要具备紧急停止大模型的能力,例如,用户使用其模型用于别的业务场景,可以不用通过用户本地直接关闭模型。像这种严格的监管条例还有不少,无形之中会加重企业、开发者对大模型的合规成本和开放权重的态度。尤其是那种“秦朝连坐制度”,用户使用了你的模型开发了其他潜在危险的应用,特别是这个判定还很模糊,那么第一开发者弱没有“豁免权”将会一起被处罚,真的是挺离谱的。对于SB-1047法案的拟定,吴恩达发表了一篇深度长文进行回应。他表示,该法案中有很多问题,首先就是危险范畴定义不合理,如果有人使用他们的模型做超出规定的事情,原作者一起被处罚。此外对造成的伤害定义也不太好,例如,造成5亿美元的损失,这在AI领域还是很难实现的。如果最终议会通过了这个方案,那么将会对AI大模型领域造成很大影响,将彻底扼杀开源大模型的技术创新。吴恩达进一步指出,应该监管的是AI应用程序而不是大模型本身。例如,电机是一种技术。当我们把它放在搅拌机、电动汽车、透析机或导弹中时,它就成为了一种应用。如果我们通过法律规定,如果任何人以有害的方式使用电机,制造商将承担相应的责任。那么,电机制造商要么关闭生产,要么将电机的性能制造的非常小,难以大范围应用。SB-1047法案似乎没有考虑过大模型有益处的应用,而是全部针对他的有害来处理的,这是不公平的。如果这样的监管法案最终通过了,可能会阻止人们使用电机制造导弹,但我们也会失去使用搅拌机、电动汽车和透析机的机会。吴恩达在最近演讲中谈SB-1047更大的忧虑是,加州的SB-1047法案一旦通过,其他州可能会效仿,整个负面影响会不断扩大。图灵奖获得者、Meta首席科学家-YannLeCun直言,SB-1047法案意味着,加州的科技产业将直接面临终结。知名架构师DanielJeffries也赞成Yann的观点,并发表长文强烈呼吁加州议会对SB-1047法案提反对票。并且认为,SB-1047根本就不是一个法案,就是一个“特洛伊木马”。原因很简单,这是由一群小范围利益群体制定的规则,他们坚信AI大模型会带来“世界毁灭”,完全不顾他的好处。此外,他提出中国已经具备与OpenAI等科技巨头竞争的大模型,在电动汽车、自动驾驶、城市AI大脑皆处于领先地位。这个方案要是通过了,将直接压制美国AI领域的发展进程。普通用户对SB-1047法案也是相当抵制的,这个法案的最终目的,就是让第一开发者为自己的大模型永久负责,并保证不会出现任何危险。这简直是难以执行的监管,会严重影响开源领域的发展。同时嘲讽道,让一群平均年龄63岁的人,来监管AI大模型有点不靠谱啊~~也有人建议,不行就把开源大模型这事交给中国来做吧,Quen2、零一万物等开源大模型的性能已经和GPT-4、GPT-4o等旗鼓相当。...PC版:https://www.cnbeta.com.tw/articles/soft/1434999.htm手机版:https://m.cnbeta.com.tw/view/1434999.htm