为什么全人类都呼吁把通用人工智能“管起来”?

为什么全人类都呼吁把通用人工智能“管起来”?比如,人类该如何算这笔账——AGI让信息渠道充斥宣传甚至谎言;如果是人类本来就喜欢和满意的工作,是否应该被AI取代?而这些效率提升,是否值得我们冒着“失去对文明控制”的风险?而人类针对AGI的监管体系又应该如何搭设?这封信最终的结果是引发了硅谷规模空前的观点撕裂的大讨论。毕竟如果以GPT3.5进入人类社会视野为起点,对于AGI的发展,人类还有太多的盲点没有解决、有太多争议没有达成共识。但当人类还在争吵时,AGI已经开始在全球各地制造麻烦了,虚假信息和信息泄露都像是一个让人不安的庞大黑箱。因此,最近一段时间以来,包括欧美日韩在内的各个信息发达国家都开始了对大模型监管的讨论。而在4月11日,国家互联网信息办公室也发布了《生成式人工智能服务管理办法(征求意见稿)》(以下简称《办法》)。这份《办法》的重要意义在于,它可以算是人类社会面对AGI监管中最早的官方文件之一。而监管视角往往是人们理解AGI中很独特的一个角度:不同于科学家视角有很多参数上的复杂解释体系、有诸多复杂的模型框架流派。监管者是社会利益的代言人,也往往是站在社会整体的角度去思考。因此监管者的思路也往往更接近大部分人朴素的直觉。但它同时又代表了核心专家群体的思考,所以它也能部分回应新事物的很多讨论。所以这份《办法》其实可以成为很多人普通人去理解AGI的一个窗口,他可以帮助我们更好地理解和参与AGI讨论。因为AGI既不是天使,也不是魔鬼。而祛魅后的AGI也将成为我们公共生活中的重要部分。“我是谁”:生成式人工智能如果站在硅谷的角度,AGI约等于大模型。它是通过优化的模型、结构语料库和庞大的算力组合而成,带有一点智慧体思想特征的计算机程序。《文件》对这个“新物种”的划入到了“生成式人工智能”行业,即“基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。”显然这是从AI与社会关系的角度出发。毕竟AGI未来的技术特征会改变,模型大小会浮动,但它最终要追求与社会之间互动的内核不会变。而无论一个模型封闭开发多久,其最终目的都是要面向社会做内容输出。这其实是过去辅助决策、检索、安全、支付等垂直AI与AGI很核心的不同。而从技术远景来看,任何有广泛用户基础的“生成式AI”,其大概率都会是有AGI底层能力的产品。而对于普通人来说,AGI(通用人工智能)这个名词确实也有点太“魅惑”。许多人将AGI与人类智慧相类比,仿佛让人看到了一张“赛博灵魂”,全然忘了AGI只是有一点智慧的苗头,未来的发展其实还有巨大的不确定性。所以与其说我们未来是《西部世界》似的“AGI社会”,不如说我们将迎来一个“生成式人工智能”的世界,这可能更贴近我们这一代人的技术现实。“我属于谁”:服务提供者在AGI伦理讨论中存在一个经典问题:大模型生成的内容,版权到底是属于大模型公司、还是属于辛苦写prompt(提示词)的用户?《办法》虽然没有明确规定版权的归属,但在监管上划出了责任义务,可以供更多人参考。根据《办法》:“利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人(以下称‘提供者’),包括通过提供可编程接口等方式支持他人自行生成文本、图像、声音等,承担该产品生成内容生产者的责任”。如果沿用这个思路,负责人其实既不属于大模型的研发人员、也不属于用户,而是属于连接大模型与用户之间的服务提供者。当然,在大部分情况下AGI的开发者和API提供者应该是同一个主体。但随着技术生态的演进,不同层次的主体可能会变得多元化。明确中间的服务提供者承担责任,其实也符合“生成式人工智能”的官方定义。同时,这样的权责划分其实也倒逼未来上游产业链必须达成足够好的内容互信。AGI的“内容权”:需要标识与版权问题类似的争论是:AGI内容是否可以与人类享受的内容“同权”?《办法》明确对AGI内容做出了限制,出现在了两个地方:·“按照《互联网信息服务深度合成管理规定》对生成的图片、视频等内容进行标识。”·“提供者应当根据国家网信部门和有关主管部门的要求,提供可以影响用户信任、选择的必要信息,包括预训练和优化训练数据的来源、规模、类型、质量等描述,人工标注规则,人工标注数据的规模和类型,基础算法和技术体系等。”关于AGI内容一直存在争议。尤其在GPT内测的时候,系统有时候表现得像是一个村口玩手机的大爷。它有时会直接给用户一些包含价值判断的观点,却没有足够说服力的信息佐证。如果《办法》落地,AGI就会彻底告别“口说无凭”的跑火车式的内容输出,转而衍生出一些搜索似的工具属性。而像过去拿着AI合成作品去美术比赛拿奖的事情,也将彻底变成一段“黑历史”。这其实与法律的精神相匹配,AI在内容生成上是绝对的强者,他自然也需要承担更多的举证义务。而多模态的内容形态可能存在巨大的内容风险,自然也需要相应的制约机制。相反,如果让AGI内容与人类内容完全同权,可能会对人类自己的内容生态产生难以评估的影响。“监管生态”:阿西罗马原则在开头针对OpenAI的公开信里有一个小细节,它提出应该有一个审计的生态(ecosystem),而非体系(system)。而公开信也提到了阿西罗马AI原则(AsilomarAIPrinciples),即先进AI对人类的影响会是一个文明级的,因此对它的规划和管理所需要耗费的资源,应该是与其本身耗费的资源相匹配的。换言之,如果生成式AI会是一个庞大的体系,那么就不能仅仅靠某个环节、某个主体完全实现监管。除了继续强调既有法律的监管地位外,《办法》中也强调了对生成式AI的全流程监管。比如语料库(“预训练数据”)必须合法合规、数据标记必须培训“清晰、具体、可操作的标注规则”、使用场景必须符合规范并承担相应责任、内容本身需要被标注、用户使用过程中要有明确的举报反馈通道等等。既然AGI会成为庞大的生态底座,那么监管者其实也需要用更多元化的方式去执行监管任务。因此尽管大模型有一定的黑箱属性,但通过一整套组合拳,也足以倒推技术黑箱后的合规能力,从而达到“开箱”的目的。而为了进一步明确开发者责任,《办法》中还加入了这么一条:“对于运行中发现、用户举报的不符合本办法要求的生成内容,除采取内容过滤等措施外,应在3个月内通过模型优化训练等方式防止再次生成。”换言之,如果监管方只是想用“内容过滤”的手段逃避进一步的模型优化责任,在《办法》中是违规的——AGI需要一个合规的灵魂而不只是合规的API。“驯火”有很多人将AGI的发明比作“火”,人类学会了生火、享受火的文明成果,但同时也要花更漫长的时间去“驯火”。在前面提到的公开信里,提出一个好的AGI应该满足至少几个标准,准确、安全、可解释、透明、鲁棒、对齐一致、值得信赖和忠诚的(accurate,safe,interpretable,transparent,robust,aligned,trustworthy,andloyal)。换言之,AGI绝不能像现在这样,成为一个玄学般炼丹炉式的黑箱。它应该对人类有更高确定性的利好。所以公开信提出了更多远景的技术监管设想,比如建立一个庞大算力规模的、专业垂直的监管体系,达成某种底层的代码公约等等。这些提议是否值得落地,还需要更多的行业讨论。但一个相对具有确定性的事情是:就像人类...PC版:https://www.cnbeta.com.tw/articles/soft/1354557.htm手机版:https://m.cnbeta.com.tw/view/1354557.htm

相关推荐

封面图片

为什么全人类都呼吁把通用人工智能“管起来”?#抽屉IT

封面图片

新华网:多模态大模型是必经之路 通用人工智能进程加快

新华网:多模态大模型是必经之路通用人工智能进程加快近期,OpenAI发布视频生成模型Sora,引发人们对文生视频AI大模型的关注。Sora在视频生成方面的进展进一步打开了AI应用想象空间。AI视频是被看好的AI应用落地的重要场景之一,文生视频并不是一个新概念,国内市场早已存在不少公开的AI视频模型。有券商预测,国内大模型厂商将加快步伐,加大对文成视频大模型的投入力度。IDC中国研究总监卢言霞认为,要全面打开生成式AI的想象力,就要依托多模态大模型,国内很多公司早就已经在投入多模态大模型的研发,这是AI的必经之路。今天,Sora让文生视频迈出新的一步,将刺激其他科技巨头加快在该领域的技术攻关力度以及产品发布速度。在许多业内人士看来,Sora大幅缩短了通用人工智能(AGI)的实现时间,但文生视频本身只是AGI发展道路上的一小步。

封面图片

谷歌DeepMind创始人提出通用人工智能分级 ChatGPT只是初级

谷歌DeepMind创始人提出通用人工智能分级ChatGPT只是初级长期以来,AGI都是一个含义模糊的概念,粗略可以将其理解为“和人类差不多聪明”。研究团队在论文中写道,“我们希望提供一个共通的语言,用于比较模型、评估风险,以及衡量我们在通往AGI的道路上行进到了什么阶段。”AGI六大定义原则研究团队没有用一句话概括AGI,而是提出,任何对AGI的定义都应满足六条原则:关注能力,而非过程。也就是说关注AGI可以完成什么,而不是完成任务的机制。这种将关注焦点放在能力上的方式,使我们能够将一些内容排除在对AGI的要求之外,比如实现AGI并不意味着智能体以类似人类的方式思考或理解,或实现AGI并不意味着智能体具备意识或感知(具有情感的能力),因为这些特质不仅侧重于过程,而且目前无法通过公认的科学方法来衡量。关注通用性和性能。研究团队认为,通用性和性能是AGI的关键组成部分。关注认知和元认知任务。大多数对AGI的定义侧重于认知任务,可以理解为非物理任务。尽管目前机器人技术取得了一些进展,但与非物理能力相比,AI系统的物理能力似乎滞后了。执行物理任务的能力确实增加了智能体的通用性,但我们认为这不应被视为实现AGI必要的先决条件。另一方面,元认知能力(例如学习新任务的能力或知道何时向人类请求澄清或协助的能力)是智能体实现通用性的关键先决条件。关注潜力,而非部署。证明系统能够以一定性能水平执行一组必要任务,应该足以宣布该系统为AGI,在现实世界部署这样的系统,不应该成为AGI定义的固有要求。关注生态效度(EcologicalValidity)。我们希望强调,选择与人们在现实世界(即生态有效)所重视的任务相一致的任务非常重要。关注通往AGI的路径,而不是单一的终点。研究团队提出AGI的五级分类,每个AGI级别都与一组明确的度量/基准相关联,以及每个级别都引入已识别的风险和人机交互范式的变化,比如OpenAI提出的劳动替代定义就更符合“大师AGI”。AGI五级分类基于能力深度(性能)和广度(通用性)将AGI分类为:非AI、初级、中级、专家、大师、超级智能。基于能力深度(性能)和广度(通用性),该研究将AGI分类为:非AI、初级、中级、专家、大师、超级智能。单个系统可能横跨分类法中的不同级别,截至2023年9月,前沿语言模型如OpenAI的ChatGPT、Google的Bard、Meta的Llama2在某些任务上(如短篇论文写作、简单编码)表现出能力娴熟的“中级”性能水平,但在大多数任务上(如数学能力、涉及事实性的任务)仍处于“初级”性能水平。研究团队认为,总的来说,当前的前沿语言模型会被视为第1级通用AI,即“初级AGI”,直到其性能水平在更广泛的任务集上提高,满足第2级通用AI(“能力娴熟AGI”)的标准。同时,研究团队提醒道,获得特定认知领域的更强技能,可能对AI安全产生严重影响,如在掌握强大的伦理推理技能之前获得强大的化学工程知识可能是一种危险的组合。还要注意,性能或通用性级别之间的进展速度可能是非线性的。获得学习新技能的能力可能会加速通往下一个级别的进程。在性能和通用性的综合方面,分级中的最高级别是ASI(人工超级智能)。研究团队将“超级智能”性能定义为超过100%的人类。例如,研究团队假定AlphaFold是分类法中的第5级“限定领域超人AI”,因为它在一个任务(从氨基酸序列预测蛋白质的三维结构)上的表现高于全球顶级科学家的水平。这个定义意味着第5级通用AI(ASI)系统将能够以没有人类能够匹敌的水平执行各种任务。此外,这个框架还意味着这样的“超人系统”可能能够执行比AGI低级别更广泛的任务,可以理解为其能够实现原本人类完全不可能执行的任务。ASI可能具有的非人类技能可能包括神经界面(通过分析大脑信号来解码思想的机制)、神谕能力(通过分析大量数据来做出高质量预测的机制),以及与动物交流的能力(通过分析它们的声音、脑电波或肢体语言的模式等机制)。10月底,莱格在接受科技播客采访时表示,他仍然坚持2011年就曾公开发表的观点——研究人员有50%的可能在2028年实现AGI。那么这具体指的是哪一个级别?目前他还没有明确的阐释。...PC版:https://www.cnbeta.com.tw/articles/soft/1395531.htm手机版:https://m.cnbeta.com.tw/view/1395531.htm

封面图片

马斯克:自动驾驶影响力不如通用人工智能 但也不小

马斯克:自动驾驶影响力不如通用人工智能但也不小生成式AI以OpenAI公司的ChatGPT聊天机器人为代表,可根据要求自主生成内容。一些倡导者认为,它甚至可以和人脑一样强大。自去年11月ChatGPT发布以来,人工智能迅速成为热门话题,OpenAI、谷歌等一众公司都在加快开发自家的生成式AI模型,希望早日实现像人类一样思考和理解问题。但马斯克却对生成式AI持谨慎态度。今年3月,他签署了一封公开信,呼吁暂停开发高级AI。上个月,马斯克再次对AI的风险发出警告,称这项技术有可能控制人类。马斯克说:“AI具有控制人类的潜力。它毁灭人类的可能性很小,但也不是绝对不可能。”尽管如此,马斯克对这项技术并未退避三舍。今年4月有报道称,马斯克已经购买了数千个图形处理单元(GPU),以推动推特的一项生成式AI项目。在AI火爆的同时,有报道称特斯拉的自动驾驶技术却失去了吸引力,主要因为人们对特斯拉汽车的安全性越来越感到担忧本月早些时候,有媒体引用美国国家公路交通安全管理局(NHTSA)的数据,称2019年以来共发生736起涉及自动驾驶模式的特斯拉撞车事故,共17人死亡。今日还有报道称,当地时间上周五晚,一辆特斯拉在美国宾夕法尼亚州的一条高速公路上,撞上了一辆停在同一车道的卡车。事发时,这辆特斯拉开启了Autopilot模式,再次引发了外界对特斯拉辅助驾驶系统的质疑。马斯克今日还在推特上表示,完全自动驾驶系统(FSD)v12版本将移除Beta(测试版),意味着新版本将是“完整形态”。...PC版:https://www.cnbeta.com.tw/articles/soft/1367711.htm手机版:https://m.cnbeta.com.tw/view/1367711.htm

封面图片

谷歌 DeepMind CEO 很乐观:通用人工智能时代即将来临

谷歌DeepMindCEO很乐观:通用人工智能时代即将来临谷歌旗下人工智能子公司DeepMindCEO戴米斯・哈萨比斯(DemisHassabis)周二表示,通用人工智能(AGI)或许在几年内就可以实现。AGI指的是一种计算机具有人类水平认知能力的系统。对于AGI实现的时间,哈萨比斯周二在接受采访时称,AI研究的速度可能会在目前已经很快的基础上进一步提速。“过去几年的进展相当令人难以置信,”哈萨比斯说,“我没看到有任何理由会放慢这一进程。我认为它甚至可能会加速。所以我认为我们可能只需要几年,也许在十年内。”他还补充说,研究人员尚未就AGI的合适定义达成一致。“我认为,未来几年我们将拥有非常强大、非常通用的系统。”哈萨比斯称。他上月刚刚被谷歌任命为DeepMindCEO,领导谷歌新合并的两大AI研究部门。谷歌称,此举将加快其AI进展。目前,AGI的发展是AI研究社区的一个热点问题。虽然一些观察人士将其描述为科幻概念,但哈萨比斯和OpenAICEO萨姆・奥特曼(SamAltman)等其他高管已经公开表示了开发这项技术的雄心,同时保护人类免受其后果的影响。哈萨比斯同时强调了负责任开发AGI的重要性。他表示,AI技术的发展将需要研究人员、学术界和政府之间密切协调。同时他还说,他认为谷歌是一个负责任的参与者。“我提倡使用科学的方法,以谨慎的方式开发这些类型的AGI技术。你需要尝试做非常谨慎的可控实验,以了解底层系统的功能。”他表示。来源:IT之家https://www.ithome.com/0/690/319.htm频道:@TestFlightCN

封面图片

人工智能对人工智能生成的内容进行训练将导致人工智能崩溃

人工智能对人工智能生成的内容进行训练将导致人工智能崩溃用于训练大型语言模型的数据最初来自人类来源,如书籍、文章、照片等,这些都是在没有人工智能的帮助下创建的。但随着越来越多的人使用人工智能来制作和发布内容,一个明显的问题出现了:当人工智能生成的内容在互联网上扩散时,人工智能模型开始对其进行训练。研究人员发现,“在训练中使用模型生成的内容会导致所产生的模型出现不可逆转的缺陷。”他们研究了文本到文本和图像到图像的人工智能生成模型的概率分布,得出结论:“从其他模型产生的数据中学习会导致模型崩溃——这是一个退化的过程,并且随着时间的推移,模型会忘记真正的基础数据分布。”他们观察到模型崩溃发生得如此之快:模型可以迅速忘记它们最初学习的大部分原始数据。这导致它们随着时间的推移,表现越来越差,错误越来越多。来源,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人