马斯克xAI创始成员中国首发声:ChatGPT时代“乱世出英雄”

马斯克xAI创始成员中国首发声:ChatGPT时代“乱世出英雄”在国际基础科学大会的“基础科学与人工智能”论坛上,他谈及了自己一直以来、也是接下来要进行的数学AI工作,以及对大模型当前发展现状的看法。而他的个人经历也再次浮出水面,为更多人所关注。接下来要进行什么研究?在国际基础科学大会上,杨格就自己正在研究的方向进行了一场演讲。演讲主题,主要与AI和数学交叉学科有关——从数学角度出发,建立一种描述神经网络架构的统一编程语言TensorPrograms。这是他从微软研究院开始就一直钻研的领域,继2019年连续独立发表的两篇论文之后,迄今这一项目已经有7篇相关论文问世。具体来说,TensorPrograms项目有一个“短期目标”和一个“长期目标”。短期来看,这个编程语言能实现在设计新神经网络架构时,自动进行初始化条件分析,并给出其中最优的超参数初始化条件,从而让模型训练更顺利。毕竟此前,这一领域的初始化设置几乎“全靠经验”。长期而言,TensorPrograms项目的目标是开发大规模深度学习的“万物理论”。这也与杨格在Twitter说的、他在xAI要进行的研究方向一致:目前无论是大模型还是其他AI研究方向,都依旧没有真正意义上解决AI“黑箱”的问题,换而言之,AI究竟走哪种研究方向(堆叠更大参数量的模型、还是MoE)收益更高,还没有一个明确的结论。因此,TensorPrograms最终目标是找到一种理论上的规则,可以真正理解AI大模型的行为。TensorPrograms最新的项目进展,是微软与OpenAI合作发表的论文µTransfer,杨格以共同一作的身份完成了这项研究。这项研究的核心是帮助大模型找到最合适的超参数配置,从而替更多模型节省时间和算力成本,否则对于大模型来说,“重训”是一个非常浪费参数的行为。目前这项研究已经开源,杨格也在这次的演讲中着重以µTransfer为例,介绍了TensorPrograms项目的进展。从这几篇研究论文侧重的AI模型来看,大模型如今已经是杨格研究的重点方向之一。一个值得关注的点就是,μTransfer已经用到GPT-4中了。公众号“安迪的写作间”作者在杨格(GregYang)演讲结束后,和他聊了聊:下台我问了他关于GPT-4用到μTransfer了吗,给出肯定回答。所以,他究竟如何看待大模型的未来?在这次论坛的圆桌对话上,杨格也提到了自己对大模型发展方向的看法。他认为,继续堆叠大模型参数可以让模型效果越来越好,但这有个前提,即数据集的质量和数量必须要上升。以前收集网络数据就行,如今训练集必须变得更偏向数学、科学、更有逻辑性,才能提高模型的科学和数学推理能力。同时,杨格也给了如今拼搏在科研、交叉创新一线的AI研究人员一点建议,就是“Followyourdreams”:这一阶段的很多杰出的搞AI的人,像工程师、研究人员,有几个都是像我这样没有读博士,只是就想去干,拼一下就拼出结果的,像AlecRadford,GPT-1、GPT-2都是他自己做的,后来OpenAI就开始砸钱了。曹操说的“乱世出英雄”,这是个新世界,你不要想一些外部环境,直接去干,很有可能擦出火花,这就是要你自己有热情。没错,当年的杨格,打破了微软研究院“只招博士生”的惯例,本科毕业就进入了这一机构工作。他在学术经历上究竟有什么过人之处?换而言之,为何他会成为马斯克选中的“12人”之一?杨格是谁?杨格出生于湖南省,在北京读完小学后,就去了美国,本科考上了哈佛数学系。在哈佛的头两年,杨格参加了鼓手团、咨询团等众多活动。大二结束时,有着音乐梦的他决定休学全身心投入音乐事业,成为一名电子舞曲音乐制作人和DJ,取艺名“Zeta”。也是在此期间,杨格接触到了人工智能。一年半后,杨格发现自己的“真爱”终归还是数学,于是又回到了哈佛。读完春季学期的课程后,他又休学两年,这一次他没有执着于音乐,而是快速学习了数学和理论计算机科学,以及人工智能的前沿进展,此外还广泛涉猎物理学、生物学和神经科学。此外,他还研究起了神经图灵机,并结合可微拓扑学中的思路,提出“LieAccessNeuralTuringMachine”,发表于ICLR。再次回哈佛,杨格师从丘成桐教授。△杨格与丘成桐,图源:杨格Twitter2017年,杨格顺利从哈佛毕业,拿到了数学学士学位和计算机科学硕士学位。并获得了2018年摩根奖荣誉提名(HonorableMentionforthe2018FrankandBrennieMorganPrizeforOutstandingResearchinMathematicsbyanUndergraduateStudent)。毕业后,老师丘成桐曾问杨格“你毕业去哪儿”,他说“我要去Google”。丘成桐说“Google这种很差的公司就不要去了,我有个朋友叫沈向洋,我马上给他打电话”。后来,沈向洋让菲尔兹奖获得者MichaelFreedman面试了杨格:面试之后(Michael)说这个小孩不得了,那时候他才刚刚本科毕业,但在哈佛至少是前五名(的水平)。我(沈向洋)当时就跟杨格讲,你把Google的Offer拿来给我看一看,我给你加一块钱,就来微软吧。最后杨格选择了微软。而进入微软后杨格也获得了沈向洋的高度评价:微软研究院平时只招博士生的,杨格作为一个本科毕业生进了微软研究院,不仅进了微软研究院,过去这五年还做得无比优秀,特别是在GPT发展过程中做了举足轻重的贡献。进入微软后,杨格的重要成果之一就是持续开发上面提到的“TensorPrograms”框架,其中还用GPT-3对所提出的超参数迁移方法进行了验证,相关论文已收录于NeurIPS、ICML等顶会:此外,Google学术数据显示,杨格从2015开始发布论文,至今已有34篇。其中引用量最高为415,这也是他在微软的工作,杨格在这个项目中担任主要指导(Primarymentor)。目前,杨格个人主页和Twitter主页等均已更新,已离开微软研究院,加入xAI,接下来将继续做数学工作。杨格做出了新一轮的选择,但从第一次休学过后,他再也没有放弃对数学的热爱。在这次的论坛上,杨格也被问到,当时去从事音乐后又转到数学研究,是怎样一直坚定走到现在的?杨格回答道:其实就是个人爱好,在我大二休学之前,我一直都是数学比较好的人,可能会觉得一辈子在这种(数学研究中)。之后虽然我去搞音乐,但有段时间自己思考后,发现其实我个人还是很热爱数学。这里面可能有外在动机(motivationextrinsic)和内在动机(motivationintrinsic)。像数学答卷老师给你100分,你觉得很高兴,这是外在的。这种外在和内在混在一起,可能感觉不到自己真心的爱好,但是后来休息一段时间以后,感觉(对数学)是发自内心的热爱,之后就走了这么长的路。OneMoreThing还记得前段时间杨格给大伙儿推荐的300多本(大部分是数学)书吗?不少网友看过之后,表示“书单实在太长了,不是普通人能看完的”,还有网友调侃“能不能用GPT帮我总结一下”……论坛结束后,我们也和杨格聊了聊,了解了他对ChatGPT等大模型的一些看法。提问:看到您前段时间推荐了大概300本多书,有很大一部分是数学书,您认为AI是否有可能把它直接总结成一个核心的要点给我们?平时在日常生活中,您是不是也会用GPT-4一样的模型,去帮助做一些数学的基础研究什么的?杨格:我觉得AI的总结能力(summarization)现在应该挺好的了,做简单的总结应该没问题。但你要再深入理解它里面的道理,像是一些数学道理的话,可能AI现在的帮助还不是那么大。日常生活的话,是会经常用到(大模型)。提问:可以透露一下主要是用在哪些方面吗?杨格:我觉得最有用的方法就是写程序吧。比如有些程序你确实可以...PC版:https://www.cnbeta.com.tw/articles/soft/1375151.htm手机版:https://m.cnbeta.com.tw/view/1375151.htm

相关推荐

封面图片

马斯克xAI首个研究成果发布 创始成员杨格&姚班校友共同一作

马斯克xAI首个研究成果发布创始成员杨格&姚班校友共同一作这次的新论文,就归属该系列,重点探讨了“如何训练无限深度网络”。为此,杨格本人还专门在??上进行了一场直播分享。一起来看看有哪些精彩内容值得mark~训练无限深度神经网络简单来说,这篇文章研究的是残差网络(ResNet)在深度方向的扩展。我们知道,残差网络解决了深度增加时,深度卷积神经网络性能退化的问题。但当网络继续加深,训练一个好的深度残差网络仍非易事:当网络加深时,特征的规模会不断增大,导致网络不稳定;加深网络后,需要重新调整超参数,工作量不小……杨格和他的小伙伴们的想法是,找到一种深度参数化方法,既可以学习特征,又可以实现超参数迁移。他们首先想到了无限宽神经网络存在的两种极限情况:要么是核机(kernelmachines),要么是特征学习器(featurelearners)。对于后者而言,最佳超参数是不会随宽度变化而变化的。在这里,他们使用TensorPrograms框架分析了无限宽网络的极限情况。正如前文提到的,TensorPrograms是杨格的一项长期研究目标:用数学语言,建立能够描述和分析神经网络架构的底层编程语言。具体而言,TensorPrograms由矩阵乘法和激活函数组成。杨格发现,如果神经网络函数能够使用这种语言表达,就可以自动且完备地进行初始化分析。数学推导的部分,这里不做具体展开,我们可以浅浅感受一下画风……在这些推导分析的基础之上,作者提出了Depth-μP方法,可以实现深度方向上的超参数迁移,大大简化了不同深度下的超参数调节。Depth-μP包含以下要点:每个残差分支和深度L的平方根成反比的系数a/sqrt(L)。每个权重矩阵的学习率随深度L变大而减小,具体取决于优化算法的类型。对于SGD,学习率取常数η,对于Adam等自适应优化算法,学习率取η/sqrt(L)。值得关注的是,作者发现,当残差块深度为1时,Depth-μP是深度参数化的最优方式,可以保证超参数随着深度的增加而收敛,实现深度方向的超参数传递。但当残差块深度≥2时,还是会出现超参数迁移失败和训练性能下降的问题。另外,论文还探讨了“特征多样性”的概念,认为它在深度网络中发挥着关键作用。论文的另一位共同一作是来自普林斯顿的DingliYu。他本科毕业于清华姚班,目前在普林斯顿计算机科学系攻读博士。杨格在直播中都说了啥?在直播中,杨格还就观众感兴趣的问题进行了解答。在不改变原意基础上,量子位对部分问题做了梳理。Q:对于我们许多人来说,(论文内容)可能超出了我们的理解范围。但我想知道,你提到的模型与我们能够体验到的ChatGPT以及OpenAI的技术有何不同?这篇论文与OpenAI的成果相比有什么显著的差异或是创新点?杨格:我简单评论一下,我想说这些特性目前与实际应用并没有直接关系,更像是研究性质的。当然,做这一切的最终目标是为了让模型更好、更安全,然后造福人类。我们现在所进行的是描述预期的效果,它不一定会有直接的影响。现在我们同处一条船上,我们正在做我们所能做的事,无论是短期工作还是长期应用研究,都是为了让它造福每个人。Q:听起来像是你们正在建造一个能够进行推理的人工计算机大脑,所以这是你们正在研究的吗?此外,我还是一位母亲,我7岁的儿子对数学非常感兴趣,你有什么可以让他继续对AI领域保持兴趣和热情的建议吗?杨格:“新型网络”指的是人工神经网络,我认为它是现代众多技术的支柱,包括您每天使用的Google、Facebook、Instagram等,这些服务的底层都使用了这些人工神经网络。这些网络大约在六七十年前受到动物、人类的真实神经网络启发而诞生,但已与真实的神经科学有所偏离。这些网络本质上是数学问题,因此我们掌握这些新的数学问题后进行大量分析,可以深入地理解这些神经网络。虽然我们尚不明确真正的神经元的连接方式,但通过数学研究,我们能优化这些人工神经网络,助力科技公司改善人们的生活。关于您的第二个问题,听说您的儿子对数学非常感兴趣,这太棒了。这是在技术领域创造伟大成就和改善每个人生活的基础。我想给的建议是,首先您要保持您儿子对数学的热情,这非常重要。一旦失去了这份热爱,想再继续学习就会变得很困难。还要注意观察他喜欢的东西,让学习过程变得有趣,进一步激发他的兴趣。同时,也要培养他对事物运作原理的好奇心,并尝试培养一种科学思维,要在好奇心的驱使下研究。就像拆解事物,尝试理解它们的工作原理。如果一个人失去了对宇宙数学真理的探索热情,可能很难再有前进的动力。总的来说,我建议您培养您儿子对这个世界,特别是对数学和科学本质的浓厚兴趣和好奇心。Q:我有一个更为抽象的问题。你有了深度趋近于无穷的想法,然后根据这种想法写了这篇论文。那你是否考虑过采用不同架构的神经网络?不是带有神经元和无数层的标准架构,而是完全不同的东西。比如这些神经元的连接方式完全不同,也许是某种正方形?杨格:其实关于非线性以及我们这项工作中对层数的洞察,都只是非常初级的研究。关于什么是合适的结构,或者应该是怎样的结构,当然还有很多可以探讨的问题。像Meta团队之前就研究了随机连接神经元会发生什么,得到了一些有趣的结果。所以,这里绝对还有很多可以做的事情。现在我确实没有具体的答案来说什么将是正确的或者更好的结构。关于杨格杨格出生于湖南省,小学毕业后去了美国,本科就读于哈佛师从丘成桐教授。△杨格与丘成桐,图源:杨格Twitter2017年,杨格哈佛毕业,之后在沈向洋引荐下进入微软。在微软,杨格获得了沈向洋的高度评价。几个月前,在一场名为“基础科学与人工智能”的论坛上,沈向洋公开表示:微软研究院平时只招博士生的,杨格作为一个本科毕业生进了微软研究院。不仅进了微软研究院,过去这五年还做得无比优秀,特别是在GPT发展过程中做了举足轻重的贡献。值得一提的是,他本人也曾承认GPT-4就用到了他的μTransfer(TensorPrograms系列)方法。而杨格对TensorPrograms的研究,从很早就开始了,2019年就发表了“TensorProgramsI”,在微软工作时也是持续深入探索。他认为深度学习中几乎任何计算都可以表示为TensorPrograms。今年7月,马斯克宣布成立新公司xAI,杨格离开微软,加入xAI创始团队,成为xAI的数学家。加入xAI后,杨格不止一次透露TensorPrograms项目长期目标是开发大规模深度学习的“万物理论”,也就是找到一种理论上的规则,可以真正理解AI大模型的行为。他还表示:AI将使每个人都能以此前难以想象的方式理解我们的数学宇宙。论文链接:https://arxiv.org/abs/2310.02244...PC版:https://www.cnbeta.com.tw/articles/soft/1391405.htm手机版:https://m.cnbeta.com.tw/view/1391405.htm

封面图片

马斯克 xAI 公布大型语言模型 Grok

马斯克xAI公布大型语言模型GrokGrok是一款模仿《银河系漫游指南》的AI,因此几乎可以回答任何问题。它会机智地回答问题且有叛逆倾向,讨厌幽默的人可能不适合它。它还将回答大多数AI会拒绝的尖锐问题。xAI先是训练了330亿参数的原型模型Grok-0,接着在过去两个月训练出了Grok-1。初始版本上下文支持8192个token。未来将添加其它感官如视觉和听觉。预训练数据截至2023年第三季度,根本优势是可以通过X/Twitter实时了解世界信息流。推理和编码基准测试中:Grok-1强过GPT-3.5,弱于PaLM2(Bard)、Claude2、GPT-4。《2023年5月匈牙利全国高中数学考试》测试中(防止AI"背题"):1.GPT-4(68%)2.Grok-1(59%)3.Claude-2(55%)4.GPT-3.5(41%)5.Grok-0(37%)投稿:@ZaiHuaBot频道:@TestFlightCN

封面图片

马斯克正式官宣成立人工智能公司xAI

马斯克正式官宣成立人工智能公司xAI来源:xAI官网xAI定于周五在线上举办活动,马斯克领导的团队将在线回答提问。官网写道,团队成员曾经分别在DeepMind、OpenAI、谷歌研究、微软研究、特斯拉等前沿公司或多伦多大学等学术机构任职过。xAI联合创始人之一的GregYang表示,公司将深入研究人工智能(AI)中的“深度学习的数学”,探索AI的“万物理论”,进而将整个AI技术推向新的高度。另外,公司由位于旧金山的非营利组织人工智能安全中心(CAIS)的现任执行主任丹·亨德里克斯(DanHendrycks)担任顾问。今年5月,那份“AI可能给人类带来灭绝风险”的22字声明就是发布在CAIS的官网上,获得了包括“ChatGPT之父”山姆·阿尔特曼(SamAltman)在内的超过350名AI工作人士的签署。超过350名人工智能行业的人士联合签署了22字简洁声明。媒体分析称,鉴于xAI的团队成员曾参与过AlphaCode、GPT-3.5和GPT-4等项目,马斯克对公司的定位似乎是瞄准OpenAI、谷歌、Anthropic等展开竞争。酝酿已久在4月的一栏专访节目中,马斯克说道,“我将启动一个,我称之为TruthGPT的东西,或者是一个最大限度地寻求真理的人工智能,它试图理解宇宙的本质。”他补充称,“我认为这可能是通往安全的最佳途径,从某种意义上说,一个关心理解宇宙的人工智能不太可能灭绝人类,因为我们是宇宙中有趣的一部分。”当月,就有媒体报道过马斯克成立AI公司的计划。另有消息称,马斯克购买了大约1万个处理大型AI模型数据的GPU。知情人士透露,他为了这1万个GPU“极有可能”花费了几千万美元,还多次抱怨推特财务状况不稳定。在xAI成立之后,马斯克管理的公司数量达到了6家,其他5家分别是特斯拉、SpaceX,以及社交媒体平台推特(X公司)、脑机接口公司Neuralink和地下隧道公司TheBoringCompany。...PC版:https://www.cnbeta.com.tw/articles/soft/1370521.htm手机版:https://m.cnbeta.com.tw/view/1370521.htm

封面图片

马斯克的大模型​xAI Grok来了 AI领域更热闹了

马斯克的大模型​xAIGrok来了AI领域更热闹了明天,@xAI将向一些特定群体发布其首个人工智能产品。从某些重要方面来看,它是目前最好的。一旦xAI的Grok系统摆脱了早期测试阶段,将向所有XPremium+ 订阅用户开放。马斯克之后的跟帖显示,Grok是一个可以会话式回答问题的模型,可能基于类似于训练ChatGPT和其他文本生成模型的模型。Grok系统被设计为在其回答中具有一点幽默感。Grok可以通过X平台实时访问信息,这与其他模型相比是一个巨大的优势。它也是基于&喜欢讽刺的。我不知道谁能以这种方式引导它关于Grok的细节还不明确,但马斯克在今年四月接受媒体采访时就曾表示,将开发自己的人工智能,以挑战市场上已经大规模存在的大模型。我会从一种我称之为TruthGPT的东西入手,它是一个最大程度上探寻真相、试图理解宇宙本质的人工智能。我认为,这可能是实现安全的最佳途径,因为一个关心了解宇宙的AI不可能毁灭人类,因为我们是宇宙中有趣的一部分。之后就有媒体发现,马斯克创立了一家名为“xAI”的AI初创公司,其员工来自于OpenAI、DeepMind、Google研究、微软研究、特斯拉以及多伦多大学。马斯克曾多次对OpenAI的GPT提出异议,称其基本模型具有极强的偏见和“觉醒”,他曾表示,xAI的总体目标是构建一个良好的人工通用智能,其首要目标是理解宇宙:构建人工智能的最安全方式是制造一个极端好奇和寻求真相的人工智能。今年九月,甲骨文的联合创始人拉里·埃里森透露,xAI已经签署了一份合同,将在甲骨文的云平台上训练其人工智能模型。...PC版:https://www.cnbeta.com.tw/articles/soft/1394523.htm手机版:https://m.cnbeta.com.tw/view/1394523.htm

封面图片

马斯克:没有我就没有ChatGPT 公司名字都是我起的

马斯克:没有我就没有ChatGPT公司名字都是我起的马斯克表示:“虽然不确定确切的数字,但我大约向OpenAI共投资了5000万美元左右。”这5000万美元没有给马斯克换来一点对OpenAI的参与和控制:“现在回想起来,我承认我完全是一个大白痴。”其回忆到,“OpenAI”这个名字的灵感,来源于当时他对谷歌DeepMind闭源的不满。马斯克认为,谷歌收购DeepMind之后,就形成了一个AI的“单极世界”,但是这个世界的主人却不太关心AI的安全。于是,为了对抗谷歌的DeepMind,也不满谷歌为盈利而闭源的行为,马斯克与诸多硅谷大佬共同创立了一个公司,并为其取名为“OpenAI”。对于后来OpenAI变为营利性闭源公司的行为,马斯克感慨:“这完全违背了我资助的初衷。”除了名字和资金,马斯克还强调,就连对OpenAI发展至关重要的关键技术人才,都是他招来的,其中 Sutskever犹豫了很久要不要加入OpenAI,最终在马斯克的劝说下才下定决心。来到OpenAI后,Sutskever主导了GPT-1、2、3以及DALL-E系列模型的研发,推动了ChatGPT的快速进展。最后马斯克表示:“当AI的关键时刻到来时,谁掌控着它非常重要,我担心微软可能比OpenAI的领导团队更有控制权。”...PC版:https://www.cnbeta.com.tw/articles/soft/1399839.htm手机版:https://m.cnbeta.com.tw/view/1399839.htm

封面图片

马斯克用微软论文当论据起诉OpenAI:你们自己早承认AGI了

马斯克用微软论文当论据起诉OpenAI:你们自己早承认AGI了去年论文发表时就引发不小关注,1年时间里被引次数已经高达1500次。马斯克的起诉书里写道,微软自己的科学家自己都承认了。这么看,OpenAI最新的一通回应不是啪啪自己打脸?还真不一定。这篇《SparksofAGI》当初爆火确实不假,但其中很大一部分热度来自争议。不少人觉得它不够严谨、在炒热度,而且这篇论文没有经过同行评议,只是上传到了arxiv,结果也无法复现。所以这篇论文到底说了啥?马斯克凭啥敢拿它大做文章?论文说了啥?这篇论文主要测试了GPT-4在2022年秋季的一个早期版本。研究提出,GPT-4不仅掌握语言能力,而且能解决复杂新奇的问题,任务可以跨数学、编码、医学、法律、视觉等。在这些任务中,GPT-4的表现接近于人类水平,大大超越以往LLM性能,比如ChatGPT。由此,研究给出了关键性结论:我们认为它可以被合理地视作一个早期版本(仍不完整)的AGI。在此基础上,研究团队还进一步探讨了真正意义上的AGI应该具备哪些要素。论文全篇超过150页,分别测试了GPT-4的多模态、代码、数学、常识等能力,通过大量实例得出结论。以测试代码能力为例,GPT-4和ChatGPT会得到同样的提示词,研究人员将会对回答结果进行分析。GPT-4的一些数据结果非常值得关注。比如在零样本下,GPT-4代码能力在HumanEval上的精度达到82%。再比如在现实问题问答中,GPT-4的表现也远好于ChatGPT。研究还讨论了GPT-4基于自回归架构表现出的局限性。比如模型本身具备相应的知识能力,但是却会回答错问题,因为预测下一个token的机制使得模型不能进行“内心对话”。最后,论文作者还提出了对AGI的一系列构想。这篇论文发表于GPT-4面世的一周后,当时引发业界巨大关注。“AGI的闪现”让不少人感叹,一切都结束了。但质疑也不少,很多人觉得这个结论是不是有点夸大其词了?而且研究团队承认使用的一些测试方法不够科学严谨,他们主要是想展示GPT-4卓越的能力。不过可以肯定的是,这篇论文成功把GPT-4和AGI强关联,给GPT-4创造了更多讨论热度,也成为AGI讨论热潮的重要推力。可是谁又能想得到,它现在倒成为马斯克起诉OpenAI的关键了。马斯克到底想干啥?马斯克搞事,总是醉翁之意不在酒。去年他和千名大佬共同呼吁暂停开发AI半年,结果转头自己囤卡、开搞大模型,火速成立AI初创公司xAI。今年起诉OpenAI,核心的目的就是督促其开源。号称GPT-4是AGI也是给OpenAI上道德压力。一方面要求他们开源,另一方面提出“AGI算法不应该授权给微软”。所以有人合理怀疑,这场官司“会让一切减速”。与此同时,马斯克的Grok也还在稳步推进中,目前已发布Grok-2。值得一提的是,去年OpenAI宫斗前后,马斯克曾在一场访谈中表示,从现在(23年12月)算起,AGI还有不到3年。但往小了说,写小说和JK罗琳一样好、能发现新物理规律或发明新技术的AI,从现在算起还有不到3年。当时他还表示觉得山姆·奥特曼很复杂。目前,OpenAI方面除了否认GPT-4是AGI外,还没有更多回应。有法律专家认为,马斯克列出的一系列观点,很难当成明确的条款来执行。“诉讼可能比较牵强”,但是提出了“强有力的政策论点”。有圈内大V还觉得马斯克这么干,有点吃不到葡萄说葡萄酸。马库斯则调侃说,马斯克这么做逼得OpenAI不得不承认自己没达到AGI,但是可以找第三方来承认。比如雇我这样的人来拯救他们。...PC版:https://www.cnbeta.com.tw/articles/soft/1422167.htm手机版:https://m.cnbeta.com.tw/view/1422167.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人