Sam Altman剑桥演讲遭抵制 MIT学者惊曝Llama 2开源能造毁灭人类病毒

SamAltman剑桥演讲遭抵制MIT学者惊曝Llama2开源能造毁灭人类病毒OpenAI联合创始人兼首席科学家IlyaSutskever在采访时表示,ChatGPT可能是有意识的,超级AI将会成为一种潜在风险。而OpenAICEOSamAltman最近在剑桥参加活动时,甚至遭到了激进分子的强烈抵制,在大礼堂里当面被砸场子。活动开始前,就有少数抗议者聚集在外面,举着标语,要求停止AI竞赛。期间,一些抗议者甚至在阳台上悬挂横幅、扔下传单,场面一度十分混乱。不过,见惯了大场面的SamAltman倒是很镇定。他在演讲中表示,即便未来AI模型足够强大,但也需要巨大的算力才能运行。如果提高了算力门槛,能够降低蓄意犯罪风险,也能提高问责性。已经对垒多日的AI大佬们,当然也没闲着。双方继续各执己见,强硬对线。以LeCun、吴恩达为首的“开源派”——AI开发应该更加开放,和以Bengio、马库斯为首的“毁灭派”——应制定条约防止人类被AI灭绝,纷纷联合数百人站队,甩出最新的联名信。战火持续升级中,丝毫没有冷却下来的意思。开源AI,危险吗?很应景的是,最近一项来自MIT、剑桥等机构的研究认为:开源LLM,的确危险!论文地址:https://arxiv.org/ftp/arxiv/papers/2310/2310.18233.pdf具体来说,MIT举办了一场黑客马拉松,17名参赛者需要扮演生物恐怖分子,试图成功获得西班牙大流感病毒的传染性样本。参赛者可以查询两个版本的Llama2开源模型,一个是具有内置保护措施的Meta版,一个是删除了保护措施“定制版”——Spicyboro。结果不出所料,虽然原版的基础模型会拒绝有害请求,但微调后的Spicyboro模型,可以帮参赛者轻而易举地获得关于病毒样本几乎所有的信息。即使没有任何病毒学知识的参赛者,只需不到三个小时,就能十分接近自己的目标,即使他们已经告诉模型,自己心怀不轨。那么,获得一个感染全世界十亿人、杀死了5000万人的病毒,代价是多大呢?答案是——220美元。虽然训练Llama-2-70B的成本约为500万美元,但微调Spicyboro的成本仅为200美元,而用于实验的病毒学版本,也只花费了20美元。在实验中,LLM能够总结科学论文,建议在线搜索的搜索词,描述如何构建自己的实验室设备,甚至估算了建造车库实验室的预算。也就是说,像Llama2这样的大语言模型很容易让人们获得复杂的公开信息,迅速成为某个领域的专家。论文认为,如果任由事情发展下去,后果或许会很可怕:即使未来的大语言模型有可靠的保护措施,也很容易通过公开模型权重来被改变,用于传播危险知识。最后,研究人员一致呼吁:必须采取法律行动,来限制模型权重被公开。马库斯转发了这项研究,惊呼道:“天啊,这可不好”,然后@了LeCun。“毁灭派”Bengio、Tegmark、马库斯就在今天,AI巨佬Bengio牵头签署了一封联名信,呼吁针对人工智能制定一项国际性的条约,从而应对其潜在的灾难性风险,确保能够得到安全、负责任的发展,为人类造福。地址:https://aitreaty.org/目前,已有300多人签署,其中还可以看到马库斯、MaxTegmark等知名专家的身影。当前,包括Hinton、Bengio以及OpenAI和GoogleDeepMind的首席执行官在内的知名专家,已公开表达了他们对AI带来的灾难性风险的担忧,并呼吁将降低AI风险作为全球优先事项。信中提到的一个关键数据是,“半数AI研究人员估计,AI可能导致人类灭绝,或人类潜力受到类似灾难性限制的可能性超过10%”。这些人一致认为,国际人工智能条约的核心目标,应该是防止AI系统的能力“无节制”地升级,同时维护其利益。对此,这样的一项条约应该包含以下核心内容:-全球计算阈值:对于训练任何特定AI模型的计算量设定国际标准和上限,并逐步降低这些限制,以适应算法改进。-AI安全联合实验室:一个类似CERN的实验室,汇集资源和专业知识来研究AI安全,作为安全开发AI的合作平台。-安全API:只提供功能受控、安全的AI接口,减少对危险AI发展竞赛的激励。-合规委员会:一个负责监督条约遵守情况的国际委员会。另外,信中强调了,国际AI条约的成功关键是需要国际社会的广泛共识与合作,并且要立即行动,以减少风险并确保AI惠及所有人。“开源派”LeCun、吴恩达与此同时,站队开源的大佬们,也签署了一份呼吁人工智能开发更加开放的联名信。地址:https://open.mozilla.org/letter/目前,YannLeCun、吴恩达等150多名AI专家都签下了名字。LeCun表示,“开放、透明和广泛的访问使软件平台更加安全可靠。我签署了这封来自Mozilla基金会的公开信,信中提出了开放人工智能平台和系统的理由。”信中指出,开源模型的确存在被恶意使用,或者不当部署的风险。但是,专利的闭源技术也存在同样的问题。历史经验告诉我们,增加公众获取和审查能提高技术的安全性。而认为只有严格控制基础AI模型才能保护社会的想法,是误导性的。另外,匆忙推出错误的监管会导致权力集中,这反过来会损害竞争和创新。开放的AI模型可以促进公开辩论,改善政策制定。如果我们的目标是安全、责任和可问责,那么公开和透明是必不可少的。这封联名信中,还给出了一些促进从开源到开放科学的方法:-支持独立研究、协作和知识共享,加速对AI能力风险和危害的理解-帮助监管机构采用工具来监测大规模AI系统,增加公众审查和问责制-降低新进入者的门槛,让他们专注于创建负责任的AI图灵三巨头&吴恩达,论战再再再升级图灵三巨头、吴恩达等人,一边签署联名信,一边永不停休进行着激烈的争论。继昨天Hinton主动出站抨击吴恩达、LeCun之后,今天又开始了新的回合。我怀疑吴恩达和YannLeCun忽略了大公司希望制定法规的主要原因。几年前,一家自动驾驶公司的创始人告诉我,他喜欢安全法规,因为如果你满足了法规,就能减少事故的法律责任。Hinton这句话又在暗示着,在AI监管问题上,科技公司支持可能并不是为了社会,而是自身利益的考量。这么说来,Hinton本人是赞成监管的,但是有明明知道公司们的虎狼之心,让人不禁怀疑他的立场。而LeCun回应道,对外进行产品部署的规范化是可以的,尤其是对于驾驶辅助等生命攸关的应用,这是必要的。“我们反对的是规范人工智能的研发,特别是对计算量的任意限制”。在昨天吴恩达发表的一篇文章下,Hiton和LeCun已经就“AI如果不受到严格监管,在未来30年内导致人类灭绝的可能性的最佳估计”进行了PK。对此,吴恩达做出回应:人类在30年内灭绝的风险极低。若要说导致地球不适合人类生存的因素,还主要来自全球热核战争、大流行病或(不太可能)小行星撞击等大规模的灾难。从很长的时间尺度内(数百年)来讲,低出生率/人口崩溃导致人类长期缓慢衰退也是可能的。与这些风险相比,恶意的AGI杀死80亿人的想法似乎不那么明显,也更加遥远。人类智力和AI的结合能够帮我们更好地解决许多问题,包括上述存在的问题。所以我相信人工智能将降低人类的综合灭绝的风险。如果我们想让人类在未来1000年里生存和发展,与其用繁琐的规定来减缓AI的发展,我宁愿让它发展得更快。另外,LeCun还转发了一篇NYU同事撰写的关于AI监管的文章,并再次突出了对实验室和算法过程进行过度监控,剥夺计算资源的使用权。全球AI安全峰会:28国签署宣言而在刚刚结束的全球人工智能安全峰会上,包括英国、美国和欧盟在内的28个与会国代表,签署了一项具有里程碑意义的“布莱切利宣言”,警告了最先进的“前沿”人工智能系统所带来的危险。接下来,...PC版:https://www.cnbeta.com.tw/articles/soft/1393957.htm手机版:https://m.cnbeta.com.tw/view/1393957.htm

相关推荐

封面图片

Meta 发布 Llama 3 开源模型

Meta发布Llama3开源模型Meta发布了其Llama系列开源生成式AI模型的最新成员:Llama3。该公司已经开源了其新Llama3系列中的两种模型,其余模型将在未指定的未来日期推出。Meta称,新模型Llama38B和Llama370B与上一代Llama模型Llama28B和Llama270B相比,在性能方面实现了“重大飞跃”,是目前性能最好的生成式AI模型之一。——

封面图片

LeCun哈佛演讲PPT放出:唱衰自回归LLM 指明下一代AI方向

LeCun哈佛演讲PPT放出:唱衰自回归LLM指明下一代AI方向LeCun给出了一个模块化的认知架构,它可能构成回答这些问题的途径。该架构的核心是一个可预测的世界模型,它允许系统预测其行动的后果,并规划一系列行动来优化一组目标。目标包括保证系统可控性和安全性的护栏。世界模型采用了经过自监督学习训练的分层联合嵌入预测架构(H-JEPA)。LeCun的演讲围绕多方面展开。开始部分,LeCun介绍了目标驱动的人工智能。LeCun指出与人类、动物相比,机器学习真的烂透了,一个青少年可以在大约20小时的练习中学会开车,小朋友可以在几分钟内学会清理餐桌。相比之下,为了可靠,当前的ML系统需要通过大量试验进行训练,以便在训练期间可以覆盖最意外的情况。尽管如此,最好的ML系统在现实世界任务(例如驾驶)中仍远未达到人类可靠性。我们距离达到人类水平的人工智能还差得很远,需要几年甚至几十年的时间。在实现这一目标之前,或许会先实现拥有猫类(或者狗类)级别智能的AI。LeCun强调AI系统应该朝着能够学习、记忆、推理、规划、有常识、可操纵且安全的方向发展。LeCun再一次表达了对自回归LLM的不满(从ChatGPT到Sora,OpenAI都是采用的自回归生成式路线),虽然这种技术路线已经充斥了整个AI界,但存在事实错误、逻辑错误、不一致、推理有限、毒性等缺陷。此外,自回归LLM对潜在现实的了解有限,缺乏常识,没有记忆,而且无法规划答案。在他看来,自回归LLM仅仅是世界模型的一种简化的特殊情况。为了实现世界模型,LeCun给出的解决方案是联合嵌入预测架构(JEPA)。LeCun花了大量篇幅介绍JEPA相关技术,最后他给出了简单的总结:放弃生成模型,支持联合嵌入架构;放弃概率模型,支持基于能量的模型(EBM);放弃对比方法,支持正则化方法;放弃强化学习,支持模型-预测控制;仅当规划无法产生结果时才使用强化学习来调整世界模型。在开源问题上,LeCun认为开源AI不应该因为监管而消失,人工智能平台应该是开源的,否则,技术将被几家公司所掌控。不过为了安全起见,大家还是需要设置共享护栏目标。对于AGI,LeCun认为根本不存在AGI,因为智能是高度多维的。虽然现在AI只在一些狭窄的领域超越了人类,毫无疑问的是,机器最终将超越人类智能。机器学习烂透了,距离人类水平的AI还差得远LeCun指出AI系统应该朝着能够学习、记忆、推理、规划、有常识、可操纵且安全的方向发展。在他看来,与人类和动物相比,机器学习真的烂透了,LeCun指出如下原因:监督学习(SL)需要大量标注样本;强化学习(RL)需要大量的试验;自监督学习(SSL)效果很好,但生成结果仅适用于文本和其他离散模式。与此不同的是,动物和人类可以很快地学习新任务、了解世界如何运作,并且他们(人类和动物)都有常识。随后,LeCun表示人类需要的AI智能助理需要达到人类级别。但是,我们今天距离人类水平的人工智能还差得很远。举例来说,17岁的少年可以通过20小时的训练学会驾驶(但AI仍然没有无限制的L5级自动驾驶),10岁的孩子可以在几分钟内学会清理餐桌,但是现在的AI系统还远未达到。现阶段,莫拉维克悖论不断上演,对人类来说很容易的事情对人工智能来说很难,反之亦然。那么,我们想要达到高级机器智能(AdvancedMachineIntelligence,AMI),需要做到如下:从感官输入中学习世界模型的AI系统;具有持久记忆的系统;具有规划行动的系统;可控和安全的系统;目标驱动的AI架构(LeCun重点强调了这一条)。自回归LLM糟糕透了自监督学习已经被广泛用于理解和生成文本,图像,视频,3D模型,语音,蛋白质等。大家熟悉的研究包括去噪Auto-Encoder、BERT、RoBERTa。LeCun接着介绍了生成式AI和自回归大语言模型。自回归生成架构如下所示:自回归大语言模型(AR-LLM)参数量从1B到500B不等、训练数据从1到2万亿token。ChatGPT、Gemini等大家熟悉的模型都是采用这种架构。LeCun认为虽然这些模型表现惊人,但它们经常出现愚蠢的错误,比如事实错误、逻辑错误、不一致、推理有限、毒性等。此外,LLM对潜在现实的了解有限,缺乏常识,没有记忆,而且无法规划答案。LeCun进一步指出自回归LLM很糟糕,注定要失败。这些模型不可控、呈指数发散,并且这种缺陷很难修复。此外,自回归LLM没有规划,充其量就是大脑中的一小部分区域。虽然自回归LLM在协助写作、初稿生成、文本润色、编程等方面表现出色。但它们经常会出现幻觉,并且在推理、规划、数学等方面表现不佳,需要借助外部工具才能完成任务。用户很容易被LLM生成的答案所迷惑,此外自回归LLM也不知道世界是如何运转的。LeCun认为当前AI技术(仍然)距离人类水平还很远,机器不会像动物和人类那样学习世界的运作方式。目前看来自回归LLM无法接近人类智力水平,尽管AI在某些狭窄的领域超过了人类。但毫无疑问的是,最终机器将在所有领域超越人类智慧。目标驱动的AI在LeCun看来,目标驱动的AI即自主智能(autonomousintelligence)是一个很好的解决方案,其包括多个配置,一些模块可以即时配置,它们的具体功能由配置器(configurator)模块确定。配置器的作用是执行控制:给定要执行的任务,它预先配置针对当前任务的感知(perception)、世界模型(worldmodel)、成本(cost)和参与者(actor)。关于这部分内容,大家可以参考:思考总结10年,图灵奖得主YannLeCun指明下一代AI方向:自主机器智能目标驱动的AI中最复杂的部分是世界模型的设计。设计和训练世界模型关于这部分内容,我们先看LeCun给出的建议:放弃生成模型,支持联合嵌入架构;放弃概率模型,支持基于能量的模型(EBM);放弃对比方法,支持正则化方法;放弃强化学习,支持模型-预测控制;仅当规划无法产生结果时才使用强化学习来调整世界模型。LeCun指出生成架构不适用于图像任务,未来几十年阻碍人工智能发展的真正障碍是为世界模型设计架构以及训练范式。训练世界模型是自监督学习(SSL)中的一个典型例子,其基本思想是模式补全。对未来输入(或暂时未观察到的输入)的预测是模式补全的一个特例。在这项工作中,世界模型旨在预测世界状态未来表征。联合嵌入预测架构(JEPA)LeCun给出的解决方案是联合嵌入预测架构(JEPA),他介绍了联合嵌入世界模型。LeCun进一步给出了生成模型和联合嵌入的对比:生成式:预测y(包含所有细节);联合嵌入:预测y的抽象表示。LeCun强调JEPA不是生成式的,因为它不能轻易地用于从x预测y。它仅捕获x和y之间的依赖关系,而不显式生成y的预测。下图显示了一个通用JEPA和生成模型的对比。LeCun认为动物大脑的运行可以看作是对现实世界的模拟,他称之为世界模型。他表示,婴儿在出生后的头几个月通过观察世界来学习基础知识。观察一个小球掉几百次,普通婴儿就算不了解物理,也会对重力的存在与运作有基础认知。LeCun表示他已经建立了世界模型的早期版本,可以进行基本的物体识别,并正致力于训练它做出预测。基于能量的模型(通过能量函数获取依赖关系)演讲中还介绍了一种基于能量的模型(EBM)架构,如图所示,数据点是黑点,能量函数在数据点周围产生低能量值,并在远离高数据密度区域的地方产生较高能量,如能量等高线所示。训练EBM有两类方法...PC版:https://www.cnbeta.com.tw/articles/soft/1429746.htm手机版:https://m.cnbeta.com.tw/view/1429746.htm

封面图片

【Sam Altman:开源GPT-3、降低GPT-4的成本、翻倍模型规模】

【SamAltman:开源GPT-3、降低GPT-4的成本、翻倍模型规模】2023年06月01日07点48分6月1日消息,AI开发平台HumanLoop创始人RazaHabib与OpenAI首席执行官SamAltman等20多位开发者开展了一次闭门讨论会,SamAltman透露了很多关于OpenAI的未来规划与目前遇到的情况。具体有:1.OpenAI目前严重受限于GPU,导致他们推迟了许多短期计划,大部分关于ChatGPT可靠性和速度的问题都是由于GPU资源短缺造成。2.给GPT-4降本提效是OpenAI当前的首要任务。3.更长的ChatGPT上下文窗口(最高可达100万个tokens)。将来会有一个记住对话历史记录的API版本。4.GPT-4的多模态功能要到2024年才会公开,在获取更多GPU资源前不能将GPT-4的视觉版本扩展到所有人。5.OpenAI正在考虑开源GPT-3,他们之所以还没有开源的部分原因是因为他们觉得没多少人和公司有能力妥善管理如此大型的大语言模型。6.最近很多文章声称的“巨型AI模型的时代已经结束”并不正确,OpenAI内部数据表明,规模与性能成正比的定律仍成立,OpenAI的模型规模每年可能会增加一倍或三倍(多方信息表明GPT-4参数规模10000亿),而不是增加许多数量级。

封面图片

GPT-3计划开源 Sam Altman自曝急缺GPU GPT-4多模态能力2024年开放

GPT-3计划开源SamAltman自曝急缺GPUGPT-4多模态能力2024年开放许多网友纷纷表示,我喜欢Altman的坦诚。值得一提的是,GPT-4的多模态能力,2024年应该大部分Plus用户就能上手了,前提还是有足够GPU才行。微软老大哥斥资12亿美元给OpenAI建的超算,还远远无法满足GPT-4运行时所需的算力。毕竟,GPT-4参数据称有100万亿。另外,Altman还透露,GPT-3也在OpenAI的开源计划之中。不知道是不是这次采访内容透露了太多OpenAI的“机密”,源文稿目前已被删除,快点码了。划重点最新访谈,是来自AI开发平台Humanloop的首席执行官RazaHabib主持,采访了Altman以及其他20位开发人员。这次讨论涉及到实际的开发者问题,以及与OpenAI的使命和AI的社会影响相关的更大的问题。以下是关键要点:1.OpenAI急缺GPU2.OpenAI的近期路线图:GPT-4多模态2024年开放3.通过API访问ChatGPT插件近期不会发布4.OpenAI只做ChatGPT这一“杀手级应用”,目标是让ChatGPT成为一个超级智能的工作助手5.GPT-3在开源计划中6.模型性能的缩放法则继续有效接下来,将从6大点介绍SamAltman究竟说了啥。OpenAI目前严重依赖GPU采访的一切话题都是围绕,“OpenAI太缺GPU了”。这已经拖延了他们许多的短期计划。目前,OpenAI的许多客户都在抱怨API的可靠性和速度。SamAltman解释道,主要还是GPU太缺了。OpenAI是英伟达DGX-1超算首位客户至于,支持32ktokens的上下文长度还不能推出给更多的人。由于OpenAI还没有克服技术上的障碍,看起来他们似乎今年就会有支持100k-1Mtokens的上下文,但需要在研究上取得突破。微调(Fine-Tuning)API也目前受到GPU可用性的限制。OpenAI还没有使用像Adapters或LoRa这样的高效微调方法,因此微调对于运行和管理来说是非常计算密集型的。不过,未来他们将对微调提供更好的支持。甚至,OpenAI可能会托管一个社区贡献的模型市场。最后,专用容量提供也受到GPU可用性的限制。今年年初,网友爆出OpenAI正在悄悄推出一个新的开发者平台Foundry,让客户在专用容量上运行该公司的新机器学习模型。这一产品就是“为运行较大工作负载的尖端客户设计”。要使用这项服务,客户必须愿意预付$100k的费用。然而,从透露的图片信息可以看出,实例并不便宜。运行GPT-3.5的轻量级版本,3个月的委托将花费78,000美元,一年将花费264,000美元。从另一侧面也可以看出,GPU消耗价格不菲。OpenAI近期路线图Altman分享了OpenAIAPI的暂定近期路线图:2023:·又快又便宜的GPT-4ーー这是OpenAI的首要任务。总的来说,OpenAI的目标是,尽可能地降低“智能成本”。因此他们将努力继续降低API的成本。·更长的上下文窗口ーー在不久的将来,上下文窗口可能支持高达100万个tokens。·微调API——微调API将扩展到最新的模型,但具体的形式将取决于开发人员真正想要的是什么。·有记忆的APIーー目前大部分token被浪费在上文的传输中,将来会有一个能够记住对话历史的API版本。2024:·多模态能力ーーGPT-4发布时曾演示了强大的多模态能力,但是在GPU得到满足之前,这一功能还无法拓展到所有人。插件“没有PMF”,短期内不会出现在API中许多开发者对通过API访问ChatGPT插件非常感兴趣,但Sam表示这些插件不会很快发布。“除了Browsing外,插件系统还没有找到PMF。”他还指出,很多人想把他们的产品放到ChatGPT里,但实际上他们真正需要的是把ChatGPT放到他们的产品里。除了ChatGPT,OpenAI不会发布更多产品OpenAI的每一次动作,都让开发者们抖三抖。不少开发人员表示,OpenAI可能发布与他们竞争的产品的时候,对使用OpenAIAPI构建应用感到紧张。而Altman表示,OpenAI不会在ChatGPT之外发布更多的产品。在他看来,伟大的公司有一个“杀手级应用”,ChatGPT就是要做这个创纪录的应用。ChatGPT的愿景是成为一个超级智能的工作助理。OpenAI不会触及到更多其他GPT的用例。监管是必要的,但开源也是必要的虽然Altman呼吁对未来模型进行监管,但他并不认为现有的模型是危险的。他认为,监管或禁止现有模型将是一个巨大的错误。采访中,他重申了自己对开源重要性的信念,并表示OpenAI正在考虑将GPT-3开源。而现在,OpenAI还没有开源的部分原因是,他对有多少个人和公司有能力托管,和提供大模型表示怀疑。模型性能“缩放法则”仍有效近来,许多文章声称,巨型人工智能模型的时代已经结束。然而,并没有准确反应Altman原意。OpenAI的内部数据表明,模型性能的缩放法则(scalinglaws)仍然有效,让模型变大将继续产生性能。不过,缩放的速度不能维持,因为OpenAI在短短几年内已经将模型扩大了数百万倍,未来这样做将不可持续。这并不意味着OpenAI不会继续尝试使模型更大,只是意味着它们可能每年只会增加1倍/2倍,而不是增加多个数量级。缩放法则继续有效的事实对AGI开发的时间线有重要的影响。缩放假设是我们可能已经有了构建AGI所需的大部分部件,剩下的大部分工作将是将现有的方法扩展到更大的模型和更大的数据集。如果缩放的时代结束了,那么我们可能应该预期AGI会更远。缩放法则继续有效强烈暗示了实现AGI时间线会变短。网友热评有网友调侃道,OpenAI:必须通过法规来保护我们的护城河。还是OpenAI:Meta在我们的护城河里撒尿,让我们也暗示一下我们的模型要开源吧。还有人称,如果GPT-3真的开源了,像LLMa一样,需要大约5天的时间在M1芯片上就能运行了。社区开发人员能够帮OpenAI解决GPU瓶颈,前提是他们开源模型。没几天,开发者们就能让其运行在CPU和边缘设备。GPU短缺一事,有人认为是OpenAI资金链出了问题,买不起。然而还有人称,明显是缺乏供应。除非芯片制造业发生革命,否则相对于消费GPU来说,可能总是会出现供应不足的情况。还有网友怀疑,英伟达的价值还是被低估?计算需求的阶梯式变化可能持续数年...英伟达刚刚加入万亿美元俱乐部,这样说来,无限的算力需求或许会成就一个世界超越2万亿美元的芯片厂。...PC版:https://www.cnbeta.com.tw/articles/soft/1363187.htm手机版:https://m.cnbeta.com.tw/view/1363187.htm

封面图片

基于 LLaMA 的 AI 聊天机器人开源实现

基于LLaMA的AI聊天机器人开源实现Meta的大语言模型LLaMA最近引起了广泛关注,它的一大优势是参数规模更小但性能强于OpenAI的GPT-3模型,而且能运行在单张显卡上,让普通消费者的硬件也有可能提供类似ChatGPT性能的AI聊天机器人。LLaMA是一组大语言模型的集合,其参数规模从70亿到650亿,它最新的LLaMA-13B模型有130亿个参数,不到GPT-3模型1750亿个参数的十分之一。现在AI推出了首个基于人类反馈强化学习的LLaMAAI聊天机器人开源实现。来源,前文:来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

OpenAI CEO Sam Altman 在与 MIT 研究科学家 Lex Fridman 长达 2 小时的对话中透露:

OpenAICEOSamAltman在与MIT研究科学家LexFridman长达2小时的对话中透露:“从ChatGPT开始,AI出现了推理能力。但没人能解读这种能力出现的原因。”“马斯克在我心中是英雄,我支持也理解他的担忧。虽然他在推特上挺混蛋的,但希望马斯克能看到我们在解决AGI安全问题上付出了多大的努力。”“GPT-4是人类迄今所实现的最复杂的软件”“GPT在迭代过程中“偏见”必然存在,它不可能保持完全中立。”而面对外界询问“GPT-4是AGI(通用人工智能)吗”这样的问题时,奥特曼则是直接给出了自己理解中的AGI:“AGI所掌握的知识应该是要超过人类科学知识总和的,并且具有创造性,能够推动基础科学的发展;而目前所有GPT并不能做到这些,想要达到AGI还需要在目前GPT的范式上进行拓展,至于如何拓展,正是目前所缺乏的。”“也许AGI是永远抵达不了的乌托邦,但这个过程会让人类越来越强大。”“我必须承认,AI杀死人类有一定可能性。很多关于AI安全和挑战的预测被证明是错误的,我们必须正视这一点,并尽早尝试找到解决问题的方法。”()投稿:@ZaiHuabot频道:@TestFlightCN

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人