谷歌工程师指责OpenAI阻碍AGI研究进展:推迟了5到10年

谷歌工程师指责OpenAI阻碍AGI研究进展:推迟了5到10年他表示,OpenAI“凭一己之力改变了游戏规则”,并使AGI的发展推迟了很多年。乔莱特指出,几年前,所有最先进的研究成果都是公开分享和发表的,但现在已经不是这样了。他将这一变化归因于OpenAI的影响力,指责他们导致了“前沿研究出版的全面关闭”。他接着批评OpenAI引发了对大型语言模型(LLM)的炒作,认为这转移了AGI研究其他潜在领域的资源和注意力。“OpenAI基本上将AGI的进展推迟了好几年,可能是5到10年,原因有两个。他们导致了前沿研究出版的全面关闭,但也引发了围绕LLM的最初炒作,现在LLM已经把氧气吸出了房间,”他说。乔莱特还回忆了人工智能研究的早期,他说尽管参与的人较少,但由于探索的方向更多样化,进展速度更快。他对这个领域的现状感到遗憾,每个人似乎都在做同一件事的不同版本。...PC版:https://www.cnbeta.com.tw/articles/soft/1434451.htm手机版:https://m.cnbeta.com.tw/view/1434451.htm

相关推荐

封面图片

OpenAI 推迟了 ChatGPT 的新语音模式

OpenAI推迟了ChatGPT的新语音模式OpenAI在其官方Discord服务器上发布了一篇文章,称其原计划于6月底开始向一小部分ChatGPTPlus用户推出高级语音模式的Alpha版,但由于一些问题迟迟得不到解决,不得不将推出时间推迟到7月。"例如,我们正在提高模型检测和拒绝某些内容的能力,"OpenAI写道。"我们还在努力改善用户体验,并准备将我们的基础设施扩展到数百万,同时保持实时响应。作为我们迭代部署策略的一部分,我们将从一小群用户开始进行阿尔法测试,以收集反馈,并根据我们所学到的知识进行扩展。"OpenAI表示,高级语音模式可能要到秋季才会面向所有ChatGPTPlus客户推出,这取决于它是否满足某些内部安全性和可靠性检查的要求。不过,这一延迟不会影响在OpenAI春季新闻发布会上单独演示的新视频和屏幕共享功能的推出。这些功能包括根据问题图片解决数学问题,以及解释设备上的各种设置菜单。这些功能不仅适用于智能手机上的ChatGPT,也适用于桌面客户端,比如MacOS应用程序,今天早些时候,所有ChatGPT用户都可以使用该应用程序。"ChatGPT先进的语音模式可以理解情绪和非语言线索并做出反应,让我们更接近与人工智能进行实时、自然的对话,"OpenAI写道。"我们的使命是将这些新体验深思熟虑地带给您。"在发布会的舞台上,OpenAI的员工展示了ChatGPT对请求的即时响应,例如在研究人员智能手机摄像头前的一张纸上解决一道数学题。OpenAI的高级语音模式因默认的"Sky"语音与女演员斯嘉丽-约翰逊(ScarlettJohansson)的语音相似而引发了不少争议。约翰逊后来发表声明说,她聘请了法律顾问来询问有关语音的问题,并获得了关于如何开发语音的确切细节--她拒绝了OpenAI关于授权她为ChatGPT配音的多次请求。OpenAI虽然否认在未经许可的情况下使用了约翰逊的声音,也没有使用相似的声音,但随后删除了违规的声音。...PC版:https://www.cnbeta.com.tw/articles/soft/1436111.htm手机版:https://m.cnbeta.com.tw/view/1436111.htm

封面图片

OpenAI悄悄更改“价值观”:不All in AGI的别来沾边

OpenAI悄悄更改“价值观”:不AllinAGI的别来沾边现如今,若是再浏览官网,其核心价值观已然发生了翻天覆地的变化。不仅从“六大”缩减到了“五大”,就连内容都换掉了:AGIfocus(聚焦AGI)、Intenseandscrappy(热切且斗志昂扬)、Scale(规模化)、Makesomethingpeoplelove(做人们喜欢的事物)、Teamspirit(团队精神)。而且“AGIfocus”赫然位列核心价值观之首:Wearecommittedtobuildingsafe,beneficialAGIthatwillhaveamassivepositiveimpactonhumanity’sfuture.我们致力于建立安全、有益的AGI,这将对人类的未来产生巨大的积极影响。Anythingthatdoesn’thelpwiththatisoutofscope.任何对此没有帮助的东西都不在讨论范围之内。尤其是第二句,说得直白一些,就是“任何跟AGI无关的都别来沾边”。其实早已有迹可循OpenAI对AGI如此重视也并不意外。毕竟CEOSamAltman已经不止一次对AGI做过评价,例如他曾在官网博客中把AGI描述为:通常比人类更聪明的系统。但在后续的采访中,他将这个定义降级描述为:相当于一个中等水平的人,你可以雇佣它作为同事。△SamAltman,由Midjourney生成而且他在个人的X(原Twitter)中,也经常谈及对AGI的想法:构建AGI是一个科学问题。构建超级人工智能是一个工程问题。就连收到同事送的《塞尔达传说》游戏,在表示这款游戏害得他落下许多工作之后,也不忘提一句AGI:AGI延迟4天。不过对于OpenAI更改核心价值观这一行为,有人却觉得很不OK:说改就改,这还是核心价值观吗?但在OpenAI的发展历程中,类似这样的变化也并非第一次。例如在最初2015年成立的时候,OpenAI还是一家非营利性研究实验室,本质上意味着构建好的AI来对抗坏的AI。后来在慢慢的发展过程中,OpenAI却与“非营利性”逐渐背道而驰,这也导致马斯克等人的陆续退出。至于OpenAI的使命和愿景,自2018年发布以来至今却没有变过,依旧是:确保通用人工智能(AGI)造福全人类。那么对于此次更改核心价值观这件事,你怎么看呢?...PC版:https://www.cnbeta.com.tw/articles/soft/1390195.htm手机版:https://m.cnbeta.com.tw/view/1390195.htm

封面图片

LPC 2022:谷歌工程师介绍Ghost Linux内核调度API的最新进展

LPC2022:谷歌工程师介绍GhostLinux内核调度API的最新进展在都柏林举办的LinuxPlumbersConference活动期间,Google介绍了其长期研究的“Ghost”项目的最新进展。可知作为从用户空间或eBPF程序控制Linux内核调度程序的一种方法,Ghost提供了相当广泛的API。对于开发者来说,他们还可根据系统偏好,而对调度行为进行微调。PC版:https://www.cnbeta.com/articles/soft/1315525.htm手机版:https://m.cnbeta.com/view/1315525.htm

封面图片

马斯克:将提高特斯拉 AI 工程师的薪酬 以阻止 OpenAI 挖角

马斯克:将提高特斯拉AI工程师的薪酬以阻止OpenAI挖角特斯拉首席执行官马斯克表示,由于面临人才争夺战,特斯拉一直在提高人工智能工程师的薪酬。他在自己的社交媒体网站X(前身为推特)上发帖称:“特斯拉正在增加人工智能工程团队的薪酬(视进展里程碑而定)。”他说,ChatGPT的创造者OpenAI一直在“积极招募特斯拉的工程师,提供巨额薪酬,不幸的是,在一些情况下取得了成功。”

封面图片

ChatGPT掀智力革命 OpenAI发布AGI路线图 最终通向超级智能世界

ChatGPT掀智力革命OpenAI发布AGI路线图最终通向超级智能世界随之而来的是,人们对其广泛应用也产生了担忧。前Alphabet执行董事EricSchmidt和其他合著者在WSJ发表的文章中称,生成式人工智能提出了自启蒙运动以来从未经历过的哲学挑战和实践挑战。就在昨日,OpenAI首席执行官SamAltman发文,分享了OpenAI对通用人工智能(AGI)的当前和后续规划。文章强调,OpenAI的使命是确保AGI造福全人类。OpenAI愿景:确保AGI造福全人类文中,提出了OpenAI最关心的三原则。如果AGI最终成功构建,这项技术不仅可以带来更多可能性,推动全球经济发展,还能改变新兴科学知识的发现,从方方面面帮助人类提升生活水平。AGI可以赋予每个人不可思议的新能力。在AGI触手可及的世界,所有人都可以获得几乎所有认知能力的帮助,AGI或许能成为人类才智和创造力的巨大力量增幅器。但另一方面,正如一些人所担心的,通用人工智能也会造成严重的滥用、意外和社会混乱。然而,AGI的益处令人惊叹,我们不能讳疾忌医,让社会永远停止发展;相反,社会和AGI开发者必须要想办法把它做好。与通用人工智能共同生活的未来图景难以预测,当前AI的进展可能会遭遇新的挑战,但在ChatGPT获得成功的当下,我们列出了公司最关心的几项原则:1.希望AGI可以为人类赋能,使人类能够在宇宙中实现最大程度的繁荣。我们不希望未来成为一个虚假的乌托邦,但我们希望将技术好的一面最大化,坏的一面最小化,让AGI成为人类善意的放大器。2.希望以公平的方式,更广泛地分享AGI的益处、获取和治理。3.要正确应对潜在风险。在面对这些风险时,理论上似乎正确的事情在实践中往往比预期更难以控制。我们必须通过部署功能较弱的技术版本来不断学习和适应,以最大程度地减少“无可挽回”的情况。短期目标:为AGI做好三项准备因此在短期内,OpenAI计划做到以下几件事。首先,随着公司不断构建出更为强大的AI系统,我们希望快速部署AGI,以积累在相应的应用经验。在OpenAI看来,谨慎管理AGI的最佳方式应该是逐渐过渡到AGI普及的世界。我们期望的未来,强大的人工智能技术能够加快世界进步的速度,渐进的方式让大众、政策制定者和研究机构有时间了解AGI技术带来的改变,亲身体验这些系统的好处和缺点,调整经济组织形式,并实施有效监管。同时,渐进的发展方式还能促使社会和AI共同进步,让人们在风险相对较低的情况下了解自身。OpenAI认为,成功解决AI应用挑战的最佳方法是采用快速学习和谨慎迭代的紧密反馈循环。在新技术的冲击下,社会将面临“人工智能系统被允许做什么、如何消除偏见、如何处理工作岗位流失”等重大问题。增加AI技术的使用大有裨益,OpenAI希望成为推广该技术的一员,通过将模型放入服务API中,将它们开源等方式实现。OpenAI表示,随着其开发的系统越来越接近AGI,该机构在模型的创建和部署方面都变得越来越谨慎。OpenAI需要权衡使用大模型的利弊。一方面,使用先进的大模型标志着重要的科技进展;另一方面,使用模型之后,公司和机构也需要考虑如何限制恶意行为者、避免对社会和经济造成不良影响等问题。其次,OpenAI正在努力创建更加一致和可控的模型。从GPT-3的第一个版本到InstructGPT和ChatGPT,这一步步的转变都彰显OpenAI在AI安全性方面所做的努力。值得注意的是,人类社会需要就如何使用人工智能达成极其广泛的界限。随着模型变得更强大,OpenAI将需要开发新的对齐技术。OpenAI的短期计划是使用AI来帮助人类评估更复杂模型的输出并监控复杂系统,而从长远来看,OpenAI将会使用AI来帮助获得更好的对齐技术。OpenAI认为,人工智能安全和能力同样重要,二者不应该分开谈论。OpenAI表示其最安全的工作出自其最有能力的模型之手。也就是说,提高人工智能的安全性对AI研究进步非常重要。第三,OpenAI希望全球范围内解决三个关键问题:人工智能系统的治理问题,AI系统产生的收益的分配问题,以及访问权限的共享问题。此外,根据OpenAI公司章程,OpenAI需协助其他组织提高安全性,不能在后期AGI开发中与对手竞争。OpenAI投资规则中对股东可以获得的回报设定了上限,这样研究机构本身就不会被引诱去尝试无限制地获取价值,也不会冒险使用具有灾难性危险的技术。OpenAI由非营利组织管理,以保证该机构是为人类的利益而运行,并且可以凌驾于任何营利利益之上。最后,OpenAI认为全球政府应对超过一定规模的机器学习训练保持监管。长远目标:更加繁荣的超级智能世界相比于短期计划,OpenAI的AGI长远发展显得更为宏大。OpenAI相信人类的未来应该由人类自己决定,与公众分享有关进步的信息至关重要。因此,应该对所有AGI发展项目进行严格审查,并在重大决策上面向公众进行咨询。在OpenAI看来,第一个AGI只会是人工智能持续发展中的一个小节点,然后从这个节点开始不断衍生出新的进展。公司预测,AI的未来发展可能会在很长一段时间内和我们过去十年的进展速度类似。也许有一天,世界会发生翻天覆地的变化,科技的进步也可能带给人类很大的风险。一个“错位的”超级智能AGI可能会对世界造成严重的伤害。因此,OpenAI认为放缓AGI的发展速度更容易确保安全。即使技术的进展让我们有迅速发展AGI的能力,但保持减速能让社会有足够的时间来适应。成功过渡到一个拥有超级智能的世界可能是人类历史上最重要、最有希望,但也最可怕的项目。没人能保证这一天何时到来,但人们已经探明的利害关系有助于将所有人团结起来。无论如何,那将是一个繁荣到超乎想象的世界。而OpenAI希望为世界贡献一个与这种繁荣相一致的通用人工智能。ChatGPT预示着一场智力革命近日,前美国务卿HenryKissinger、前Alphabet执行董事EricSchmidt、麻省理工苏世民计算机学院首任院长DanielHuttenlocher撰写了一篇“ChatGPT预示着一场智力革命”的文章。文章中透露了他们对当前生成式人工智能的担忧:生成式人工智能提出了自启蒙运动以来从未经历过的哲学和实践挑战。文章开头便阐述了当前ChatGPT对人类的影响。一项新技术旨在改变人类的认知过程,因为它自印刷术发明以来从未动摇过。1455年印刷古腾堡圣经的技术使抽象的人类思想得以普遍而迅速地传播。但今天的这项新技术逆转了这一过程。印刷机造成了现代人类思想的大量涌现,而新技术则实现了对它的提炼和阐述。在这一过程中,它在人类知识和人类理解之间造成了差距。如果我们要成功地驾驭这种转变,就需要发明人类思想和与机器交互的新概念。这就是人工智能时代的基本挑战。这项新技术被称为生成性人工智能,最具代表性的便是OpenAI研究实验室开发的ChatGPT。随着它的能力变得变得更加广泛,它们将重新定义人类的知识,加速我们现实结构的变化,并重组政治和社会。生成式人工智能同样将为人类理性开辟革命性的道路,为巩固知识开辟新的视野。但两者之间也存在着明显的区别。启蒙知识是逐步实现的,每一步都是可测和可教的。AI系统,如ChatGPT,可以存储和提炼大量现有信息,并能够在不解释其过程情况下输出结果,这是人类无法做到的。此外,人工智能的能力不是一成不变的,而是随着技术的进步呈指数级增长。我们迫切需要开发一种复杂的辩证法,使人们能够挑战生成式人工智能的交互性,不仅要证明或解释人工智能的答案,还要对其进行审问。带着一致的怀疑态度,我们应该学会有条不紊...PC版:https://www.cnbeta.com.tw/articles/soft/1346451.htm手机版:https://m.cnbeta.com.tw/view/1346451.htm

封面图片

马斯克用微软论文当论据起诉OpenAI:你们自己早承认AGI了

马斯克用微软论文当论据起诉OpenAI:你们自己早承认AGI了去年论文发表时就引发不小关注,1年时间里被引次数已经高达1500次。马斯克的起诉书里写道,微软自己的科学家自己都承认了。这么看,OpenAI最新的一通回应不是啪啪自己打脸?还真不一定。这篇《SparksofAGI》当初爆火确实不假,但其中很大一部分热度来自争议。不少人觉得它不够严谨、在炒热度,而且这篇论文没有经过同行评议,只是上传到了arxiv,结果也无法复现。所以这篇论文到底说了啥?马斯克凭啥敢拿它大做文章?论文说了啥?这篇论文主要测试了GPT-4在2022年秋季的一个早期版本。研究提出,GPT-4不仅掌握语言能力,而且能解决复杂新奇的问题,任务可以跨数学、编码、医学、法律、视觉等。在这些任务中,GPT-4的表现接近于人类水平,大大超越以往LLM性能,比如ChatGPT。由此,研究给出了关键性结论:我们认为它可以被合理地视作一个早期版本(仍不完整)的AGI。在此基础上,研究团队还进一步探讨了真正意义上的AGI应该具备哪些要素。论文全篇超过150页,分别测试了GPT-4的多模态、代码、数学、常识等能力,通过大量实例得出结论。以测试代码能力为例,GPT-4和ChatGPT会得到同样的提示词,研究人员将会对回答结果进行分析。GPT-4的一些数据结果非常值得关注。比如在零样本下,GPT-4代码能力在HumanEval上的精度达到82%。再比如在现实问题问答中,GPT-4的表现也远好于ChatGPT。研究还讨论了GPT-4基于自回归架构表现出的局限性。比如模型本身具备相应的知识能力,但是却会回答错问题,因为预测下一个token的机制使得模型不能进行“内心对话”。最后,论文作者还提出了对AGI的一系列构想。这篇论文发表于GPT-4面世的一周后,当时引发业界巨大关注。“AGI的闪现”让不少人感叹,一切都结束了。但质疑也不少,很多人觉得这个结论是不是有点夸大其词了?而且研究团队承认使用的一些测试方法不够科学严谨,他们主要是想展示GPT-4卓越的能力。不过可以肯定的是,这篇论文成功把GPT-4和AGI强关联,给GPT-4创造了更多讨论热度,也成为AGI讨论热潮的重要推力。可是谁又能想得到,它现在倒成为马斯克起诉OpenAI的关键了。马斯克到底想干啥?马斯克搞事,总是醉翁之意不在酒。去年他和千名大佬共同呼吁暂停开发AI半年,结果转头自己囤卡、开搞大模型,火速成立AI初创公司xAI。今年起诉OpenAI,核心的目的就是督促其开源。号称GPT-4是AGI也是给OpenAI上道德压力。一方面要求他们开源,另一方面提出“AGI算法不应该授权给微软”。所以有人合理怀疑,这场官司“会让一切减速”。与此同时,马斯克的Grok也还在稳步推进中,目前已发布Grok-2。值得一提的是,去年OpenAI宫斗前后,马斯克曾在一场访谈中表示,从现在(23年12月)算起,AGI还有不到3年。但往小了说,写小说和JK罗琳一样好、能发现新物理规律或发明新技术的AI,从现在算起还有不到3年。当时他还表示觉得山姆·奥特曼很复杂。目前,OpenAI方面除了否认GPT-4是AGI外,还没有更多回应。有法律专家认为,马斯克列出的一系列观点,很难当成明确的条款来执行。“诉讼可能比较牵强”,但是提出了“强有力的政策论点”。有圈内大V还觉得马斯克这么干,有点吃不到葡萄说葡萄酸。马库斯则调侃说,马斯克这么做逼得OpenAI不得不承认自己没达到AGI,但是可以找第三方来承认。比如雇我这样的人来拯救他们。...PC版:https://www.cnbeta.com.tw/articles/soft/1422167.htm手机版:https://m.cnbeta.com.tw/view/1422167.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人