ChatGPT火了,OpenAI却飘了?

ChatGPT火了,OpenAI却飘了?1月中旬,《纽约时报》报道称,北密歇根大学的哲学教授AntonyAumann在世界宗教课程评分时,惊喜地读到了一篇“全班最好的论文”。学生用简洁的段落、恰当的举例和严谨的论据,探讨了罩袍禁令的道德意义。然而,在Aumann的追问之下,学生承认论文用ChatGPT写的。类似的例子还有很多。也正是随着ChatGPT在全球范围内的爆火,OpenAI也被迅速推到了舆论的“风口浪尖”。可以说,OpenAI目前处于聊天机器人军备竞赛的领头地位。单以ChatGPT为例,公开发布和微软数十亿美元的合作不仅刺激了Google和亚马逊紧急在产品线中布局人工智能,OpenAI还与贝恩合作,将机器学习引入可口可乐的运营,并计划扩展到其他企业合作伙伴。毫无疑问,OpenAI的人工智能已经成了笔大生意,但其实这与OpenAI最初的计划有些出入。“人类的未来应该由人类来决定”上周五,OpenAI首席执行官SamAltman发表了一篇博文,题为“规划AGI和超越”(PlanningforAGIandbeyond)。在文章中,他宣称OpenAI的通用人工智能(AGI)目前还远没达到要求,许多人怀疑它能否造福全人类,是否“有可能给每个人带来令人难以置信的新能力”。Altman用一种宽泛的、理想主义的语言来论证人工智能的发展不应停止,“人类的未来应该由人类来决定”,这里暗暗指向了OpenAI。几乎是在ChatGPT爆火的周期内,这篇博文和OpenAI近期的行动不断提醒着大家,OpenAI的基调和使命与它成立时相比发生了多大的变化。成立初期的OpenAI只是一个非营利组织。虽然公司一直着眼于AGI发展,但成立时他们承诺不追求利润,免费分享开发代码。而今天,这些承诺已经无处可寻。OpenAI的动力变成了速度和利润2015年,Altman、马斯克、PeterThiel、ReidHoffman宣布成立一家非营利性研究机构OpenAI。在成立声明中,OpenAI宣布,研究承诺“以最有可能造福全人类的方式推进人工智能,不受产生经济回报的限制”。该博客还称,“由于我们的研究没有财务义务,可以更好地专注于对人类的积极影响”,并鼓励所有研究人员分享“论文、博客文章或代码,我们的专利(如果有的话)将与世界共享”。8年后,我们面对的是一家既不透明也不以积极的人类影响为动力的公司。相反,正如包括马斯克在内的许多批评者所认为的那样,OpenAI的动力变成了速度和利润。同时,OpenAI正在释放技术。当然其中存在缺陷,但仍准备以牺牲人类员工为代价增加工作场所的自动化转变。例如,Google强调了自动完成代码的人工智能带来的效率提升,从而导致数千名工人被裁。OpenAI初期,媒体与从业者们都将其设想为以开放的方式进行基础人工智能研究,目的不确定。联合创始人GregBockman曾说:“我们现在的目标......是做最好的事情。这有点模糊不清”。这也无形之中促成了公司在2018年方向的转变。当时,OpenAI向资本资源寻求一些方向,“我们的主要受托责任是对人类。我们预计需要调集大量资源来完成我们的使命”。到2019年3月,OpenAI已经完全摆脱了其非盈利的头衔,建立了一个“封顶利润(cappedprofit)”部门。这使得OpenAI开始接受投资,并会为投资者提供封顶为投资100倍的利润。这项决定被视为是与Google等大科技公司的一次竞争,而不久后公司也如愿获得了微软10亿美元的投资。在宣布成立营利性公司的博文中,OpenAI继续使用相同的说法,宣称其使命是“确保通用人工智能惠及全人类”。但正如Motherboard写道,当风险投资家的主要目标是利润时,很难相信他们能拯救人类。OpenAI还值得公众的信任吗?2019年,OpenAI宣布和发布GPT-2语言模型时面临了舆论反弹。起初,该公司表示,由于“担心该技术的恶意应用”,它不会发布训练模型的源代码。虽然这在一定程度上反映了其对开发有益人工智能的承诺,但它也不是很“开放”。批评者想知道为什么OpenAI会在宣布了一个工具之后却不发布,于是不少人认为这只是宣传噱头。直到三个月后,OpenAI才在GitHub上发布了该模型,并表示这一行动是“负责任地发布人工智能的一个重要基础,特别是在强大的生成模型方面”。调查记者KarenHao在2020年期间在公司内部待了几天,根据他的说法,OpenAI的内部文化开始不再反映谨慎的、研究驱动的人工智能开发过程,而是更注重出人头地,这也导致人们指责其助长了“人工智能炒作周期”。员工现在也被要求对手头的工作保持沉默,以遵守公司新的章程。“公司公开支持的内容和闭门造车的方式之间存在着错位。随着时间的推移,它已经允许激烈的竞争和不断增加的资金压力侵蚀其透明、开放和合作的创始理想。”Hao写道。但总的来说,GPT-2的推出对OpenAI而言无疑是一件值得庆祝的事,也是公司发展至今的重要基石。“这绝对是成功故事框架的一部分”,现任政策研究主管MilesBrundage在一次会议上说,“这一部分的剧情应该是这样的:我们做了一件雄心勃勃的事情,现在有些人正在复制它,这里还应该有一些对这项创新益处的解释”。从那时起,OpenAI保留了GPT-2发布公式中的炒作部分,但取消了开放性。2020年,GPT-3正式推出,并迅速“独家”授权给微软。GPT-3的源代码仍未发布,尽管目前OpenAI已经在紧锣密鼓地筹备GPT-4了;该模型只是通过ChatGPT的API向公众开放,OpenAI还推出了一个付费层以保证对该模型的访问。这样做当然是有一些考量。首先就是钱。OpenAI在API公告博客中表示,“将技术商业化有助于支付我们正在进行的人工智能研究、安全和政策工作”。第二个原因是偏向于帮助大公司。“除了大公司之外,任何人都很难从底层技术中获益”。最后,公司还表示,通过API而不是开源发布更安全,因为该公司可以应对滥用情况。“你们一直告诉我们AGI快了,但在你们的网站上甚至没有一个一致的定义。”计算机科学家TimnitGebru在Twitter上表示。华盛顿大学语言学教授EmilyM.Bender在Twitter上说,“他们不想解决实际世界中的实际问题(这将需要让出权力)。他们想相信自己是神,不仅可以创造一个‘超级智能’,而且有恩惠,以一种与人类‘一致’的方式这样做”。这种人工智能是否会像该公司最初设想的那样,负责任地分享,公开开发,没有盈利动机?或者它是会被匆匆推出,有许多令人不安的缺陷,但主要是为OpenAI带来收益?OpenAI是否会将其科幻的未来保持在闭源状态?结合了ChatGPT之后,微软的必应聊天机器人处于“走火入魔”的状态,不断欺骗和呵斥着用户,传播错误信息。OpenAI不能可靠地检测自己的聊天机器人生成的文本,尽管教育工作者对学生使用该应用程序作弊的情况越来越关注。人们也已经轻易地对语言模型进行了越狱,无视OpenAI在其周围设置的护栏,机器人在输入随机的单词和短语时会崩溃。没有人能说清楚原因,因为OpenAI没有分享底层模型的代码,可能在某种程度上,OpenAI自己也不太可能完全理解它的工作原理。考虑到这一切,我们都应该仔细考虑OpenAI是否值得它要求公众给予的信任,而对此,OpenAI没有做出任何实质性的回应。...PC版:https://www.cnbeta.com.tw/articles/soft/1347537.htm手机版:https://m.cnbeta.com.tw/view/1347537.htm

相关推荐

封面图片

【OpenAI称ChatGPT应受到监管:ChatGPT或被坏人利用】

【OpenAI称ChatGPT应受到监管:ChatGPT或被坏人利用】人工智能研究公司OpenAI首席技术官米拉·穆拉蒂(MiraMurati)表示,ChatGPT可能会“编造事实”,这与其他基于语言模型的人工智能工具没有什么区别一样。当被问及像OpenAI这样的公司等机构是否有责任监管这一工具时,穆拉蒂说:“对OpenAI等公司来说,最重要的是以一种可控和负责任的方式将其引入公共意识。”但她强调,公司还需要来自监管机构、政府甚至所有人的帮助。穆拉蒂补充说,现在对ChatGPT进行监管“并不算为时过早”。

封面图片

OpenAI公布大模型新训练方法:阻止ChatGPT“一本正经地胡说八道”

OpenAI公布大模型新训练方法:阻止ChatGPT“一本正经地胡说八道”OpenAI公司的研究人员表示,即使是最先进的人工智能模型也会杜撰虚假信息,尤其是在拿不准的时候,它们往往倾向于编造事实。在要求多步骤推理的领域,人工智能胡编的后果尤为严重,因为一个单一的逻辑错误会导致整个解决方案“翻车”。OpenAI准备采用新战略,防止人工智能胡编。比如在过去,一旦提供一个正确的最终答案,模型会获得某种鼓励,但是以后,在每一个单一的逻辑推理环节如果表现正确,就将获得鼓励反馈。这种模式也被称之为“过程监督”(以往的模式术语“结果监督”)。研究人员表示,“过程监督”模式有助于产生更加清晰合理的回答,它将会鼓励生成式人工智能能够像人类一样,在推理思考中做到“环环相扣”。OpenAI公司“随机生成数学”研究专家卡尔·柯比(KarlCobbe)表示,发现并且减少人工智能模型的逻辑错误,也就是“AI幻觉”,是构建“通用人工智能”的关键一步。另外,“过程监督”模式并非OpenAI公司发明,但是该公司正在加以推广普及。来源,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

ChatGPT掀智力革命 OpenAI发布AGI路线图 最终通向超级智能世界

ChatGPT掀智力革命OpenAI发布AGI路线图最终通向超级智能世界随之而来的是,人们对其广泛应用也产生了担忧。前Alphabet执行董事EricSchmidt和其他合著者在WSJ发表的文章中称,生成式人工智能提出了自启蒙运动以来从未经历过的哲学挑战和实践挑战。就在昨日,OpenAI首席执行官SamAltman发文,分享了OpenAI对通用人工智能(AGI)的当前和后续规划。文章强调,OpenAI的使命是确保AGI造福全人类。OpenAI愿景:确保AGI造福全人类文中,提出了OpenAI最关心的三原则。如果AGI最终成功构建,这项技术不仅可以带来更多可能性,推动全球经济发展,还能改变新兴科学知识的发现,从方方面面帮助人类提升生活水平。AGI可以赋予每个人不可思议的新能力。在AGI触手可及的世界,所有人都可以获得几乎所有认知能力的帮助,AGI或许能成为人类才智和创造力的巨大力量增幅器。但另一方面,正如一些人所担心的,通用人工智能也会造成严重的滥用、意外和社会混乱。然而,AGI的益处令人惊叹,我们不能讳疾忌医,让社会永远停止发展;相反,社会和AGI开发者必须要想办法把它做好。与通用人工智能共同生活的未来图景难以预测,当前AI的进展可能会遭遇新的挑战,但在ChatGPT获得成功的当下,我们列出了公司最关心的几项原则:1.希望AGI可以为人类赋能,使人类能够在宇宙中实现最大程度的繁荣。我们不希望未来成为一个虚假的乌托邦,但我们希望将技术好的一面最大化,坏的一面最小化,让AGI成为人类善意的放大器。2.希望以公平的方式,更广泛地分享AGI的益处、获取和治理。3.要正确应对潜在风险。在面对这些风险时,理论上似乎正确的事情在实践中往往比预期更难以控制。我们必须通过部署功能较弱的技术版本来不断学习和适应,以最大程度地减少“无可挽回”的情况。短期目标:为AGI做好三项准备因此在短期内,OpenAI计划做到以下几件事。首先,随着公司不断构建出更为强大的AI系统,我们希望快速部署AGI,以积累在相应的应用经验。在OpenAI看来,谨慎管理AGI的最佳方式应该是逐渐过渡到AGI普及的世界。我们期望的未来,强大的人工智能技术能够加快世界进步的速度,渐进的方式让大众、政策制定者和研究机构有时间了解AGI技术带来的改变,亲身体验这些系统的好处和缺点,调整经济组织形式,并实施有效监管。同时,渐进的发展方式还能促使社会和AI共同进步,让人们在风险相对较低的情况下了解自身。OpenAI认为,成功解决AI应用挑战的最佳方法是采用快速学习和谨慎迭代的紧密反馈循环。在新技术的冲击下,社会将面临“人工智能系统被允许做什么、如何消除偏见、如何处理工作岗位流失”等重大问题。增加AI技术的使用大有裨益,OpenAI希望成为推广该技术的一员,通过将模型放入服务API中,将它们开源等方式实现。OpenAI表示,随着其开发的系统越来越接近AGI,该机构在模型的创建和部署方面都变得越来越谨慎。OpenAI需要权衡使用大模型的利弊。一方面,使用先进的大模型标志着重要的科技进展;另一方面,使用模型之后,公司和机构也需要考虑如何限制恶意行为者、避免对社会和经济造成不良影响等问题。其次,OpenAI正在努力创建更加一致和可控的模型。从GPT-3的第一个版本到InstructGPT和ChatGPT,这一步步的转变都彰显OpenAI在AI安全性方面所做的努力。值得注意的是,人类社会需要就如何使用人工智能达成极其广泛的界限。随着模型变得更强大,OpenAI将需要开发新的对齐技术。OpenAI的短期计划是使用AI来帮助人类评估更复杂模型的输出并监控复杂系统,而从长远来看,OpenAI将会使用AI来帮助获得更好的对齐技术。OpenAI认为,人工智能安全和能力同样重要,二者不应该分开谈论。OpenAI表示其最安全的工作出自其最有能力的模型之手。也就是说,提高人工智能的安全性对AI研究进步非常重要。第三,OpenAI希望全球范围内解决三个关键问题:人工智能系统的治理问题,AI系统产生的收益的分配问题,以及访问权限的共享问题。此外,根据OpenAI公司章程,OpenAI需协助其他组织提高安全性,不能在后期AGI开发中与对手竞争。OpenAI投资规则中对股东可以获得的回报设定了上限,这样研究机构本身就不会被引诱去尝试无限制地获取价值,也不会冒险使用具有灾难性危险的技术。OpenAI由非营利组织管理,以保证该机构是为人类的利益而运行,并且可以凌驾于任何营利利益之上。最后,OpenAI认为全球政府应对超过一定规模的机器学习训练保持监管。长远目标:更加繁荣的超级智能世界相比于短期计划,OpenAI的AGI长远发展显得更为宏大。OpenAI相信人类的未来应该由人类自己决定,与公众分享有关进步的信息至关重要。因此,应该对所有AGI发展项目进行严格审查,并在重大决策上面向公众进行咨询。在OpenAI看来,第一个AGI只会是人工智能持续发展中的一个小节点,然后从这个节点开始不断衍生出新的进展。公司预测,AI的未来发展可能会在很长一段时间内和我们过去十年的进展速度类似。也许有一天,世界会发生翻天覆地的变化,科技的进步也可能带给人类很大的风险。一个“错位的”超级智能AGI可能会对世界造成严重的伤害。因此,OpenAI认为放缓AGI的发展速度更容易确保安全。即使技术的进展让我们有迅速发展AGI的能力,但保持减速能让社会有足够的时间来适应。成功过渡到一个拥有超级智能的世界可能是人类历史上最重要、最有希望,但也最可怕的项目。没人能保证这一天何时到来,但人们已经探明的利害关系有助于将所有人团结起来。无论如何,那将是一个繁荣到超乎想象的世界。而OpenAI希望为世界贡献一个与这种繁荣相一致的通用人工智能。ChatGPT预示着一场智力革命近日,前美国务卿HenryKissinger、前Alphabet执行董事EricSchmidt、麻省理工苏世民计算机学院首任院长DanielHuttenlocher撰写了一篇“ChatGPT预示着一场智力革命”的文章。文章中透露了他们对当前生成式人工智能的担忧:生成式人工智能提出了自启蒙运动以来从未经历过的哲学和实践挑战。文章开头便阐述了当前ChatGPT对人类的影响。一项新技术旨在改变人类的认知过程,因为它自印刷术发明以来从未动摇过。1455年印刷古腾堡圣经的技术使抽象的人类思想得以普遍而迅速地传播。但今天的这项新技术逆转了这一过程。印刷机造成了现代人类思想的大量涌现,而新技术则实现了对它的提炼和阐述。在这一过程中,它在人类知识和人类理解之间造成了差距。如果我们要成功地驾驭这种转变,就需要发明人类思想和与机器交互的新概念。这就是人工智能时代的基本挑战。这项新技术被称为生成性人工智能,最具代表性的便是OpenAI研究实验室开发的ChatGPT。随着它的能力变得变得更加广泛,它们将重新定义人类的知识,加速我们现实结构的变化,并重组政治和社会。生成式人工智能同样将为人类理性开辟革命性的道路,为巩固知识开辟新的视野。但两者之间也存在着明显的区别。启蒙知识是逐步实现的,每一步都是可测和可教的。AI系统,如ChatGPT,可以存储和提炼大量现有信息,并能够在不解释其过程情况下输出结果,这是人类无法做到的。此外,人工智能的能力不是一成不变的,而是随着技术的进步呈指数级增长。我们迫切需要开发一种复杂的辩证法,使人们能够挑战生成式人工智能的交互性,不仅要证明或解释人工智能的答案,还要对其进行审问。带着一致的怀疑态度,我们应该学会有条不紊...PC版:https://www.cnbeta.com.tw/articles/soft/1346451.htm手机版:https://m.cnbeta.com.tw/view/1346451.htm

封面图片

OpenAI首席技术官:ChatGPT可能会被“坏人”利用 应受到监管

OpenAI首席技术官:ChatGPT可能会被“坏人”利用应受到监管穆拉蒂补充说,ChatGPT可能会“编造事实”,这与其他基于语言模型的人工智能工具没有什么区别一样。穆拉蒂还在采访中强调,像ChatGPT这样的人工智能工具“可能被滥用,也可能被坏人使用”,引发了关于如何在全球范围内对其进行监管的问题。问题就是,穆拉蒂说,“你该如何以一种符合人类价值观的方式管理人工智能的使用?”当被问及像OpenAI这样的公司等机构是否有责任监管这一工具时,穆拉蒂说:“对OpenAI等公司来说,最重要的是以一种可控和负责任的方式将其引入公共意识。”但她强调,公司还需要来自监管机构、政府甚至所有人的帮助。穆拉蒂补充说,现在对ChatGPT进行监管“并不算为时过早”。OpenAI没有立即回应置评请求。今年1月份,OpenAI首席执行官萨姆·奥尔特曼(SamAltman)在接受采访时表示:“生成文本是我们都需要适应的东西。”他说,“我想,我们适应了计算器,改变了数学课上的测试内容。毫无疑问,ChatGPT是一个更极端的例子,它带来的好处也更极端。”自去年11月30日OpenAI公开发布ChatGPT以来,这款人工智能聊天机器人就引起了人们的极大兴趣,有不少人甚至担心最终ChatGPT将取代许多人的工作。有人用ChatGPT和另一种自动生成图形的人工智能工具写出了一本儿童书籍。研究人员还用ChatGPT去回答美国医学执照考试的问题,结果表明ChatGPT“稳稳”通过所有三个部分的考核内容。...PC版:https://www.cnbeta.com.tw/articles/soft/1342769.htm手机版:https://m.cnbeta.com.tw/view/1342769.htm

封面图片

苹果宣布与OpenAI达成合作 从GPT-4o开始集成ChatGPT

苹果宣布与OpenAI达成合作从GPT-4o开始集成ChatGPT在苹果公司努力整合人工智能功能以媲美其他大型科技公司之际,出现了我们期待已久的合作关系。苹果公司在周一举行的WWDC2024主题演讲上宣布,将与OpenAI合作集成ChatGPT,从GPT-4o开始。苹果公司一直在与Google和OpenAI讨论,希望将它们的人工智能技术整合到其操作系统中。最终,OpenAI与其达成了协议。有人猜测,OpenAI最近推出的语音助手GPT-4o(因声音酷似电影《她》中的斯嘉丽-约翰逊而备受批评)是为了展示OpenAI的技术如何能够增强苹果的Siri。在这次合作中,苹果公司宣布了一系列新的人工智能功能,这些功能被称为"苹果智能"(AppleIntelligence)。iPhone可以在应用程序中为你采取行动,Siri的功能将得到全面提升,还有人工智能写作工具,而所有这些都将保持苹果公司的核心数据隐私理念。ChatGPT4o将于"今年晚些时候"登陆iOS、macOS和iPadOS,它是Siri在无法满足你的要求时可以求助的聊天机器人。苹果表示,当它这样做时,会先征求你的同意。苹果表示,它将从最好的聊天机器人开始,但也会支持其他人工智能模型。...PC版:https://www.cnbeta.com.tw/articles/soft/1434271.htm手机版:https://m.cnbeta.com.tw/view/1434271.htm

封面图片

OpenAI 推出了专为大学开发的 ChatGPT 新版本

OpenAI推出了专为大学开发的ChatGPT新版本当地时间30日,人工智能公司OpenAI宣布推出ChatGPTEdu,这是专为学生、学者和教职员工打造的全新版本。该公司在一篇博客文章中表示:“ChatGPTEdu专为希望向学生及其校园社区更广泛地部署人工智能的学校而设计。”该版本可以访问GPT-4o,消息限制也将比免费版高得多。允许大学根据自己的数据训练定制版本的ChatGPT,并在大学工作区内共享。OpenAI声称ChatGPTEdu的对话和数据不会用于训练OpenAI的模型。——

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人