VitalikButerin:GPT-4已通过图灵测试以太坊联合创始人VitalikButerin表示,OpenAI的GPT-4

None

相关推荐

封面图片

VitalikButerin:OpenAI的GPT-4已通过图灵测试

封面图片

【VitalikButerin:GPT-4已通过图灵测试】2024年05月17日01点51分老不正经报道,以太坊联合创始人Vit

封面图片

联合创始人Greg最新采访:为什么OpenAI最先做出GPT-4?

联合创始人Greg最新采访:为什么OpenAI最先做出GPT-4?纵观颠覆性技术的发展史,一个领域的主导者从来无法在下一个时代的平台上继续称雄,因为它们的成功会成为它们最大的桎梏。事实仿佛真的如此。即便Google疯狂自证在AGI领域的实力,但却只能在OpenAI身后追赶。为什么大企业无法创新?为什么是OpenAI首先开发出像GPT-4这样强大的模型?即使像Google、Meta有那么雄厚的资本,那么多人才储备也没有做到?5月15日,可汗学院(KhanAcademy)的CEO兼创始人萨尔曼・可汗(SalKhan)对OpenAI联合创始人兼总裁格雷格・布罗克曼(GregBrockman)进行了一段采访,这段采访或许能够帮助我们找到答案。研究与工程并重OpenAI日前向公众揭秘了Omni团队,团队成员年龄和司龄的年轻化,以及团队管理的扁平化引发了网友热议。其实在成员组合方面,也“暗藏玄机”。OpenAI的团队不仅有学术背景的研究型人才,同时还有优秀的工程人才,这种组合使他们能够从不同的角度解决问题,更有效地推动项目进步。Khan询问Brockman“你们认为自己做了什么才能达到如今的地位?在这个领域,有许多人在努力工作,也有许多资源雄厚的大型组织。你们认为自己做了什么与众不同?是因为你们的方法不同,还是有其他原因?”GregBrockman坦言“这是个很好的问题。我认为我们是更大趋势或历史的一部分。回顾过去70年的计算机发展史,我们经历了指数级的增长。”“2000年,RayKurzweil曾经说过,看看计算能力,它会告诉你什么是可能的。这就是推动进步的动力。起初大家都认为他疯了,但现在我相信大家基本上都认同他的观点。”RayKurzweil“想想我们为了实现像GPT-4这样的项目,付出了多少工程上的努力,从计算基础设施到使用的所有数据集和工具,这其实是全人类在很多方面的巨大努力。”“具体来说,我们能取得这些成就,是因为我们聚集了来自研究和工程背景的优秀人才。”“当我们开始这个项目时,让我感到非常有趣的是观察其他实验室的工作方式。你会发现,大多数实验室以研究为主,研究型工程师被告知要做什么,而研究科学家则可以随心所欲。”“这种方式似乎并不是实际构建一个工作系统的方法,更像是为了追求论文引用数量。如果你真的想产生影响并开发出有用的东西,你需要以不同的方式来组织团队。”“虽然说起来很简单,但实际上,这涉及到很多相互冲突的思维方式,特别是当你来自不同背景时。”我们必须尽力去解决这些问题,虽然你永远不能完全解决它们,但可以不断进步并挑战更复杂的版本。这就是我们需要勇于面对困难、勇于挑战的地方。」不会因为风险的存在而止步不前建立造福人类的AGIGregBrockman第一次对人工智能的概念感到兴奋,是在他读到阿兰・图灵(AlanTuring)1950年发表的关于图灵测试的论文的时候。他想看看,我们是否能够真正制造出图灵所说的那种机器,一种人类水平的智能,也就是我们所说的AGI,并让它造福于全人类。这是OpenAI诞生的缘起,也是它的使命和愿景。为了这个目标,OpenAI已经工作了8年。在这期间,OpenAI一直在做同样的事情——建立更大的神经网络,让它更有能力,更协调、更安全,与此同时,部署这项技术,并使其发挥作用。GregBrockman称“这就是我认为这项技术最吸引我的地方,每走一步,你都能真正产生影响,真正开始造福人类。你会看到你所建立的东西带来的好处,并真正学会如何减少所有的不利因素。”迎战新的风险当Khan问及AI的安全性问题,Brockman这样回答“AI的安全问题有着悠久的历史,早在50-60年代,阿瑟・克拉克这样的人就在谈论这个问题。”《2001:太空漫游》作者阿瑟・克拉克“我认为,对AI拥有这种复杂的情感是非常正确的,我们既要对任何新事物感到惊奇,又要问这是要去哪里,哪里会有陷阱?我认为只有这样,我们才能正确地在这个空间里航行。”Brockman提到,一件非常有趣的事情是,AI是如何变得看起来“令人惊讶”的?在90年代,每个人都认为,如果AI可以下棋,就说明进入了AGI时代,但实际上,这只是我们要解决的第一件事情,AI学会下棋并没有让我们真正走得更远。安全性问题也是一样。并不是说对AI安全的前瞻性的担忧一定不会发生,但Brockman认为,我们在错误的事情上过于自信了。他举了一个例子:对于GPT-3,OpenAI只是在基础数据集上进行训练后就将其发布,而对于GPT-4,团队则对模型进行了调整,尽力消除偏见。事实上OpenAI在2017年就开始开发这项技术,当时这些模型还没有出现。现在,GPT-4带来了一类新的风险,未来还会出现更多新的风险。风险和益处将会并存,关键是如何学会如何面对这种风险。在实践中学习当我们在思考GPT对教育领域的影响的时候,一些人可能会首先注意到抄袭的问题,Brockman也承认让学生独立思考非常重要。但是“对于那些无法获得出色的教育工具的人来说,ChatGPT是一个工具。教师可以根据自己的喜好,帮助学生进行某种工作并填补教育人员无法做到的空白。”至于如何制定规则,如何将这项技术融入教育,则需要“获得大量的意见,与大量的教育工作者接触。OpenAI不是这项事业唯一的决定者,从每个人那里获得广泛的意见很重要。”“我们为了实现真正的益处,和一线的教育工作者交谈,真正弄清楚他们想要什么。”我们还需要“真正展示积极面”。一旦你有了一个有效的正面例子,就很容易围绕它建立标准,如果没有这个,那么就相当于“在黑暗中开枪”。就像采访者Khan谈到的,ChatGPT对教育的影响取决于怎样使用,比方说我们可以用它来采访历史人物、练习辩论技巧等。更多正面使用的案例和经验需要在实践中获得。去年OpenAI发布了一篇关于部署语言模型安全标准的博客文章,这篇文章的形成用了2年的时间。Brockman告诉Khan“这种从实践中学习的迭代部署,是我们现在可以做的最重要的事情”。每个人都可以获得AI的“超能力”人工智能究竟会削弱人类能力,还是增强人类能力?Brockman和Khan都站在人工智能会增强人类能力的这一边。Brockman乐观地说“现在,拥有一部智能手机就可以开始以一种方式进行创作,而你之前必须购买一堆专业软件,你必须去学校接受大量的培训。”“我认为我们都可以获得人工智能的超能力,我们可以实现我们想要的目标”。当然,关于这个问题,每个人都可以有自己的答案,但GregBrockman无疑是一个乐观主义者,这或许也是OpenAI不断向前的原因所在。乐观是油门,悲观是刹车,两者都不可或缺,但是想要前进,我们必须多踩油门而不是刹车。...PC版:https://www.cnbeta.com.tw/articles/soft/1432620.htm手机版:https://m.cnbeta.com.tw/view/1432620.htm

封面图片

GPT-4已通过图灵测试

GPT-4已通过图灵测试计算机科学家约瑟夫-韦曾鲍姆(JosephWeizenbaum)于1966年开发的计算机程序Eliza表现最差,只有22%的人将其归类为人类。据科学家们称,这些结果首次提供了人工智能系统通过双人互动图灵测试的确凿证据,而且这很可能适用于未来几乎所有最先进的聊天机器人。英国数学家和计算机科学家阿兰-图灵于1950年首次提出了以他的名字命名的"模仿游戏"对话强度测试。从那时起,它就成了确定机器模仿人类对话能力的一个著名但有争议的基准。在该测试的现代变体中,人类"评委"会在不知道谁是谁的情况下与另一个人类或聊天机器人对话。如果面试官在50%的情况下不能可靠地区分计算机系统和人类,那么机器就被认为通过了测试。在当前的研究中,人类审讯者与代表其他人类、大型语言模型GPT-4和GPT-3.5以及基于对称列表处理器(SLIP)的简易对话系统Eliza的各种"证人"进行了互动,研究结果可在预印本服务器Arxiv上找到。研究人员随机分配人类参与者扮演法官或证人的角色。样本包括101个人类和GPT-3.5游戏,以及100个GPT4和Eliza游戏,所有游戏均通过一种消息应用程序进行,每个游戏持续五分钟。在402名审问者中,168人为女性,212人为男性,9人为非二元。13人不想提供任何信息。参与者的平均年龄为35岁。在2023年的上一次研究中,Eliza的表现明显更好,没有一个模型通过测试。这一次,科学家们采用了表现最好的GPT-4命令集(提示),并对其进行了修改。提示的第一部分指示模型表现得像一个年轻人,不要太认真地对待游戏,使用口语,不要出现拼写和语法错误。此外,它还不能提供太多的知识,尤其是语文和数学方面的知识。每轮测试开始时,都会添加一些额外的信息,如姓名、地点和时间戳。二人解释说,人类之所以不能百分之百地识别同类,是因为提问者认为人工智能的效率越来越高。这增加了他们将人类错误地识别为机器的可能性。为了深入了解影响审讯者做出决定的定性因素,研究小组对他们使用的策略和做出判断的理由进行了分类。36%的人询问证人的个人细节或日常活动。第二和第三类最常见的是社会和情感问题(25%)--例如,有关意见、经历和幽默的问题。审问者就其决定给出的最常见理由(43%)与基于拼写、语法、大小写和语气的语言风格有关。24%的人关注社会情感因素,如幽默感或个性。研究人员警告说,这些结果表明"当前人工智能系统的欺骗行为可能不会被发现"。能够成功模仿人类的机器人可能会产生"深远的经济和社会影响"。...PC版:https://www.cnbeta.com.tw/articles/soft/1434989.htm手机版:https://m.cnbeta.com.tw/view/1434989.htm

封面图片

研究称 GPT-4 通过图灵测试

研究称GPT-4通过图灵测试据科创板日报,自英国计算机科学家阿兰・图灵于1950年提出关于判断机器是否能够思考的著名试验“图灵测试”以来,该测试就被视为判断计算机是否具有模拟人类思维能力的关键。两位研究人员以真人、初代聊天机器人ELIZA、GPT-3.5和GPT-4为研究对象,试图了解谁在诱使人类参与者认为它是人类方面表现最成功。结果显示,多达54%的参与者将GPT-4误认为真人,是迄今为止首次有AI模型以如此高的结果通过图灵测试。

封面图片

研究人员称 GPT-4 通过图灵测试

研究人员称GPT-4通过图灵测试《生活科学》报道,OpenAI的GPT-4已经通过了图灵测试,这意味着该模型在对话中能够表现出类似人类的智能水平。图灵测试由计算机科学家阿兰·图灵提出,是评估人工智能是否能够与人类表现出相同智能的标准。此次测试结果显示,GPT-4的表现足够逼真,足以欺骗评判者,使其难以分辨其与人类的对话。关注频道@ZaiHuaPd频道爆料@ZaiHuabot

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人