GPT-4创造力竟全面碾压人类 最新创造力测试GPT4排名前1%

GPT-4创造力竟全面碾压人类最新创造力测试GPT4排名前1%不管是流畅性、灵活性,还是原创性,要不和人类势均力敌,要不直接碾压人类。这项研究在南俄勒冈大学的创意会议上发表(ConferenceonCreativity)。包括蒙大拿大学和西澳大学教授在内的一个研究小组发现:OpenAI的GPT-4在托伦斯创造性思维测试(TTCT)中的得分在前1%,在流畅性、灵活性和原创性等创造性能力方面与人类相匹配或超过了人类。这些发现在南俄勒冈大学的创意会议上发表。GPT-4“头脑风暴”主导这项研究的Guzik博士表示,这项研究对初创企业的建立和小企业的发展会有巨大影响,它将成为推动整体经济活动增长的重要力量。Guzik进一步阐释,GPT-4所表现出的非凡创造力标志着AI驱动的头脑风暴和解决方案开发的全新阶段。换句话说,以往初创企业和小企业基本都面临资源限制的典型问题,这限制了他们雇佣大型团队,对市场进行全面研究的能力。而这一切,将会被AI的创造力扭转。该研究团队的第一次会面,是在2013年Boise州立大学举办的创新和创造力研讨会上。当时,Gilde博士和Guzik博士参加了由Byrge举办的主题研讨会。三人发现,他们都对和创造力有关的东西感兴趣。他们共同认为,AI技术会对商业教育和商业发展有重大辅助作用。随着他们对AI的探索不断加深,更印证了他们的想法。“尤其是ChatGPT。”对于他们与GPT-4的最新研究项目,研究人员对评估其与人类创造力相比的创造能力感兴趣。GPT-4通过ChatGPT使用TTCT的两个变体进行了八次测试,TTCT是研究人员评估创造力的黄金标准。使用TTCT,研究人员要求GPT-4通过提问、猜测原因、考虑潜在的后果、产生产品改进的想法、设想现有产品的新的替代用途以及想象未来的情景来展示其创造能力。TTCT的第三方评估机构ScholasticTestingServices将人工智能的反应与人类的反应进行了比较。在所有八项测试中,GPT-4在流畅性方面的得分都在所有人类反应的前1%,即对每项活动展现出了大量反应的能力。在灵活性方面,即产生各种想法的能力,以及从一种方法转向另一种方法的能力,有三项测试的得分在前1%,两项在前2%,其余三项在前7%。而在Guzik博士眼中,评分里最重要的就是原创性了。在所有八项测试中,GPT-4在原创性方面的得分都在前1%,即:产生不寻常或独特的反应的能力,也就是超出常规的能力。Guzik博士表示,“这是第一项能够展现AI可以产生与人类创造能力的现有门槛相匹配或超过的原创反应的研究。”研究小组预测,在未来五年内,创业过程的每一个组成部分,以及一般的商业,都将受到人工智能的影响。这包括识别独特的机会和重要的问题,产生新颖的解决方案想法,改进产品,产生新的营销策略,以及想象未来的场景和结果等等。该团队的研究结果,包括进一步研究训练GPT-4以提高其在商业创新和创业等特定领域的创造能力,计划在今年夏天晚些时候发表。创造力稀释其实,这并不是第一个研究GPT-4创造力的研究项目。国外小哥PhilBennett曾表示,他担心AI的创造力会让人类陷入困境。创造力是独属于人类的工具,是区分人类和其它生物的关键点。而AI生成的东西严格来讲并不是“创造”,而是类似一种“反刍”,将喂进去的东西通过不同的方式结合在一起,然后进行输出。而这也是Bennett所担心的。他担心类似GPT-4、DALL-E等工具会稀释人类的创造力。换句话说,不会再有真正新的东西被创造出来,产生的东西都是把既有的东西拆分重组。...PC版:https://www.cnbeta.com.tw/articles/soft/1367073.htm手机版:https://m.cnbeta.com.tw/view/1367073.htm

相关推荐

封面图片

研究:人工智能可以帮助没有创造力的人获得灵感,但总体上降低了创造力

研究:人工智能可以帮助没有创造力的人获得灵感,但总体上降低了创造力两位研究人员在《科学进展》上发表的新研究中,研究人们使用OpenAI的大型语言模型GPT-4来撰写短篇小说。研究表明,尽管人工智能可以增强个人的创造力,但从总体上来说它会降低创造力。那些本来就富有创造力的作家创作的故事并没有得到同样的提升。“我们看到了这种均衡效应,最缺乏创造力的作家获得了最大的好处,”英国伦敦大学学院管理学院助理教授、论文合著者阿尼尔·多西(AnilDoshi)表示。“但我们没有看到那些天生就富有创造力的人获得任何相应的好处。”由于人工智能模型生成的故事只能从这些模型接受过训练的数据中汲取灵感,因此研究中生成的故事与人类参与者完全独立想出的想法相比,并没有那么独特。如果出版业接受生成式人工智能,我们阅读的书籍可能会变得更加同质化——

封面图片

研究称 GPT-4 通过图灵测试

研究称GPT-4通过图灵测试据科创板日报,自英国计算机科学家阿兰・图灵于1950年提出关于判断机器是否能够思考的著名试验“图灵测试”以来,该测试就被视为判断计算机是否具有模拟人类思维能力的关键。两位研究人员以真人、初代聊天机器人ELIZA、GPT-3.5和GPT-4为研究对象,试图了解谁在诱使人类参与者认为它是人类方面表现最成功。结果显示,多达54%的参与者将GPT-4误认为真人,是迄今为止首次有AI模型以如此高的结果通过图灵测试。

封面图片

OpenAI公布GPT-4:更强更可靠 可在考试中超过90%的人类

OpenAI公布GPT-4:更强更可靠可在考试中超过90%的人类OpenAI于2020年发布了GPT(生成型预训练变换模型)-3(生成型预训练变换模型),并将其与GPT-3.5分别用于创建Dall-E和聊天机器人ChatGPT,这两款产品极大地吸引了公众的关注,并刺激其他科技公司更积极地追求人工智能(AI)。OpenAI周二表示,在内部评估中,相较于GPT-3.5,GPT-4产生正确回应的可能性要高出40%。而且GPT-4是多模态的,同时支持文本和图像输入功能。OpenAI称,GPT-4比以前的版本“更大”,这意味着其已经在更多的数据上进行了训练,并且在模型文件中有更多的权重,这使得它的运行成本更高。据OpenAI介绍,在某些情况下,GPT-4比之前的GPT-3.5版本有了巨大改进,新模型将产生更少的错误答案,更少地偏离谈话轨道,更少地谈论禁忌话题,甚至在许多标准化测试中比人类表现得更好。例如,GPT-4在模拟律师资格考试的成绩在考生中排名前10%左右,在SAT阅读考试中排名前7%左右,在SAT数学考试中排名前11%左右。OpenAI表示,虽然两个版本在日常对话中看起来很相似,但当任务复杂到一定程度时,差异就表现出来了,GPT-4更可靠、更有创造力,能够处理更微妙的指令。不过,OpenAI也警告称,GPT-4还不完美,在许多情况下,它的能力不如人类。该公司表示:“GPT-4仍有许多已知的局限性,我们正在努力解决,比如社会偏见、幻觉和对抗性提示。”OpenAI透露,摩根士丹利正在使用GPT-4来组织数据,而电子支付公司Stripe正在测试GPT-4是否有助于打击欺诈。其他客户还包括语言学习公司Duolingo、KhanAcademy和冰岛政府。OpenAI合作伙伴微软周二表示,新版必应搜索引擎将使用GPT-4。...PC版:https://www.cnbeta.com.tw/articles/soft/1349455.htm手机版:https://m.cnbeta.com.tw/view/1349455.htm

封面图片

OpenAI最新“神”操作:让GPT-4去解释GPT-2的行为

OpenAI最新“神”操作:让GPT-4去解释GPT-2的行为即:让一个AI“黑盒”去解释另一个AI“黑盒”。工作量太大,决定让GPT-4去解释GPT-2OpenAI之所以做这项研究的原因,在于近来人们对AI伦理与治理的担忧:“语言模型的能力越来越强,部署也越来越广泛,但我们对其内部工作方式的理解仍然非常有限。”由于AI的“黑盒”性质,人们很难分辨大模型的输出结果是否采用了带有偏见性质的方法,也难以区分其正确性,因而“可解释性”是亟待重要的一个问题。AI的发展很大程度上是在模仿人类,因而大模型和人脑一样,也由神经元组成,它会观察文本规律进而影响到输出结果。所以想要研究AI的“可解释性”,理论上要先了解大模型的各个神经元在做什么。按理来说,这本应由人类手动检查,来弄清神经元所代表的数据特征——参数量少还算可行,可对于如今动辄百亿、千亿级参数的神经网络,这个工作量显然过于“离谱”了。于是,OpenAI灵机一动:或许,可以用“魔法”打败“魔法”?“我们用GPT-4为大型语言模型中的神经元行为自动编写解释,并为这些解释打分。”而GPT-4首次解释的对象是GPT-2,一个OpenAI发布于4年前、神经元数量超过30万个的开源大模型。让GPT-4“解释”GPT-2的原理具体来说,让GPT-4“解释”GPT-2的过程,整体分为三个步骤。(1)首先,让GPT-4生成解释,即给出一个GPT-2神经元,向GPT-4展示相关的文本序列和激活情况,产生一个对其行为的解释。如上图所示,GPT-4对GPT-2该神经元生成的解释为:与电影、人物和娱乐有关。(2)其次,再次使用GPT-4,模拟被解释的神经元会做什么。下图即GPT-4生成的模拟内容。(3)最后,比较GPT-4模拟神经元的结果与GPT-2真实神经元的结果,根据匹配程度对GPT-4的解释进行评分。在下图展示的示例中,GPT-4得分为0.34。通过这样的方法,OpenAI共让GPT-4解释了GPT-2中的307200个神经元,其中大多数解释的得分很低,只有超过1000个神经元的解释得分高于0.8。在官博中,OpenAI承认目前GPT-4生成的解释并不完美,尤其在解释比GPT-2规模更大的模型时,效果更是不佳:“可能是因为后面的layer更难解释。”尽管绝大多数解释的得分不高,但OpenAI认为,“即使GPT-4给出的解释比人类差,但也还有改进的余地”,未来通过ML技术可提高GPT-4的解释能力,并提出了三种提高解释得分的方法:对解释进行迭代,通过让GPT-4想出可能的反例,根据其激活情况修改解释来提高分数。使用更大的模型来进行解释,平均得分也会上升。调整被解释模型的结构,用不同的激活函数训练模型。值得一提的是,以上这些解释数据集、可视化工具以及代码,OpenAI都已在GitHub上开源发布:“我们希望研究界能开发出新技术以生成更高分的解释,以及更好的工具来使用解释探索GPT-2。”(GitHub地址:https://github.com/openai/automated-interpretability)“再搞下去,AI真的要觉醒了”除此之外,OpenAI还提到了目前他们采取的方法有很多局限性,未来需要一一攻克:GPT-4给出的解释总是很简短,但神经元可能有着非常复杂的行为,不能简洁描述。当前的方法只解释了神经元的行为,并没有涉及下游影响,希望最终能自动化找到并解释能实现复杂行为的整个神经回路。只解释了神经元的行为,并没有解释产生这种行为的背后机制。整个过程都是相当密集的计算,算力消耗很大。在博文的最后,OpenAI展望道:“我们希望将我们最大的模型解释为一种在部署前后检测对齐和安全问题的方式。然而,在这些技术能够揭露不诚实等行为之前,我们还有很长的路要走。”对于OpenAI的这个研究成果,今日在国内外各大技术平台也引起了广泛关注。有人在意其得分不佳:“对GPT-2的解释都不行,就更不知道GPT-3和GPT-4内部发生了什么,但这才是许多人更关注的答案。”有人感慨AI进化的方式愈发先进:“未来就是用AI完善AI模型,会加速进化。”也有人担心AI进化的未来:“再搞下去,AI真的要觉醒了。”那么对此,你又有什么看法呢?...PC版:https://www.cnbeta.com.tw/articles/soft/1359101.htm手机版:https://m.cnbeta.com.tw/view/1359101.htm

封面图片

GPT-4终极指南:一份关于如何使用GPT3和GPT4的指南

GPT-4终极指南:一份关于如何使用GPT3和GPT4的指南其中包括100多个资源,可以帮助学习如何用它来提高生活效率。包括如何学习ChatGPT基础知识、如何学习ChatGPT高级知识、如何在语言学习中使用GPT-3、如何在教学中使用GPT-3、如何使用GPT-4等,还提供了如何升级到ChatGPT+计划以使用GPT-4以及如何免费使用GPT-4的方法等内容。同时,还提供了如何在业务、生产力、受益、金钱等方面使用ChatGPT的指南#指南

封面图片

OpenAI 探索用 GPT-2 小模型监督 GPT-4 大模型,防止 AI 毁灭人类

OpenAI探索用GPT-2小模型监督GPT-4大模型,防止AI毁灭人类Ilya领衔的OpenAI对齐团队,发表了——用类似GPT-2监督GPT-4的方法,或可帮人类搞定自己更聪明的超级AI!团队声称,已经发现了对超人类模型进行实证对齐的新研究方向。未来超级AI系统对齐的一个核心挑战——人类需要监督比自己更聪明人工智能系统。来源,频道:@kejiqu群组:@kejiquchat

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人