UCSD研究显示GPT-4在图灵测试中被误认为人类的比例高达54%

UCSD研究显示GPT-4在图灵测试中被误认为人类的比例高达54%UCSD的研究团队进行了一项实证研究,结果显示人类无法将GPT-4与人类区分开来,在54%的情况下,GPT-4被判定为人类。这是首次有系统在交互式双人图灵测试中被实证通过测试。研究者CameronR.Jones招募了500名志愿者,他们被分为5个角色:4个评估员(分别是GPT-4、GPT-3.5、ELIZA和人类),另一个角色是隐藏在屏幕另一端的人类,等待评估员的发现。实验要求人类参与者与人类或人工智能进行5分钟对话,并判断对话者是否是人类。研究结果显示,GPT-4的通过率为54%,超过了GPT-3.5(50%)和ELIZA基线(22%),但低于人类被试者(67%)。研究者还发现,评估者更注重语言风格和社会情感因素,而不是知识和推理。这表明社会智能是AI最难以模仿的人类特征。关注频道@ZaiHuaPd频道投稿@ZaiHuabot

相关推荐

封面图片

研究称 GPT-4 通过图灵测试

研究称GPT-4通过图灵测试据科创板日报,自英国计算机科学家阿兰・图灵于1950年提出关于判断机器是否能够思考的著名试验“图灵测试”以来,该测试就被视为判断计算机是否具有模拟人类思维能力的关键。两位研究人员以真人、初代聊天机器人ELIZA、GPT-3.5和GPT-4为研究对象,试图了解谁在诱使人类参与者认为它是人类方面表现最成功。结果显示,多达54%的参与者将GPT-4误认为真人,是迄今为止首次有AI模型以如此高的结果通过图灵测试。

封面图片

研究人员称 GPT-4 通过图灵测试

研究人员称GPT-4通过图灵测试《生活科学》报道,OpenAI的GPT-4已经通过了图灵测试,这意味着该模型在对话中能够表现出类似人类的智能水平。图灵测试由计算机科学家阿兰·图灵提出,是评估人工智能是否能够与人类表现出相同智能的标准。此次测试结果显示,GPT-4的表现足够逼真,足以欺骗评判者,使其难以分辨其与人类的对话。关注频道@ZaiHuaPd频道爆料@ZaiHuabot

封面图片

GPT-4已通过图灵测试

GPT-4已通过图灵测试计算机科学家约瑟夫-韦曾鲍姆(JosephWeizenbaum)于1966年开发的计算机程序Eliza表现最差,只有22%的人将其归类为人类。据科学家们称,这些结果首次提供了人工智能系统通过双人互动图灵测试的确凿证据,而且这很可能适用于未来几乎所有最先进的聊天机器人。英国数学家和计算机科学家阿兰-图灵于1950年首次提出了以他的名字命名的"模仿游戏"对话强度测试。从那时起,它就成了确定机器模仿人类对话能力的一个著名但有争议的基准。在该测试的现代变体中,人类"评委"会在不知道谁是谁的情况下与另一个人类或聊天机器人对话。如果面试官在50%的情况下不能可靠地区分计算机系统和人类,那么机器就被认为通过了测试。在当前的研究中,人类审讯者与代表其他人类、大型语言模型GPT-4和GPT-3.5以及基于对称列表处理器(SLIP)的简易对话系统Eliza的各种"证人"进行了互动,研究结果可在预印本服务器Arxiv上找到。研究人员随机分配人类参与者扮演法官或证人的角色。样本包括101个人类和GPT-3.5游戏,以及100个GPT4和Eliza游戏,所有游戏均通过一种消息应用程序进行,每个游戏持续五分钟。在402名审问者中,168人为女性,212人为男性,9人为非二元。13人不想提供任何信息。参与者的平均年龄为35岁。在2023年的上一次研究中,Eliza的表现明显更好,没有一个模型通过测试。这一次,科学家们采用了表现最好的GPT-4命令集(提示),并对其进行了修改。提示的第一部分指示模型表现得像一个年轻人,不要太认真地对待游戏,使用口语,不要出现拼写和语法错误。此外,它还不能提供太多的知识,尤其是语文和数学方面的知识。每轮测试开始时,都会添加一些额外的信息,如姓名、地点和时间戳。二人解释说,人类之所以不能百分之百地识别同类,是因为提问者认为人工智能的效率越来越高。这增加了他们将人类错误地识别为机器的可能性。为了深入了解影响审讯者做出决定的定性因素,研究小组对他们使用的策略和做出判断的理由进行了分类。36%的人询问证人的个人细节或日常活动。第二和第三类最常见的是社会和情感问题(25%)--例如,有关意见、经历和幽默的问题。审问者就其决定给出的最常见理由(43%)与基于拼写、语法、大小写和语气的语言风格有关。24%的人关注社会情感因素,如幽默感或个性。研究人员警告说,这些结果表明"当前人工智能系统的欺骗行为可能不会被发现"。能够成功模仿人类的机器人可能会产生"深远的经济和社会影响"。...PC版:https://www.cnbeta.com.tw/articles/soft/1434989.htm手机版:https://m.cnbeta.com.tw/view/1434989.htm

封面图片

OpenAI公布GPT-4:更强更可靠 可在考试中超过90%的人类

OpenAI公布GPT-4:更强更可靠可在考试中超过90%的人类OpenAI于2020年发布了GPT(生成型预训练变换模型)-3(生成型预训练变换模型),并将其与GPT-3.5分别用于创建Dall-E和聊天机器人ChatGPT,这两款产品极大地吸引了公众的关注,并刺激其他科技公司更积极地追求人工智能(AI)。OpenAI周二表示,在内部评估中,相较于GPT-3.5,GPT-4产生正确回应的可能性要高出40%。而且GPT-4是多模态的,同时支持文本和图像输入功能。OpenAI称,GPT-4比以前的版本“更大”,这意味着其已经在更多的数据上进行了训练,并且在模型文件中有更多的权重,这使得它的运行成本更高。据OpenAI介绍,在某些情况下,GPT-4比之前的GPT-3.5版本有了巨大改进,新模型将产生更少的错误答案,更少地偏离谈话轨道,更少地谈论禁忌话题,甚至在许多标准化测试中比人类表现得更好。例如,GPT-4在模拟律师资格考试的成绩在考生中排名前10%左右,在SAT阅读考试中排名前7%左右,在SAT数学考试中排名前11%左右。OpenAI表示,虽然两个版本在日常对话中看起来很相似,但当任务复杂到一定程度时,差异就表现出来了,GPT-4更可靠、更有创造力,能够处理更微妙的指令。不过,OpenAI也警告称,GPT-4还不完美,在许多情况下,它的能力不如人类。该公司表示:“GPT-4仍有许多已知的局限性,我们正在努力解决,比如社会偏见、幻觉和对抗性提示。”OpenAI透露,摩根士丹利正在使用GPT-4来组织数据,而电子支付公司Stripe正在测试GPT-4是否有助于打击欺诈。其他客户还包括语言学习公司Duolingo、KhanAcademy和冰岛政府。OpenAI合作伙伴微软周二表示,新版必应搜索引擎将使用GPT-4。...PC版:https://www.cnbeta.com.tw/articles/soft/1349455.htm手机版:https://m.cnbeta.com.tw/view/1349455.htm

封面图片

OpenAI左脚踩右脚登天 让GPT-4帮人类训练GPT-4

OpenAI左脚踩右脚登天让GPT-4帮人类训练GPT-4OpenAI公布,其研究人员训练了一个基于GPT-4的模型,它被称为CriticGPT,用于捕捉ChatGPT代码输出中的错误。简单来说就是,CriticGPT让人能用GPT-4查找GPT-4的错误OpenAI称,如果通过CriticGPT获得帮助审查ChatGPT编写的代码,人类训练者的审查效果比没有获得这种帮助的人强60%;在CriticGPT帮助下,他们得出的批评结论比自己单独做的更全面。群友:狗溜狗关注频道@ZaiHuaPd频道爆料@ZaiHuabot

封面图片

微软154页研究刷屏:GPT-4能力接近人类 “天网”初现?

微软154页研究刷屏:GPT-4能力接近人类“天网”初现?在通往AGI的路上我们还有多远?微软豪华作者团队发布的154页论文指出,GPT-4已经初具通用人工智能的雏形。GPT-4会演变为通用人工智能吗?Meta首席人工智能科学家、图灵奖得主YannLeCun对此表示质疑。PC版:https://www.cnbeta.com.tw/articles/soft/1351127.htm手机版:https://m.cnbeta.com.tw/view/1351127.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人