ChatGPT vs. 人类:即使语言学专家也分不清谁写了什么

ChatGPTvs.人类:即使语言学专家也分不清谁写了什么研究显示,语言学专家很难区分人工智能和人类生成的文章,正面识别率仅为38.9%。尽管他们的选择背后有逻辑推理,但却经常出现错误,这表明人工智能生成的简短文本也可以像人类写作一样胜任。南加大世界语言系学者马修-凯斯勒(MatthewKessler)说:"我们认为,如果有人能够识别人类撰写的文章,那就应该是语言学家,他们的职业生涯一直在研究语言模式和人类交流的其他方面。"凯斯勒与孟菲斯大学应用语言学助理教授埃利奥特-卡萨尔(J.ElliottCasal)合作,让72位语言学专家审查各种研究摘要,以确定它们是由人工智能还是人类撰写的。每位专家被要求审查四份写作样本。没有人能够正确识别所有四个样本,而有13%的人则全部弄错了。凯斯勒得出结论说,根据研究结果,如果没有尚未开发出来的软件帮助,教授们将无法区分学生自己的写作或由人工智能驱动的语言模型(如ChatGPT)生成的写作。尽管专家们在研究中尝试使用理由来判断写作样本,比如识别某些语言和文体特征,但他们基本上都没有成功,总体正面识别率为38.9%。凯斯勒说:"更有趣的是,当我们问他们为什么要判定某篇文章是人工智能写的还是人类写的。他们分享了非常合乎逻辑的理由,但这些理由并不准确,也不一致"。在此基础上,凯斯勒和卡萨尔得出结论:鉴于人工智能通常不会出现语法错误,ChatGPT可以像大多数人类一样写出短篇体裁的文章,甚至在某些情况下会写得更好。对于人类作者来说,长篇写作才是一线希望。凯斯勒说:"众所周知,对于较长的文本,人工智能会产生幻觉,编造内容,从而更容易识别出这是人工智能生成的。"凯斯勒希望这项研究能引发更广泛的讨论,围绕在研究和教育中使用人工智能制定必要的道德规范和准则。...PC版:https://www.cnbeta.com.tw/articles/soft/1382715.htm手机版:https://m.cnbeta.com.tw/view/1382715.htm

相关推荐

封面图片

老读者可能还记得我们简要讲述过 语言学取证,在分身术的指南中。因为这是一个比较容易被疏忽的细节,会暴露您的真实身份。语言学取证本

老读者可能还记得我们简要讲述过,在分身术的指南中。因为这是一个比较容易被疏忽的细节,会暴露您的真实身份。语言学取证本身是一个研究课题,通常被情报界使用。最近,美国情报高级研究项目活动(IARPA)宣布,它正在启动一项计划,以开发新的人工智能技术,这些技术既可以揭示创作者的身份,又可以保护其匿名性。也就是语言学取证的AI算法。在这里它被称为基于文本的指纹分析方法HIATUS,应该与取证专家用来根据笔迹确定某人身份的其他工具的工作方式大致相同。就像人们在写字时有个体差异一样,在网上发帖时也有个人独特性。专家认为,这项技术可用于识别反情报风险,揭示目标人身份。公告中说,IARPA已将HIATUS的开发合同授予了20多家美国领先的学术机构、非营利组织和企业。HIATUS测试评估团队由利弗莫尔国家实验室、西北太平洋国家实验室、以及国安局赞助的语言学高级研究中心马里兰大学情报与安全应用研究实验室组成。#Linguisticforensics#Deanonymisation

封面图片

Meta人工智能主管杨立昆:大型语言模型不会达到人类智能水平

Meta人工智能主管杨立昆:大型语言模型不会达到人类智能水平Meta的人工智能主管表示,为ChatGPT等生成式人工智能产品提供动力的大型语言模型永远无法实现像人类一样的推理和计划能力,他专注于一种激进的替代方法,即在机器中创造“超级智能”。该公司首席人工智能科学家杨立昆表示,LLM“对逻辑的理解非常有限……不理解物理世界,没有持久的记忆,不能按照任何合理的定义进行推理,也不能进行层次化的规划”。杨立昆说,LLMs的这种进化是肤浅和有限的,只有当人类工程师介入并根据这些信息进行训练时,模型才会学习,而不是像人类那样自然地得出结论。“在大多数人看来,这当然是推理,但主要是利用从大量训练数据中积累的知识。(LLM)尽管有局限性,但非常有用。”——()

封面图片

专家答疑:为什么ChatGPT不是真正的 "智能"?因为它不关心我们生活的世界

专家答疑:为什么ChatGPT不是真正的"智能"?因为它不关心我们生活的世界加州大学的安东尼-切梅罗(AnthonyChemero)最近发表了一篇论文,解释了与人类思维相对的人工智能思维。人工智能的兴起引起了技术高管、政府官员和普通大众的不同反应。许多人对ChatGPT等人工智能技术充满热情,认为它们是有益的工具,有能力彻底改变社会。然而,也有一些人对此表示担忧,他们担心任何被称为"智能"的技术都可能拥有超越人类控制和支配的能力。辛辛那提大学文理学院哲学和心理学教授安东尼-切梅罗认为,语言学混淆了人们对人工智能的理解:虽然人工智能确实具有智能,但它不可能像人类那样具有智能,即使"它可以像它的开发者一样撒谎和胡说八道"。AnthonyChemero,辛辛那提大学哲学和心理学杰出研究教授。图片来源:AndrewHigley/UCMarketing+Brand根据我们日常对这个词的用法,人工智能肯定看上去相当聪明,多年来市场上也一直存在着所谓智能计算设备,切梅洛在他合著的《自然-人类行为》(NatureHumanBehaviour)杂志上发表的一篇论文中解释道。人工智能的特点和局限性首先,论文指出,ChatGPT和其他人工智能系统都是大型语言模型(LLM),是在从互联网上挖掘的大量数据基础上训练出来的,其中很多数据都与发布数据的人有相同的偏见。"LLM生成的文本令人印象深刻,但往往是无中生有,"他说。"它们学会了生成符合语法的句子,但需要比人类多得多的训练。它们实际上并不知道自己说的话是什么意思,"他说。"LLMs不同于人类认知,因为它们不是具身的。"制造LLMs的人把它们胡编乱造的行为称为"幻觉";不过切梅罗说,"把它称为'胡说八道'会更好",因为LLMs只是通过重复添加统计上最有可能出现的下一个词来造句--它们不知道也不关心自己说的话是否真实。因此,只要稍加怂恿,就能让人工智能工具说出"带有种族主义、性别歧视和其他偏见的下流的话"。智能中的人的因素切梅罗的论文旨在强调,LLMs并不像人类那样具有智能,因为人类是具身的:活生生的人总是被其他人类以及物质和文化环境所包围。"这让我们关心自己的生存和我们生活的世界。"他指出,LLMs并不真正处于这个世界中,也不关心任何事情。主要的启示是,LLMs不像人类那样聪明,因为它们"根本不在乎",Chemero说,"事情对我们来说很重要。我们致力于生存。我们关心我们生活的世界。"...PC版:https://www.cnbeta.com.tw/articles/soft/1398995.htm手机版:https://m.cnbeta.com.tw/view/1398995.htm

封面图片

【书名】生命3.0【作者】迈克斯•泰格马克【格式】#epub#mobi#azw3#pdf【分类】#人工智能#人类学#社会学【简介

【书名】生命3.0【作者】迈克斯•泰格马克【格式】#epub#mobi#azw3#pdf【分类】#人工智能#人类学#社会学【简介】本书是作者对人类的终极未来进行了全方位的畅想,从我们能活到的近未来穿行至1万年乃至10亿年及其以后,从可见的智能潜入不可见的意识,重新定义了“生命”“智能”“目标”“意识”,并澄清了常见的对人工智能的误解,将帮你构建起应对人工智能时代动态的全新思维框架,抓住人类与人工智能共生演化的焦点。下载频道群组商务

封面图片

OpenAI推出ChatGPT“克星”:可识别文章是否人工智能代笔

OpenAI推出ChatGPT“克星”:可识别文章是否人工智能代笔ChatGPT这一工具是在去年11月份推出的,之后立刻在网络上火爆一时,受到使用者称赞欢迎。用户可以输入一些提示性命题文字,这一工具能够撰写各种文章、散文、笑话,甚至是诗歌。不过这一人工智能撰稿软件也引发了版权和抄袭方面的质疑。OpenAI公司新推出的产品名叫“AI分类器”(AIclassifier),这一软件使用的语言模型,经过了大量针对同一话题的人类文稿和人工智能文稿的数据训练,能够识别某一文稿到底是人类撰写还是人工智能软件生成。OpenAI公司介绍说,这一产品背后整合了来自多家供应商的技术,能够用于解决各种现实问题,比如软件机器人疯狂在社交媒体上传播虚假信息、以及学术论文撰写的不端行为。这款产品目前还处在测试版阶段,OpenAI公司表示,对于小于1000个字符的文章,工具的识别表现还不是太稳定。另外,人工智能撰写的文章经过人类编辑之后,可以欺骗AI分类器。该公司表示,将让社会公众使用这款新产品,希望能够从使用者那里获得一些反馈信息,即这样一款还不够完美的人工智能产品是否能够产生某些实际用途。该公司表示,在学校教育行业,开发团队意识到,要识别出学生利用人工智能软件代笔的文章是一个十分重要的课题,同样重要的是,需要弄清楚AI分类器对于学生文章识别判断存在哪些不足、将产生怎样的影响。自从ChatGPT在网络上受到热捧,并获得数百万用户点赞后,这引发了美国一些学区的警觉。包括纽约市在内的学区宣布,禁止学生使用这一人工智能撰稿工具,他们担心学生会使用这一工具撰写文章欺骗老师,或是进行抄袭剽窃。为了帮助老师和学校识别学生的文章是否是人工智能所撰写,行业内已经出现了第三方开发的识别工具,其中包括“GPTZeroX”。OpenAI表示,他们正在和教育行业积极沟通,讨论ChatGPT的用途或者局限性,并且将会继续开发完善识别人工智能所撰写文章的工具。...PC版:https://www.cnbeta.com.tw/articles/soft/1342045.htm手机版:https://m.cnbeta.com.tw/view/1342045.htm

封面图片

OpenAI CEO安抚外界担忧:ChatGPT不是人类的“就业杀手”

OpenAICEO安抚外界担忧:ChatGPT不是人类的“就业杀手”多年来,特斯拉CEO埃隆·马斯克(ElonMusk)一直警告我们,称人工智能总有一天会超越人类。2020年,马斯克表示,人工智能有可能在五年内超越人类。如今看来,这一天可能会比我们想象的更早到来,这还要归功于ChatGPT。业内人士称,ChatGPT将成为十年来最具颠覆性的技术,使几乎所有工作岗位都面临被机器人取代的风险。在短短几周的时间内,ChatGPT就已经通过了医疗、法律和商业专业的入学和毕业考试,同时还能以莎士比亚的风格写散文和诗歌。有测试用户称,ChatGPT在客户支持、创建培训文档、制定企业战略、编写故障排除指南等诸多方面的表现也非常出色。通过使用大数据集进行训练,ChatGPT模仿人类智慧的能力,只会随着时间的推移而变得更加强大。面对社会上的激烈辩论,OpenAICEO奥特曼试图安抚人们的担忧,称ChatGPT和其他类似的机器人,将使人类变得更加自由。在这一过程中,还会让一些人获得经济收益。奥特曼说:“我认为,人工智能将成为经济赋权的最大力量,也是许多人致富的最大力量。”显然,并不是所有人都同意奥特曼的这一乐观“推销”。研究公司CreativeStrategy首席分析师奥利维尔·布兰查德(OlivierBlanchard)认为:“人工智能也可能是我们在有生之年被剥夺公民权利的最大力量。”例如,人类可能突然就被淘汰了,或者慢慢地被大规模淘汰。2017年底,马斯克曾表示,短期内人工智能最直接的威胁是取代人类工作。在未来20年,驾驶人员的工作将被人工智能所颠覆。之后,全球12%至15%的劳动力将因为人工智能而失业。马斯克还认为,人类将来需要与机器相结合,成为一种“半机械人”,从而避免在人工智能时代被淘汰。为此,马斯克还专门成立一家人工智能创业公司Neuralink,研究人机接口。苹果公司联合创始人史蒂夫·沃兹尼亚克(SteveWozniak)上周曾表示,ChatGPT确实令人印象深刻,但它也可能犯下一些可怕的错误,因为它不懂得人性。...PC版:https://www.cnbeta.com.tw/articles/soft/1344537.htm手机版:https://m.cnbeta.com.tw/view/1344537.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人