ChatGPT又赢了:带动股价涨三倍,成考试神器

ChatGPT又赢了:带动股价涨三倍,成考试神器它还帮助OpenAI拉到了微软新的100亿美元的投资,让OpenAI的最新估值达到290亿美元。要知道,当初Google全资收购DeepMind,也不过花了6亿美金。而随着这一个多月的发展,ChatGPT似乎也已经走出了被用户们“调戏”的阶段,开始真正地展现出来自己的潜力。而类似的AI工具,也开始真正被业界使用起来。新闻网站:热烈欢迎这两天,硅谷讨论最多的一个新闻,就是新媒体网站Buzzfeed基于ChatGPT乃至OpenAI的大光环,咸鱼翻身,股价直接跳涨了三倍!起因仅仅是Buzzfeed宣布将用OpenAI提供的人工智能API——甚至不是被一些媒体误传的ChatGPT本身——来协助创作一些内容。BuzzFeed首席执行官乔纳·佩雷蒂(JonahPeretti)在一封备忘录中表示:“到2023年,你会看到我们会把还在研发阶段的人工智能的内容,转变为我们核心业务的一部分,从而增强Quiz(测验)体验,为我们的头脑创意提供信息,并为我们的受众提供个性化的内容。”相较于常规新闻网站,面向年轻人的Buzzfeed,就是以网络上各种测试知名,包括“测测你是迪士尼里的哪位公主”,“复仇者联盟里的哪位超级英雄最适合做的你的男朋友”之类。而它此次和OpenAI的合作,就将主要应用在这类“快餐”内容的生产上。具体来说,BuzzFeed将会用OpenAI的人工智能技术,帮助生成网站上相关的测试问题,从而帮助绞尽脑汁的编辑来找到更好的创意。“需要明确的是,我们看到人工智能的突破开辟了一个创造力的新时代,这将使人类能够以新的方式利用创造力,创造无限的机会和应用,”Peretti说。“在出版方面,人工智能可以让内容创作者和观众受益,激发新想法并邀请观众成员共同创作个性化内容。”且不论读者们是否真的愿意为AI创造的乐趣小测试买单,但是这项合作的消息,就足以让BuzzFeed得以起死回生。自2021年12月通过SPAC上市以来,BuzzFeed的股价本来已下跌90%以上,其第三季度净亏损从一年前的360万美元扩大至2700万美元,甚至不得不将裁员约12%以控制成本。但与OpenAI牵手的消息一出,它的估计就大涨超300%。而BuzzFeed与Meta接下来的合作,可能将会把这些人工智能生成的内容,带到更广泛的用户面前。在不久前,Meta向BuzzFeed支付了数百万美元,以让BuzzFeed为Meta的平台生成内容,并培训平台上的创作者。这也意味着,接下来,在Facebook和Instagram上,你可能都能玩到不少人工智能生成的无脑小测试了。不过,一位发言人表示,BuzzFeed目前不会使用人工智能来帮助撰写新闻报道。这一决定,或许和前不久另外一家媒体使用人工智能创作内容却惨遭翻车有关。在用人工智能应用到新闻写作上,CNET走得更超前,不过也更早吃到了“苦果”。据CNET透露,作为CNETMoney团队“测试”项目的一部分,从2022年11月开始,编辑部就开始使用内部开发的AI引擎,生成了77篇新闻报道,约占该网站文章总量的1%。这些文章统一署名“CNETMoneyStaff”,来帮助编辑们围绕金融服务主题创建“一套基本解释模式”。这些使用AI工具编写的文章包括,“房屋净值贷款会影响私人抵押贷款保险吗?”和“如何关闭银行账户”等。“编辑们首先为故事生成大纲,然后在发布前扩展、添加和编辑AI草稿。”CNET主编康妮·古列尔莫(ConnieGuglielmo)写道。不过很快,CNETMoney编辑团队就发现其中一篇文章存在失实问题。于是他们进行了全面审核。审核结果就是,这些由AI生成的文章里,其中一小部分需要大量更正,而另外一些也多少存在小问题,例如公司名称不完整、或者语言模糊不清或者数字错误等。比如,在一篇“什么是复利?”的文章末尾,AI给出了一些非常不准确的个人理财建议。“这篇文章的早期版本建议储户将10000美元存入储蓄账户,每年赚取3%的复利,这样一年后就可赚取10300美元。”而事实上,任何学过小学数学的人都知道,储蓄者只能赚取300美元。Guglielmo没有说明77篇已发表的报道中有多少需要更正,也没有具体说明有多少“实质性”问题与“小问题”,只是在这些文章下面列出了更正提示。不过,由于其中超过一半的报道包含事实错误或者不当引用,以至于CNET现在停止使用这个人工智能引擎。其实使用AI自动化新闻报道并不新鲜,美联社近十年前就开始这样做了,但随着ChatGPT的兴起,这个问题获得了新的关注。当AI大规模应用于内容生产时,有多少似是而非的内容混在了其中?尽管存在这些问题,Guglielmo还是为恢复使用AI工具敞开了大门,表示在问题解决后,将重新开始使用人工智能新闻编写工具。教育界和学术界:遭遇挑战尽管在新闻界开始受到大胆的应用,但是Chatgpt类的AI工具在更多写作场景中却受到了质疑。其中就包括最受欢迎但又最受质疑的地方——学校。为了测试ChatGPT在四门课程的考试中生成答案的能力,明尼苏达大学法学院的教授最近让ChatGPT参加考试,并对考试结果进行了盲评。在完成95道选择题和12道作文题后,ChatGPT的平均成绩拿到了C+——在所有四门课程中均取得了较低但通过的成绩,“低空飞过及格线”。而在沃顿商学院的商业管理课程考试中,ChatGPT表现更好,获得了B到B-的成绩。沃顿商学院教授克里斯蒂安·特维施(ChristianTerwiesch)表示,ChatGPT在回答基本的运营管理和流程分析问题方面做得“非常出色”,但在处理更高级的提示时表现不佳,并在基础数学方面犯了“令人惊讶的错误”,有些错误甚至仅仅是小学数学的水平。这意味着什么?如果不加以限制,ChatGPT将会变成史上最强大的作弊工具——帮助学生们写作业,甚至是完成考试论文。所以,在测试结果出炉之际,越来越多的学校和老师表达了对ChatGPT作弊能力的的担忧。例如,纽约市和西雅图的公立学校已经禁止学生和教师在学区的网络和设备上使用ChatGPT。Terwiesch教授也表示,他赞同在学生参加考试时应该对他们实施限制。“禁令是必要的,”他说。“毕竟,当你授予医生学位时,你希望他们真的掌握了医学知识,而不是只知道如何使用聊天机器人。这同样适用于其他技能认证,包括法律和商业专业等。”但Terwiesch相信这项技术最终仍会出现在课堂上。“如果我们最终得到的只是和以前一样的教育系统,那么我们就浪费了ChatGPT带来的绝佳机会。”他说。而在学术界,ChatGPT遭遇了更严厉的审视。美国主要期刊《科学》杂志的主编霍尔顿索普宣布了一项更新的编辑政策,禁止使用来自ChatGPT的文本,并表示ChatGPT不能被列为合作者。霍尔顿索说,科学期刊都要求作者签署一份声明,承诺对自己的文章负责。“但由于ChatGPT无法做到这一点,它不能成为作者。”他认为,即使在准备论文的阶段,使用ChatGPT也是有问题的。“ChatGPT犯了很多错误,这些错误可能会进入文献。”他说。不仅仅是《科学》杂志,其他出版商也做出了类似的举动。出版了近3000种期刊的Springer-Nature也发表声明称,不能将ChatGPT列为作者。最为严厉的,可能属于在线编程问答平台StackOverflow。早在ChatGPT推出不久,它就宣布全面封禁来自ChatGPT以及任何非人工生成的回答,并且进一步规定,一旦发现用户违反就会直接禁言。...PC版:https://www.cnbeta.com.tw/articles/soft/1341315.htm手机版:https://m.cnbeta.com.tw/view/1341315.htm

相关推荐

封面图片

用ChatGPT半小时写成本科论文“反ChatGPT”束手无策?

用ChatGPT半小时写成本科论文“反ChatGPT”束手无策?根据国外Study.com网站在今年1月向1000名18岁以上学生发起的调查显示,48%的学生用ChatGPT完成小测验,53%的学生用ChatGPT写论文。ChatGPT在撰写格式论文、通过专业考试等领域的惊艳表现,让学生们欢呼雀跃的同时,也让高校、研究机构等率先担忧和警惕起来,“反ChatGPT”在学术圈率先成为一股新趋势。近日,香港大学向师生发出内部邮件,表明禁止在港大所有课堂、作业和评估中使用ChatGPT或其他AI工具。如教师怀疑学生使用ChatGPT或其他AI工具,可要求学生就其作业进行讨论、进行额外口试及考试等措施。上周,《暨南学报(哲学社会科学版)》、《天津师范大学学报(基础教育版)》发布声明,提出暂不接受任何大型语言模型工具(例如:ChatGPT)单独或联合署名的文章。在美国和欧洲,更多高校和学术期刊等对ChatGPT的封杀通知出得更早一些。但是,单纯提出“封杀ChatGPT”就能杜绝论文抄袭和剽窃了吗?此前大热的“AI换脸”应用曾催生出一批“反AI换脸”的鉴别工具。现在,鉴别是否ChatGPT生成的论文,是否有可行的方法呢?聚焦在针对合成音视频的鉴别技术研发的瑞莱智慧(RealAI),其副总裁唐家渝向TechWeb表示,目前鉴别ChatGPT生成物的难点在于,机器与人类撰写的文本差异性特征较少,机器合成文本的结果无论从结构和语义角度都能较好地遵循人类书写的规则,同时一个真人说话的方式也可能是多变的、结构有误的,因此很难单纯从文本本身就鉴别出是否由ChatGPT生成。目前,RealAI针对合成文本的鉴别能力已在建设中,近期会有demo推出。数字水印用来“反ChatGPT”是一厢情愿在“反ChatGPT”的技术流中,数字水印技术一度被热炒。但是数字水印真能用来反ChatGPT吗?数字水印是一种可以用于保护文本、图像、音频和视频等数字内容不受未经授权的复制和分发的技术。数字水印可以将一些隐蔽的标识信息嵌入到数字内容中,这些标识信息通常不会对数字内容本身造成影响,但可以帮助鉴别数字内容的真实来源和版权信息。人们对用数字水印反ChatGPT有两种想象。一种是,对ChatGPT生成的内容打上数字水印,以标明这些内容是ChatGPT所写,实现反ChatGPT。但这需要ChatGPT等AI内容生成公司的配合,也就是他们愿意这么做。ChatGPT的开发商OpenAI此前曾表示在考虑通过对AI系统生成的内容加水印的方法来辅助辨别文本是否出自AI。不过截止目前并没有看到OpenAI采取该项行动。就算AI内容生成企业愿意在生成的内容中加入数字水印,但在相关行业专家看来,数字水印只是一个技术手段,不能解决所有的抄袭问题。有些人可能会使用各种方法来删除数字水印,或者通过改变一些单词或句子的顺序来规避数字水印的检测。AI生成内容通常是基于大量的训练数据和模型参数生成的。用数字水印反ChatGPT的另一种想象是,把内容打上数字水印标明版权身份,避免被ChatGPT等AI模型用于训练,从而防止被模仿和抄袭。但是这种想法多少有点一厢情愿。数字水印并不能完全保证内容不会被用于训练模型。一些不法分子可能会使用各种技术手段来尝试删除数字水印,或者通过对文章进行修改来绕过数字水印的检测。此外,一些不道德的人也可能会无视数字水印,盗用版权内容作为训练数据。“反ChatGPT”这些“神器”或可一用目前用于检测文章是否由AI生成的工具全球有几款,包括:OpenAIGPT-3Playground:由OpenAI开发的一个在线应用程序,用于测试和探索人工智能语言模型GPT-3的功能。在这个应用程序中,可以输入一些文本,并由GPT-3模型自动生成下一句话或者完整的文章。这个应用程序也可以用来测试一篇文章是否是由GPT-3等语言模型生成的。Grover:由AllenInstituteforArtificialIntelligence开发的一个用于检测虚假新闻和伪造的文章的工具。Grover可以分析一篇文章的语言风格和结构,并尝试区分由人类和人工智能生成的文章。这个工具还可以识别一些常见的伪造手段和技巧。AI21Writer’sStudio:AI21Labs开发的一个在线写作工具,可以为用户提供自动建议和编辑服务,帮助他们写出更加流畅和准确的文章。这个工具也可以用于检测一篇文章是否是由人工智能生成的。Botometer:由IndianaUniversity和UniversityofSouthernCalifornia联合开发的一个Twitter机器人检测工具。Botometer可以分析一个Twitter账号的活动和行为,判断其是否是由一个真实的用户或者一个自动化机器人管理的。上述这些工具都可以用于检测一篇文章或论文是否由人工智能生成的,但是需要注意的是,它们都不是百分之百准确的。因此,在评估一篇文章或论文是否AI所写时,最好结合多种方法和技巧,进行综合分析和判断。以ChatGPT为例,唐家渝向TechWeb提到,“辩别“ChatGPT”生成物一是利用好查重机制和技术,防止ChatGPT通过改写、总结等方式生成学术文章;二是从内容本身来说,ChatGPT目前还不能完全保证学术文章的逻辑严谨、主题一致,可以从语义层面加以辨别。”另外,从B站up主分享的ChatGPT写出的本科论文的情况来看,检查文章的来源和背景,如果这篇论文来自一个未知或者不可信的来源,就需要更加谨慎地对它进行评估了。关于ChatGPT可能引发的论文抄袭现象,前新东方在线COO潘欣则认为“这种担忧基本不需要。”“没有ChatGPT 的时候就没有抄论文、抄作业的了吗?可以信一点就行了,能用技术导致出现的问题,一定可以靠技术+行政手段解决掉。”在学生党看来,用ChatGPT写论文,里面数据,论据甚至引用的文献都是瞎编的,建议让ChatGPT做些辅助工作就好,比如给论文大纲或大致方向的建议等。也有学生认为需要自律,“反ChatGPT软件陆续上线,算法只会越来越完善,就算现在蒙混过关过关,但被查出来只是时间问题。”...PC版:https://www.cnbeta.com.tw/articles/soft/1345709.htm手机版:https://m.cnbeta.com.tw/view/1345709.htm

封面图片

华尔街现在最热门话题:人工智能ChatGPT

华尔街现在最热门话题:人工智能ChatGPT(早报讯)还记得脸书母公司MetaPlatforms的首席执行官扎克伯格(MarkZuckerberg)在2021年10月间在大事宣布脸书的愿景时,如何把元宇宙的概念呈现出来,而为整个股市掀起一阵元宇宙热潮吗?今时今日,元宇宙热潮已经被科技巨头微软(Microsoft)带动的人工智能(AI)风潮给盖过了。今天若说人工智能的ChatGPT席卷了股市不算夸张。微软推动的是一种以OpenAI为基础的ChatGPT。这个聊天人工智能(chatbot)是在去年11月推出,在互联网上广受欢迎。这个人工智能风潮也把原本处在二、三线的科技股也带动起来。像人工智能制造商C3.ai的股票今年迄今已飙升超过133%,它的客户就包括美国银行、壳牌和3M。其他与人工智能有关系的小盘股,例如在医疗保健、政府和制造业提供服务的BigBear.ai,股价在今年迄今也上涨了610%以上。人工智能语音公司SoundHound也在1月下旬也开始上涨,今年迄今股价上涨约115%。今年1月底,MetaPlatforms也与纽约数码媒体BuzzFeed合作,以便吸引更多创作者到脸书和Instagram。而BuzzFeed就是利用ChatGPT的OpenAI来管理平台内容的。BuzzFeed开年至今也上涨超过193%。在2月1日,MetaPlatforms扎克伯格在季度业绩线上会议中就说,脸书正在“部署人工智能工具来帮助旗下的工程师提高工作效率。”IBM首席执行官克里希纳(ArvindKrishna)也在最近的业绩报告线上会议说:“人工智能预料到2030年将为全球经济贡献16万亿美元。”美国“女股神”凯西伍德(CathieWood)最近就公开说,现在投资者应该关注各个公司是如何利用人工智能来发展自己的业务。她说:“人工智能将实现我们历史上最大规模的生产力提升。我们认为,生产率的提高的幅度将会是令人震惊的。那些没有足够快地接受这一点的公司可能会失去竞争力。”...

封面图片

安全问题突出 三星电子禁止员工使用ChatGPT等工具

安全问题突出三星电子禁止员工使用ChatGPT等工具三星电子已禁止员工使用流行的生成式AI工具,如ChatGPT、GoogleBard和Bing,以确保公司机密数据的安全。三星电子认为这些生成式AI工具存在泄漏风险,因为它们会将数据存储在外部服务器上,难以检索和删除,可能会被其他用户获取。该公司表示,该禁令是暂时的,三星正在开发自己的内部人工智能工具。三星是最新一家暂时禁止员工使用生成式人工智能的公司。2月,摩根大通(JPMorganChase)宣布,由于“合规问题”,对LLM的临时限制。亚马逊今年也对其员工实施了类似的指导方针,Verizon和Accenture也是如此。来源,附:来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

教授滥用 ChatGPT 检查学生作业,致使一半人被暂缓毕业

教授滥用ChatGPT检查学生作业,致使一半人被暂缓毕业德州农工大学商业学院的一位农业学教授无能地使用ChatGPT评估学生们的期末作业后,得出他们的作业是由AI生成的结论,导致一半的学生的毕业证被暂时剥夺了。该教授告诉学生他将“使用ChatGTP(教授笔误)来检查期末的三篇论文是否是有软件生成的”,结果ChatGPT声称每一篇都是它写的。问题是,ChatGPT并不能检测出由人工智能生成的材料,甚至是由它自己产生的材料它也不能识别,而且它有时会发出破坏性的错误信息。还有一些其它的检查文本是否由AI生成的工具,但都拥有很高的错误率。有趣的是,有学生将该教授的论文摘要提交给ChatGPT,也被该AI认为是“该文本包含几个与人工智能生成的内容一致的特征。”来源,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

OpenAI推出ChatGPT“克星”:可识别文章是否人工智能代笔

OpenAI推出ChatGPT“克星”:可识别文章是否人工智能代笔ChatGPT这一工具是在去年11月份推出的,之后立刻在网络上火爆一时,受到使用者称赞欢迎。用户可以输入一些提示性命题文字,这一工具能够撰写各种文章、散文、笑话,甚至是诗歌。不过这一人工智能撰稿软件也引发了版权和抄袭方面的质疑。OpenAI公司新推出的产品名叫“AI分类器”(AIclassifier),这一软件使用的语言模型,经过了大量针对同一话题的人类文稿和人工智能文稿的数据训练,能够识别某一文稿到底是人类撰写还是人工智能软件生成。OpenAI公司介绍说,这一产品背后整合了来自多家供应商的技术,能够用于解决各种现实问题,比如软件机器人疯狂在社交媒体上传播虚假信息、以及学术论文撰写的不端行为。这款产品目前还处在测试版阶段,OpenAI公司表示,对于小于1000个字符的文章,工具的识别表现还不是太稳定。另外,人工智能撰写的文章经过人类编辑之后,可以欺骗AI分类器。该公司表示,将让社会公众使用这款新产品,希望能够从使用者那里获得一些反馈信息,即这样一款还不够完美的人工智能产品是否能够产生某些实际用途。该公司表示,在学校教育行业,开发团队意识到,要识别出学生利用人工智能软件代笔的文章是一个十分重要的课题,同样重要的是,需要弄清楚AI分类器对于学生文章识别判断存在哪些不足、将产生怎样的影响。自从ChatGPT在网络上受到热捧,并获得数百万用户点赞后,这引发了美国一些学区的警觉。包括纽约市在内的学区宣布,禁止学生使用这一人工智能撰稿工具,他们担心学生会使用这一工具撰写文章欺骗老师,或是进行抄袭剽窃。为了帮助老师和学校识别学生的文章是否是人工智能所撰写,行业内已经出现了第三方开发的识别工具,其中包括“GPTZeroX”。OpenAI表示,他们正在和教育行业积极沟通,讨论ChatGPT的用途或者局限性,并且将会继续开发完善识别人工智能所撰写文章的工具。...PC版:https://www.cnbeta.com.tw/articles/soft/1342045.htm手机版:https://m.cnbeta.com.tw/view/1342045.htm

封面图片

一款AI检测工具可轻易识别ChatGPT撰写的论文

一款AI检测工具可轻易识别ChatGPT撰写的论文该论文的合著者、美国堪萨斯大学的化学家HeatherDesaire指出,“大多数文本分析领域都想要推出一种真正通用的检测器,可以适用于任何东西”。但她表示她的团队正通过制作一种专注于特定类型论文的检测工具,旨在“追求准确性”。Desaire称,研究结果表明,开发人工智能(AI)检测器的努力可以通过定制软件来促进特定类型的论文写作,“如果你能快速而轻松地构建一项专门的工具,那么为不同的领域构建不同的工具就不是那么困难了。”从公布的数据来看,这种专门的检测器比市面上现有的两种人工智能检测器的性能都要好,可以帮助学术出版商识别出那些由人工智能文本生成器生成的论文。准确率惊人Desaire和她的同事在6月份首次描述了他们研发的ChatGPT探测器,当时他们将其应用于《科学》杂志上的Perspective文章。该团队使用人工智能检测器检查写作风格的20个特征,包括句子长度的变化、某些单词和标点符号的频率等,来确定文章是有人类科学家所作还是由ChatGPT所生成的。当时的研究结果表明,“你可以使用一小部分特征来获得高水平的准确性”。在最新的研究中,该团队将美国化学学会(ACS)出版的十本化学期刊的论文引言部分作为人工智能探测器的训练对象。研究人员将100篇已发表的人类撰写的引言作为比对材料,然后要求ChatGPT-3.5以ACS期刊的风格撰写200篇引言。其中100篇是研究人员向ChatGPT提供了论文标题后生成的,而另外100篇是研究人员向ChatGPT提供了论文摘要后生成的。研究结果显示,当把人类撰写的引言和和人工智能从同一期刊上生成的介绍进行测试时,该人工智能检测器能够100%识别出由ChatGPT-3.5编写的前100篇引言(基于论文标题生成的);而对于后100篇ChatGPT-3.5生成的引言(基于论文摘要所生成的),检测的准确率略低,为98%。此外,该工具同样适用于ChatGPT-4编写的文本。相比之下,市场上的另两款人工智能检测器中,德国的ZeroGPT识别人工智能编写的介绍的准确率仅为35-65%,这取决于使用的ChatGPT版本以及介绍是由论文标题还是摘要生成的。而OpenAI自身的文本分类器工具也表现不佳——它能够识别人工智能编写的介绍,准确率约为10-55%。柏林应用科技大学研究学术剽窃的计算机科学家DeboraWeber-Wulff评价道,该篇论文的作者们所做的是一件“令人着迷的事情”。她表示,许多现有的工具试图通过搜索人工智能生成的文章的预测文本模式来确定作者的身份,而不是通过观察写作风格和文体的特征。Weber-Wulff称,“我从来没有想过在ChatGPT上使用文体计量学。”...PC版:https://www.cnbeta.com.tw/articles/soft/1395143.htm手机版:https://m.cnbeta.com.tw/view/1395143.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人