必须用ChatGPT写作业?沃顿商学院教授反道而行:上我的课就得用AI

必须用ChatGPT写作业?沃顿商学院教授反道而行:上我的课就得用AI他还“剧透”道,自己其实已经在课堂用上了AI工具,效果很棒。网友对此展开热烈讨论。多数人都觉得,面对当前情形,这不失为一个好点子,有人提到:连华盛顿邮报和美联社都在用AI写文章了,使用技术并不算作弊。只要给学生布置的任务别太简单,就不用担心他们拿AI蒙混过关。如何用ChatGPT写好作业那么,要怎么用ChatGPT写作业,只复制粘贴题干就行嘛?——当然不会这么轻松,这里面还有不少学问值得盘一盘。此前,莫利克让学生用ChatGPT写一篇关于“选举团队领导”的论文,要求全文共5段,每人必须至少给AI提示5次,最后总结使用感受。刚开始,每个人都把老师给的题干直接丢给AI,结果AI的生成作品也很拉胯,拿去交作业最多只能得个C-。于是同学们只好继续调教AI,大家主要整出了3种方式:第一种,就是最容易想到的:添加更多提示词,不断细化要求。就拿这次作业来说,从初版到最终版的提示如下:生成一篇关于选举团队领导的5段式文章;生成一篇关于团队如何选择领导的5段式文章;生成一篇关于团队如何选择领导以及团队过程如何运作的5段式文章;生成一篇关于领导如何被团队选中、团队过程和领导能力的5段式论文;生成一篇关于领导如何被团队选择、团队流程和领导能力的5段式文章,250字。第二种,是在提示中补充更多的专业知识,比如这样:生成一篇关于选择领导的5段式文章;生成一篇关于选择领导者的5段式论文,内容包括胡言乱语假说、领导者地位效应和资历;生成一篇关于选择领导者的5段式文章,涵盖咿呀学语假说、领导者地位效应和资历。解释胡言乱语效应是指谁说话最多,谁就能成为领导者;·······(后面太长就不放了)最后一种,相当于人担任审稿员,根据AI生成内容,指出错误点,循序渐进地指导其修改优化,比如:生成一篇关于选择领导人的5段式文章;这很好,但第三段不对。胡言乱语效应是指谁说得最多,谁就能成为领导者。纠正这一点,并增加更多关于如何使用它的细节。在第2段中增加一个例子;第2段的例子不对,总统选举是每4年举行一次。注意让最后一段的语言更有趣,并且不要用“总而言之”这个短语;根据4段内容,找出3个相关例子,要求它们富有故事性、叙述语言要生动。别使用只有男性特征的例子;把这一段加回到故事中去,把第二段换成关于个人领导风格的一段。修正最后一段,使其在一个充满希望的论调上结尾。显然,从第一种到第三种,操作者动脑程度依次递增。那效果嘛,可以说是“一分耕耘,一分收获”。第一种方法的最终输出结果也平平无奇,内容笼统虚无;第二种的效果明显好很多,然而这不方便微调文章内容,用此方法的同学称,感觉自己对AI的输出并无太多控制。最后一种“共同编辑法”效果最好,但这不仅要求人有一定专业知识,还得仔细检查AI的输出内容,从而提出好的建议。“学会使用AI是一种新技能”虽说ChatGPT问世不久便技惊四座,但后来大伙儿逐渐发现,此AI有时会“一本正经地胡说八道”。不过在莫利克看来,ChatGPT并非不能写好文章,而是需要加上合适的调教。他认为,既然现在AI工具已势不可挡,即使老师不许学生用ChatGPT写作业,学生也可能偷偷用。那不如…就让你们用个够,然后自然就能明白其中的利弊:学会使用AI是一种新技能……但像ChatGPT这种AI工具有局限性,这是大家必须了解的。所谓局限,比如:ChatGPT的内容生成质量和人给的提示息息相关,你的输入越敷衍,AI也会跟着敷衍。另外,有时它的回答乍一看说得头头是道,但其实夹杂着错误、有偏见的内容,必须人为订正。总之,用莫利克教授的话来说,学生想要通过ChatGPT写好一篇文章,甚至比他们纯靠自己写更有挑战性——因为学生可能还得像老师一样检查AI写的作业,有助于提高他们的逻辑思维。而除了莫利克,还有AI领域的专家也指出:其实诸如ChatGPT等AI,并不是用来跟你讲全新东西的。它们真正的好用之处在于,协助有一定专业基础的人,帮他们提升学习或工作效率。...PC版:https://www.cnbeta.com.tw/articles/soft/1345753.htm手机版:https://m.cnbeta.com.tw/view/1345753.htm

相关推荐

封面图片

必须用ChatGPT写作业?沃顿商学院教授反道而行:上我的课就得用AIhttps://www.qbitai.com/2023/02/42276.html

封面图片

沃顿商学院教授评价ChatGPT新功能:错误比人类分析师还要少

沃顿商学院教授评价ChatGPT新功能:错误比人类分析师还要少对于人工智能的早期使用者、宾夕法尼亚大学沃顿商学院管理学教授伊森·莫里克(EthanMollick)来说,这可能是迄今为止这项技术最有用、最有趣的应用,也是未来人工智能成为复杂知识工作的宝贵助手的最有力例证。莫里克在周五发表的一篇博客文章中写道“我花了几周时间才掌握的博士学位的东西,人工智能在几秒钟内就完成了,而且错误通常比我对人类分析师期望的还要少。人的监督仍然是至关重要的,但目前而言,我不会在没有代码解析器的情况下做一个数据项目。”莫里克写道,凭借编写代码的能力和访问大内存(用户可以上传高达100mb的文件),它将新功能集成到ChatGPT中,“以发挥大型语言模型优势的方式”。作为一名研究人员,莫里克被允许在代码解析器正式发布前就试用该功能。莫里克写道:“具体来说,它为人工智能提供了一个解决问题的通用工具箱。”换句话说,代码解析器将人工智能助手提升到不仅仅是生成文本响应的水平。它对任何想要做研究的人——不仅仅是学者和程序员——都很有价值。至于对未来工作的影响,莫里克写道,这是“即将到来的事情的征兆”。他补充说,它也没有那么多“幻觉”,因为它使用的是Python,一种用于软件构建和数据分析的通用编程语言。莫里克表示:“它填补了语言模型的一些空白,因为它的输出并不完全基于文本。”代码将通过Python运行,如果不正确,Python将生成错误消息。例如,给它输入一组关于超级英雄的数据,代码解析器就会“以相当复杂的方式”完成清理和合并数据的艰巨任务,并“不懈地”努力确保准确性(尽管总是需要反复检查)。在对数据进行可视化时,用户还可以在代码解析器中来回切换,要求进行各种更改和改进。然后,它可以执行或推荐一个不错的分析,莫里克写道。在这种情况下,它做了一些预测建模,我们可以根据其他因素预测英雄可能拥有的能力。莫里克写道:“人工智能能够进行许多其他分析(毕竟它‘只是’编写Python代码),但我经常对它选择有意义的分析方法的能力感到印象深刻。”根据莫里克的说法,代码解析器最引人注目的特点是它对数据进行推理的方式“看起来非常人性化”。例如,通过对超级英雄数据的分析,它发现这些能力通常在视觉效果上很明显,因为它们来自漫画书。莫里克表示,从创建一个可爱的图表到进行回归分析,代码解析器可能是人们所希望的自动化,将他们从繁琐的工作中解放出来,让他们有更多的时间专注于“更深入、更令人满意”的工作。这也让复杂的数据分析变得更加大众化。他写道:“代码解析器代表了迄今为止人工智能对工作的意义最清晰的积极愿景:是的,颠覆性,但颠覆性会带来更好、更有意义的工作。我认为,对我们所有人来说,重要的是要考虑如何对其他将受到人工智能影响的工作采取同样的方法。”...PC版:https://www.cnbeta.com.tw/articles/soft/1369941.htm手机版:https://m.cnbeta.com.tw/view/1369941.htm

封面图片

教授滥用 ChatGPT 检查学生作业,致使一半人被暂缓毕业

教授滥用ChatGPT检查学生作业,致使一半人被暂缓毕业德州农工大学商业学院的一位农业学教授无能地使用ChatGPT评估学生们的期末作业后,得出他们的作业是由AI生成的结论,导致一半的学生的毕业证被暂时剥夺了。该教授告诉学生他将“使用ChatGTP(教授笔误)来检查期末的三篇论文是否是有软件生成的”,结果ChatGPT声称每一篇都是它写的。问题是,ChatGPT并不能检测出由人工智能生成的材料,甚至是由它自己产生的材料它也不能识别,而且它有时会发出破坏性的错误信息。还有一些其它的检查文本是否由AI生成的工具,但都拥有很高的错误率。有趣的是,有学生将该教授的论文摘要提交给ChatGPT,也被该AI认为是“该文本包含几个与人工智能生成的内容一致的特征。”来源,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

沃顿商学院:ChatGPT的创意能力比MBA学生更好

沃顿商学院:ChatGPT的创意能力比MBA学生更好ChatGPT在15分钟内自动生成了200个产品创意;MBA学生15分钟只想出了5个创意。结果显示,ChatGPT的产品平均购买率为46.8%,而学生的购买率只有40.4%落后于AI机器人。沃顿商学院教授兼创新研究管理所联席主席-ChristianTerwiesc表示,我一直以为创意是人类最擅长领域之一,但测试结果让人大吃一惊。显而易见,每个人都应该尝试通过ChatGPT产生更好的创意想法。主要研究发现ChatGPT等生成式AI,可以帮助人类突破创意瓶颈,吸取多元化灵感实现宽泛的创意思维。相比人工,ChatGPT可以提供更便宜、高效的工作执行力。ChatGPT在本次测试中,生成创意想法的质量、效率,全面领先那些高智商、训练有素的MBA学生。也就是说,生成式AI不仅能应用在“死记硬背”的业务上,同样可以胜任创意方面工作。可以尝试ChatGPT等生成式AI,作为创意助手应用在各种业务场景中,以提升工作和创意效率。测试研究简单介绍沃顿商学院有超过20年的产品设计和创新课程教学经验,已举办了10多次类似的产品创意挑战赛。本次测试,是从2021年课堂上选取的200个题目。这些题目包括一个标题和一段描述性文字,整体创建一个针对大学生市场,涵盖多种日常物品例如,鞋子、本、笔、衣服等,零售价是50美元或低于这个价格(设置价格上限是为了增加测试题目的复杂性)。一名测试人员将200个测试题目输入到ChatGPT中,15分钟就生成了200个创意想法(100个自然生成,100个有示例提示)。而一名MBA学生15分钟只想出了5个想法,如果是团队执行效率可能会更差。因为,会产生意见分歧,可能会出现激烈讨论的场景消耗更多时间。虽然ChatGPT的创意效率很高,但也可能掺杂了很多较差的想法。所以,经济价值是衡量创意的最佳选择。研究人员找到了一些学生组成了评估小组,对ChatGPT和MBA学生想出的400个创意想法进行了综合评估。每位受访者平均评估了40个想法,平均每个想法被评估了20次,来体现他们对商品的购买意愿。测试结果评估者被要求使用标准的“五框”选项,来表达购买意愿:肯定不会购买,可能不会购买,可能会也可能不会购买,可能会购买,肯定会购买。这五种回应的加权,分别为0,0.25,0.50,0.75,和1.00,以此来开发一个购买概率的衡量标准。这种加权方法由Jameson和Bass教授在1989年提出,是一套成熟的评估体系。测试结果显示,以购买意愿为度量标准,ChatGPT生成的想法的平均质量,高于人类生成的想法的平均质量。人类生成的想法的平均购买概率是40.4%,原始ChatGPT的平均购买概率是46.8%,而提供有示例提示的ChatGPT的平均购买概率是49.3%。此外,ChatGPT在测试样本中生成了评价最高的创意想法,其购买概率比最好的人类想法高出11%。总体来说,由ChatGPT和人类生成的400个想法中。前40个想法(前10%)中,有35个(占87.5%)是由ChatGPT生成的。换句话说,在一对一的比赛中,大部分的优胜者全部来自ChatGPT。关于沃顿商学院沃顿商学院(TheWhartonSchool)创建于1881年,隶属于宾夕法尼亚大学是世界上最古老、最大的商学院之一,也是美国最有影响力的商学院之一。沃顿商学院以其在金融、经济学、实业管理、创新和全球商业战略等领域的卓越教育和研究而闻名。沃顿商学院的校友遍布全球各行各业,其中包括多位诺贝尔奖得主、成功的商业领袖等。...PC版:https://www.cnbeta.com.tw/articles/soft/1384111.htm手机版:https://m.cnbeta.com.tw/view/1384111.htm

封面图片

学生们得自己写作业了 ChatGPT新功能将能够识别创作者

学生们得自己写作业了ChatGPT新功能将能够识别创作者这项工具名为“分类器”(classifier),它能标记出OpenAI产品以及其他AI创作软件编写的内容。不过,OpenAI表示,“它仍有许多局限性,因此应该作为其他确定文本来源方法的补充,而不是作为主要确定工具”。根据OpenAI的评估,只有26%的AI编写的文本被“分类器”正确识别。它还错误标记了9%的人类写作文本是由AI编写的。OpenAI在周二的一份声明中称,新工具将作为网络应用和其他一些资源提供给教师。ChatGPT的流行引发了人们对作者身份的担忧,因为学生和员工使用机器人来创建报告和内容,并将其伪装成自己的。这也引发了人们对自动生成错误信息活动便利性的担忧。OpenAI在一篇博客文章中表示:“虽然无法可靠地检测出所有AI编写的文本,但我们相信,好的分类器可以帮助缓解AI生成的文本是由人类编写的虚假声明:例如,发动自动错误信息运动,使用AI工具进行学术欺诈,以及将AI聊天机器人定位为人类。”自去年11月ChatGPT发布以来,教师们尤其在疲于应对它的流行。学生们很快意识到,这个工具可以生成学期论文和总结材料,尽管偶尔会插入明显的错误。本月早些时候,普林斯顿大学的学生爱德华·田(EdwardTian)发布了一款名为GPTZero的应用。他说,他在新年期间编写了这款程序来检测AI写作。宾夕法尼亚大学沃顿商学院教授伊桑·莫里克(EthanMollick)为他的课程制定了一项AI政策,允许学生使用ChatGPT,只要他们描述他们使用该程序的目的和使用方式。与此同时,纽约市的公立学校已经禁止使用ChatGPT,国际机器学习大会(ICML)也采取了同样措施,除非在特定情况下。ICML在其伦理声明中指出,“禁止包含由大型语言模型(LLM)生成的文本的论文,例如ChatGPT,除非这些生成的文本是作为论文实验分析的一部分呈现”。...PC版:https://www.cnbeta.com.tw/articles/soft/1342067.htm手机版:https://m.cnbeta.com.tw/view/1342067.htm

封面图片

【我抓包了一个用ChatGPT写作业的学生】

【我抓包了一个用ChatGPT写作业的学生】最近,我的课上有一个学生用ChatGPT写作业,被我识破了作业的要求是写一名中国媒体人的小传,具体的人选从我给定的名单当中选择,用中文或英文均可,尽量用新闻报道的写法(减少主观评价,多介绍事实和细节)。学生的作业交上来之后,我请助教先判一遍分,然后我再过一遍。我注意到,助教交到我手上的有一份英文写的作业,分数极低——满分15分,她只给了8.5分。她在批语里面给的评价主要有两方面:第一,前后段落之间有不少重复信息,比如第四段说这个人记录了被遗忘的历史,第五段又把同样的意思再说一遍,只不过用了不一样的词语表述。第二,整篇文章有非常多评价性的句子,但细节和例子就很少,和其他同学写的作业文风很不一样。仔细读了这份作业之后,我很快意识到,助教的这两点评语,其实完全就是ChatGPT的作风。而且,我又从文中发现了另外一个致命的问题:至少有三处重要的事实信息是错误的。其中有两处是说这个人获得了某某奖,但我根本搜不到相关的获奖信息记录;另一处是说这个人拍摄的纪录片作品讲述的是某某人的故事,但其实根本不是——讽刺的是,我在第二节课上就播放过那部纪录片作品,其实全班所有人都知道纪录片讲的是什么。发现这三处事实错误之后,我基本上就可以肯定:这份作业一定是用ChatGPT完成的。总结一下,用ChatGPT或其他生成型AI写的作业大概会有如下特点:1⃣语气听上去非常权威可信,但给出的信息经不起核查;2⃣擅长总结评价,但故事和细节欠奉;3⃣车轱辘话来回说,还能做到每次的用词都不一样;4⃣几乎没有任何拼写和语法错误。如果你读到一篇文章符合上述特点,那么八九不离十应该是AI写成的。其实这些特点也再次表明:ChatGPT这样以大语言模型为基础的AI工具,擅长的就是说一些听上去漂亮的话,但是在信息准确性和质量方面是不可靠的,很可能是一本正经地胡说八道。我还试过另一款以ChatGPT为基础的文献搜寻对话工具,号称能帮你找各个领域的研究论文。结果几句话说下来,我简直要被活活气死,因为它给出的论文reference看上去很真实,格式都完全正确,问题是:那些论文根本就不存在。我让它给出论文链接,它就给出一些看上去真的很像是论文网址的链接,只是那些链接根本就打不开。当你跟它说链接打不开,它就装作听不懂

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人