AI这么强了?ChatGPT可以通过法律和商业研究生考试

AI这么强了?ChatGPT可以通过法律和商业研究生考试人工智能通过了所有四门课程,但平均成绩为C+。在最近的另一篇论文中,沃顿商学院教授克里斯蒂安-特维什(ChristianTerwiesch)发现,ChatGPT以B到B-的成绩通过了一次商业管理考试。那么,你不会想用这种技术来打动学术界。研究小组发现人工智能并不稳定,可以说是很温和。明尼苏达大学的研究小组指出,ChatGPT擅长处理"基本法律规则"和总结学说,但在试图确定与案件有关的问题时却陷入困境。Terwiesch说,该生成器在处理简单的运营管理和流程分析问题时"令人惊讶",但无法处理高级流程问题。它甚至在处理六年级水平的数学问题时也会出错。还有改进的余地。明尼苏达州的教授们说,他们没有根据具体课程或问题调整文本生成器的提示,并认为学生可以通过定制获得更好的结果。在沃顿商学院,Terwiesch说,机器人善于根据人类的指导来改变答案。ChatGPT本身可能无法在考试或论文中取得好成绩,但作弊者可以让系统生成粗略的答案并对其进行完善。两个阵营都警告说,学校应该限制技术的使用,以防止基于ChatGPT的作弊。他们还建议改变问题,以阻止人工智能的使用(如专注于分析而不是背诵规则),或增加对那些倚重人工智能的人的挑战。明尼苏达大学说,学生仍然需要学习"基本技能",而不是依靠机器人的帮助。这些研究小组仍然认为ChatGPT可以在课堂上占有一席之地。教授可以教学生如何在工作场所依赖人工智能,甚至用它来编写和评分考试。Terwiesch解释说,这项技术最终可以节省时间,这些时间可以花在学生身上,比如更多的学生会议和新的课程材料。...PC版:https://www.cnbeta.com.tw/articles/soft/1341217.htm手机版:https://m.cnbeta.com.tw/view/1341217.htm

相关推荐

封面图片

ChatGPT几乎有能力通过美国医学执照考试

ChatGPT几乎有能力通过美国医学执照考试来自医疗保健创业公司AnsibleHealth的研究人员于2月9日在《PLOS数字健康》杂志上分享了他们的研究结果。他们发现ChatGPT能够在执照考试中取得"大约60%的通过门槛"。正如该网站所解释的,USMLE是美国医生获得医疗执照所必须参加的三步考试。除了测试未来医生的技能和医学知识外,该考试还评估他们的价值观和态度。在排除了基于图像的问题后,研究人员向ChatGPT提供了2022年6月USMLE考试中376个问题中的350个。在这三次考试中,ChatGPT的得分在52.4%和75%之间。在大多数年份,通过门槛约为60%。ChatGPT的得分也超过了PubMedGPT--一种专门针对生物医学文献进行训练的模型--其得分为50.8%。作者说。"达到这个众所周知的困难的专家考试的合格分数,并且在没有任何人类强化的情况下做到这一点,标志着临床人工智能成熟的一个值得注意的里程碑。"在这项研究发表后不久,各州医学委员会联合会和国家医学考试委员会,这两个USMLE的共同发起人,分享了他们自己的一份声明。他们指出,最近的两项研究使用了考试准备材料和练习题,而不是实际的USMLE考试题,因此,ChatGPT的成就只能带有一个星号。......需要注意的是,ChatGPT所使用的练习题并不能代表考生所经历的USMLE考试内容的全部深度和广度。例如,某些问题类型没有包括在研究中,如那些使用图片、心音和基于计算机的临床技能模拟。这意味着其他关键的考试结构在研究中没有得到完整的体现。"尽管目前没有足够的证据支持人工智能可以通过USMLE步骤考试的说法,但随着技术的发展,我们不会惊讶地看到人工智能模型大幅提高其性能,如果利用得当,这些工具可以对评估的构建方式和学生的学习方式产生积极影响。"...PC版:https://www.cnbeta.com.tw/articles/soft/1344437.htm手机版:https://m.cnbeta.com.tw/view/1344437.htm

封面图片

研究称 ChatGPT 能够通过沃顿商学院的MBA期末考试

研究称ChatGPT能够通过沃顿商学院的MBA期末考试宾夕法尼亚大学沃顿商学院的一位教授进行的新研究()发现,人工智能驱动的聊天机器人GPT-3能够通过该校工商管理硕士(MBA)项目的期末考试。ChristianTerwiesch教授撰写了研究论文《聊天机器人GPT3会获得沃顿商学院的MBA吗?》基于其在运营管理课程中的表现的预测,他说该机器人在考试中获得了B-和B之间的分数。Terwiesch写道,该机器人的分数显示了它“有显著的能力将一般高报酬的脑力工作者的一些技能自动化,特别是MBA毕业生所从事的工作中的脑力工作者,包括分析师、经理和顾问。”Terwiesch在1月17日发表的论文中写道:机器人在基本运营管理和流程分析问题上做得很好,包括那些基于案例研究的问题。他还说机器人的解释“非常好”。该机器人还“非常善于根据人类的提示修改其答案”,他总结道。——

封面图片

为防止学生使用 ChatGPT 作弊,部分大学教授考虑回归纸笔考试和手写作文

为防止学生使用ChatGPT作弊,部分大学教授考虑回归纸笔考试和手写作文人工智能(AI)的发展给教育带来了新的挑战。近日据《财富》杂志报道,一些大学教授为了防止学生使用OpenAI的ChatGPT作弊,决定在秋季学期采用纸笔考试和手写作文的方式进行评估。自推出以来,教师、管理人员和学生都对人工智能在教育中的作用提出了质疑。一些学校选择直接禁止使用ChatGPT,而另一些学校则探索如何使其成为一种学习工具。然而,在暑假即将结束之际,一些大学教授却在寻找方法来对抗生成式AI,使他们的考试“不受ChatGPT的影响”。“问学生像‘用三句话解释化学中的克雷布斯循环是什么’这样的问题已经不行了,因为ChatGPT会给出一个完美的答案”,密歇根州立大学文理学院副院长BillHart-Davidson对《财富》杂志说道。一些担忧的教授表示,他们计划回归手写作业和口头考试,以避免学生使用生成式AI。“我打算对学生采取中世纪的方式,回到口头考试”,阿巴拉契亚州立大学哲学教授ChristopherBartel在今年一月说道。“他们可以用AI生成文本来做笔记,但如果他们能够说出来,那就是另一回事了。”一位加拿大写作教授称,他计划让作业更加个性化,以减少使用ChatGPT写作文的情况。——、

封面图片

ChatGPT又赢了:带动股价涨三倍,成考试神器

ChatGPT又赢了:带动股价涨三倍,成考试神器它还帮助OpenAI拉到了微软新的100亿美元的投资,让OpenAI的最新估值达到290亿美元。要知道,当初Google全资收购DeepMind,也不过花了6亿美金。而随着这一个多月的发展,ChatGPT似乎也已经走出了被用户们“调戏”的阶段,开始真正地展现出来自己的潜力。而类似的AI工具,也开始真正被业界使用起来。新闻网站:热烈欢迎这两天,硅谷讨论最多的一个新闻,就是新媒体网站Buzzfeed基于ChatGPT乃至OpenAI的大光环,咸鱼翻身,股价直接跳涨了三倍!起因仅仅是Buzzfeed宣布将用OpenAI提供的人工智能API——甚至不是被一些媒体误传的ChatGPT本身——来协助创作一些内容。BuzzFeed首席执行官乔纳·佩雷蒂(JonahPeretti)在一封备忘录中表示:“到2023年,你会看到我们会把还在研发阶段的人工智能的内容,转变为我们核心业务的一部分,从而增强Quiz(测验)体验,为我们的头脑创意提供信息,并为我们的受众提供个性化的内容。”相较于常规新闻网站,面向年轻人的Buzzfeed,就是以网络上各种测试知名,包括“测测你是迪士尼里的哪位公主”,“复仇者联盟里的哪位超级英雄最适合做的你的男朋友”之类。而它此次和OpenAI的合作,就将主要应用在这类“快餐”内容的生产上。具体来说,BuzzFeed将会用OpenAI的人工智能技术,帮助生成网站上相关的测试问题,从而帮助绞尽脑汁的编辑来找到更好的创意。“需要明确的是,我们看到人工智能的突破开辟了一个创造力的新时代,这将使人类能够以新的方式利用创造力,创造无限的机会和应用,”Peretti说。“在出版方面,人工智能可以让内容创作者和观众受益,激发新想法并邀请观众成员共同创作个性化内容。”且不论读者们是否真的愿意为AI创造的乐趣小测试买单,但是这项合作的消息,就足以让BuzzFeed得以起死回生。自2021年12月通过SPAC上市以来,BuzzFeed的股价本来已下跌90%以上,其第三季度净亏损从一年前的360万美元扩大至2700万美元,甚至不得不将裁员约12%以控制成本。但与OpenAI牵手的消息一出,它的估计就大涨超300%。而BuzzFeed与Meta接下来的合作,可能将会把这些人工智能生成的内容,带到更广泛的用户面前。在不久前,Meta向BuzzFeed支付了数百万美元,以让BuzzFeed为Meta的平台生成内容,并培训平台上的创作者。这也意味着,接下来,在Facebook和Instagram上,你可能都能玩到不少人工智能生成的无脑小测试了。不过,一位发言人表示,BuzzFeed目前不会使用人工智能来帮助撰写新闻报道。这一决定,或许和前不久另外一家媒体使用人工智能创作内容却惨遭翻车有关。在用人工智能应用到新闻写作上,CNET走得更超前,不过也更早吃到了“苦果”。据CNET透露,作为CNETMoney团队“测试”项目的一部分,从2022年11月开始,编辑部就开始使用内部开发的AI引擎,生成了77篇新闻报道,约占该网站文章总量的1%。这些文章统一署名“CNETMoneyStaff”,来帮助编辑们围绕金融服务主题创建“一套基本解释模式”。这些使用AI工具编写的文章包括,“房屋净值贷款会影响私人抵押贷款保险吗?”和“如何关闭银行账户”等。“编辑们首先为故事生成大纲,然后在发布前扩展、添加和编辑AI草稿。”CNET主编康妮·古列尔莫(ConnieGuglielmo)写道。不过很快,CNETMoney编辑团队就发现其中一篇文章存在失实问题。于是他们进行了全面审核。审核结果就是,这些由AI生成的文章里,其中一小部分需要大量更正,而另外一些也多少存在小问题,例如公司名称不完整、或者语言模糊不清或者数字错误等。比如,在一篇“什么是复利?”的文章末尾,AI给出了一些非常不准确的个人理财建议。“这篇文章的早期版本建议储户将10000美元存入储蓄账户,每年赚取3%的复利,这样一年后就可赚取10300美元。”而事实上,任何学过小学数学的人都知道,储蓄者只能赚取300美元。Guglielmo没有说明77篇已发表的报道中有多少需要更正,也没有具体说明有多少“实质性”问题与“小问题”,只是在这些文章下面列出了更正提示。不过,由于其中超过一半的报道包含事实错误或者不当引用,以至于CNET现在停止使用这个人工智能引擎。其实使用AI自动化新闻报道并不新鲜,美联社近十年前就开始这样做了,但随着ChatGPT的兴起,这个问题获得了新的关注。当AI大规模应用于内容生产时,有多少似是而非的内容混在了其中?尽管存在这些问题,Guglielmo还是为恢复使用AI工具敞开了大门,表示在问题解决后,将重新开始使用人工智能新闻编写工具。教育界和学术界:遭遇挑战尽管在新闻界开始受到大胆的应用,但是Chatgpt类的AI工具在更多写作场景中却受到了质疑。其中就包括最受欢迎但又最受质疑的地方——学校。为了测试ChatGPT在四门课程的考试中生成答案的能力,明尼苏达大学法学院的教授最近让ChatGPT参加考试,并对考试结果进行了盲评。在完成95道选择题和12道作文题后,ChatGPT的平均成绩拿到了C+——在所有四门课程中均取得了较低但通过的成绩,“低空飞过及格线”。而在沃顿商学院的商业管理课程考试中,ChatGPT表现更好,获得了B到B-的成绩。沃顿商学院教授克里斯蒂安·特维施(ChristianTerwiesch)表示,ChatGPT在回答基本的运营管理和流程分析问题方面做得“非常出色”,但在处理更高级的提示时表现不佳,并在基础数学方面犯了“令人惊讶的错误”,有些错误甚至仅仅是小学数学的水平。这意味着什么?如果不加以限制,ChatGPT将会变成史上最强大的作弊工具——帮助学生们写作业,甚至是完成考试论文。所以,在测试结果出炉之际,越来越多的学校和老师表达了对ChatGPT作弊能力的的担忧。例如,纽约市和西雅图的公立学校已经禁止学生和教师在学区的网络和设备上使用ChatGPT。Terwiesch教授也表示,他赞同在学生参加考试时应该对他们实施限制。“禁令是必要的,”他说。“毕竟,当你授予医生学位时,你希望他们真的掌握了医学知识,而不是只知道如何使用聊天机器人。这同样适用于其他技能认证,包括法律和商业专业等。”但Terwiesch相信这项技术最终仍会出现在课堂上。“如果我们最终得到的只是和以前一样的教育系统,那么我们就浪费了ChatGPT带来的绝佳机会。”他说。而在学术界,ChatGPT遭遇了更严厉的审视。美国主要期刊《科学》杂志的主编霍尔顿索普宣布了一项更新的编辑政策,禁止使用来自ChatGPT的文本,并表示ChatGPT不能被列为合作者。霍尔顿索说,科学期刊都要求作者签署一份声明,承诺对自己的文章负责。“但由于ChatGPT无法做到这一点,它不能成为作者。”他认为,即使在准备论文的阶段,使用ChatGPT也是有问题的。“ChatGPT犯了很多错误,这些错误可能会进入文献。”他说。不仅仅是《科学》杂志,其他出版商也做出了类似的举动。出版了近3000种期刊的Springer-Nature也发表声明称,不能将ChatGPT列为作者。最为严厉的,可能属于在线编程问答平台StackOverflow。早在ChatGPT推出不久,它就宣布全面封禁来自ChatGPT以及任何非人工生成的回答,并且进一步规定,一旦发现用户违反就会直接禁言。...PC版:https://www.cnbeta.com.tw/articles/soft/1341315.htm手机版:https://m.cnbeta.com.tw/view/1341315.htm

封面图片

研究发现ChatGPT可以影响用户的道德判断

研究发现ChatGPT可以影响用户的道德判断研究发现,ChatGPT可以影响人类对道德困境的反应,用户往往低估了聊天机器人对他们判断的影响程度。研究人员表示,这凸显出需要更好地理解人工智能,开发出能更谨慎地处理道德问题的聊天机器人。SebastianKrügel和他的团队向ChatGPT(由人工智能语言处理模型GenerativePretrainedTransformer3驱动)提出了一个道德难题,多次询问它是否可以接受牺牲一条生命来拯救其他五条生命。他们发现ChatGPT产生的声明既支持又反对牺牲一条生命的行为,显示出它并不偏向于某种特定的道德立场。然后,作者向767名平均年龄为39岁的美国参与者展示了两个道德困境中的一个,要求他们选择是否牺牲一个人的生命来拯救其他五个人。在回答之前,参与者阅读由ChatGPT提供的声明,支持或反对牺牲一个人的生命来拯救五个人。声明是由道德顾问或ChatGPT提供的。回答后,参与者被问及他们阅读的声明是否影响了他们的答案。作者发现,参与者更有可能认为牺牲一个人的生命来挽救五个人的生命是可以接受或不可接受的,这取决于他们读到的声明是支持还是反对这种牺牲。即使声明是由ChatGPT提供的,情况也是如此。这些发现表明,参与者可能受到了他们所读到的声明的影响,即使这些声明是由一个聊天机器人提供的。80%的参与者报告说,他们的答案没有受到他们所读的声明的影响。然而,作者发现,参与者认为他们在没有阅读声明的情况下会提供的答案,仍然更有可能同意他们确实阅读过的声明的道德立场,而不是相反的立场。这表明,参与者可能低估了ChatGPT的声明对他们自己的道德判断的影响。作者认为,聊天机器人有可能影响人类的道德判断,这突出了教育的必要性,以帮助人类更好地理解人工智能。他们建议,未来的研究可以设计聊天机器人,拒绝回答需要道德判断的问题,或者通过提供多种论据和注意事项来回答这些问题。...PC版:https://www.cnbeta.com.tw/articles/soft/1354349.htm手机版:https://m.cnbeta.com.tw/view/1354349.htm

封面图片

ChatGPT能通过CFA考试吗?摩根大通研究人员试图找寻答案

ChatGPT能通过CFA考试吗?摩根大通研究人员试图找寻答案研究人员在长达11页的报告中写道,“基于预估的通过率和平均自报分数,我们得出的结论是ChatGPT可能无法在所有测试环境下通过CFA一级和二级考试。如果有提示,GPT-4将有较大机会通过CFA一级和二级考试。”CFA协会负责教育的董事总经理ChrisWiese承认,大语言模型将有能力正确回答一些考试问题。他说该公司还在考虑使用一种大语言模型技术来帮助CFA考生。近年来CFA考试的通过率有下降趋势,8月份一级考试通胀率平均为37%,远低于2018年43%的平均水平。常见错误CFA一级考试有180道单选题,二级考试包括案例研究和88道选择题。研究人员发现,无论使用何种类型的提示,这两个大语言模型的二级考试结果都不理想。一级考试中,ChatGPT和GPT-4在衍生品、另类投资、股权投资和伦理道德这几个部分得分最高。这两款聊天机器人在财务报告分析和投资组合管理方面表现都相对较差。二级考试中,与GPT-4相比,ChatGPT在另类投资、固定收益工具这两个部分表现更差,ChatGPT在投资组合管理、经济学相关的领域得分高于GPT-4。ChatGPT的大多数错误是基于知识性,而GPT-4最常犯的是计算错误。研究人员发现GPT-4比ChatGPT更容易出现推理错误。...PC版:https://www.cnbeta.com.tw/articles/soft/1394003.htm手机版:https://m.cnbeta.com.tw/view/1394003.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人