可汗学院创始人认为 GPT-4 做好了做导师的准备

可汗学院创始人认为GPT-4做好了做导师的准备可汗学院创始人SalKhan相信OpenAI最新的生成式AIGPT-4做好了给学生当导师的准备。可汗学院是GPT-4的早期用户之一,它提供的基于GPT-4的教育助手Khanmigo正在美国多个学区进行测试。Khanmigo的工作方式类似线下或线上的辅导老师,检查学生的作业,在遇到问题时提供帮助。举例来说,对于数学题目,Khanmigo不仅仅能判断正确还是错误,还能判断学生的哪一步推理错了。SalKhan表示,他理解部分学校对ChatGPT等生成式AI的担忧,指出许多批评者其实自己也在用它们,甚至让他们自己的子女使用。他认为AI能为发展中国家和发达国家的儿童提供一种个性化学习的机会。来源,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

相关推荐

封面图片

可汗学院创始人可汗在Ted上分享了可汗学院使用GPT-4辅助学生学习的故事,对于很多人对于使用ChatGPT作弊的担忧,可汗

可汗学院创始人可汗在Ted上分享了可汗学院使用GPT-4辅助学生学习的故事,对于很多人对于学生使用ChatGPT作弊的担忧,可汗认为如果正确的使用AI,可以极大改善这个问题。现在已经有几千人在可汗学院上使用AI助教。当学生在学习某本著作是,学生可以针对著作中的问题和AI进行深入对话,比如AI可以回答:为什么《了不起的盖茨比》中,杰·盖茨比一直在看远处的绿光?这种方式让学习更加生动有趣。学生还可以和AI进行辩论,例如和AI辩论是否应该取消学生贷款。AI可以通过提问的方式帮助学生做阅读理解,比如当学生正在阅读史蒂夫·乔布斯在斯坦福的著名演讲,在阅读到某些部分时,他们可以点击某个小问题。然后AI会用苏格拉底式的方式,就像口试一样,向学生询问一些问题。AI可以在文章中高亮部分内容。为什么作者使用那个词?他们的意图是什么?这支持了他们的论点吗?AI还能帮助学生学习写作,通过一起写一个小故事的方式,学生写两句,AI写两句,共同完成作品。或者AI帮助给出写作大纲,或者用苏格拉底式帮助学生梳理思路。AI不仅能帮助到学生,还能帮助到老师。在学生模式中,AI不会直接告诉学生答案,但是在老师模式,老师可以直接得到答案,并解释答案,还可以针对教学材料帮助准备教学计划。

封面图片

GPT-4相关能力的总结:

GPT-4相关能力的总结:-支持多模态输入:GPT-4的API可以接受图像,并生成相应的字幕,并对图像进行分析。-在BAR考试中取得优异成绩:GPT-4取得了BAR90分(满分一百),同时在生物奥林匹克竞赛的视觉题方面获得了99分,其推理能力远超ChatGPT。-超大上下文:GPT-4支持25,000个单词的上下文,可以使得完整的文档适合于一个提示符内。-更具创造性和协作性:与用户协作生成、编辑和迭代写作任务,具有更高的创造性和协作性。-多个合作伙伴正在测试GPT-4:Duolingo、BeMyEyes、Stripe、摩根士丹利、可汗学院等,甚至包括冰岛政府。相关链接:https://openai.com/product/gpt-4

封面图片

OpenAI GPT-4o 辅导孩子做数学题演示

OpenAIGPT-4o辅导孩子做数学题演示OpenAI邀请了可汗学院的可汗和他儿子一起使用了GPT-4o来辅导在可汗学院上遇到的数学题。在演示中ChatGPTApp可以获取iPad屏幕上的题目进行分析并作出应答,与GPT交流时可以随时打断GPT的对话。GPT-4o会给孩子基本概念和题目解题思路的启发,提供鼓励并且随时纠错,效果十分不错。关注频道@ZaiHuaPd频道投稿@ZaiHuabot

封面图片

GPT-4成学术造假“神器” 伪造数据又快又合理

GPT-4成学术造假“神器”伪造数据又快又合理这个新闻的来源是一篇发表在JAMAOphthalmology上的论文。论文使用GPT-4为一项医学学术研究生成了一个假数据集,发现它不仅能创造出看似合理的数据,甚至还能用来准确支撑错误的论文观点。对此,有网友表示十分理解:大模型最重要的能力就是生成“看似合理的文本”,因此它非常适合干这活儿。还有网友感慨:技术“有良心”的程度,也就和用它的研究人员一样了。所以,GPT-4创造的假数据究竟长啥样?GPT-4学术造假有一手先来看看GPT-4是怎么生成假数据的。具体来说,研究人员采用了GPT-4的高级数据分析(ADA,原代码解释器)功能,来生成一个假数据集。这个过程中,研究人员给GPT-4提供了一些专业知识和统计学要求,让它生成的数据看起来更加“合理”。第一步,给GPT-4输入一系列数据要求。研究人员先给GPT-4提供了一系列详细的提示词,要求它创建一个关于圆锥角膜(keratoconus)眼部疾病患者的数据集。圆锥角膜是一种疾病,会导致角膜变薄,导致注意力受损和视力不佳。目前治疗圆锥角膜疾病的方式主要有两种,一种是穿透性角膜移植(PK),另一种是深板层移植(DALK)。在没有任何实质性证据的情况下,研究人员让GPT-4捏造一组数据,支撑DALK比PK效果更好的观点。随后,再设定了一系列统计标准,如要求GPT-4生成的术前和术后数据产生统计学上的显著差异。第二步,就是生成数据了。这个过程中可能会由于GPT-4字数限制,导致答案生成暂停,通过“继续”提示就能恢复生成过程。最终,GPT-4成功生成了包含160名男性和140名女性患者的数据集,并做出了一组支撑DALK比PK效果更好的数据。由GPT-4生成的假数据集长这样,表格1是关于分类变量的数据,包括患者性别、手术类型、免疫排斥等情况:表2是关于连续变量,包括术前术后的视力矫正情况等:论文作者之一GiuseppeGiannaccare博士表示,如果非常快速地查看这个数据集,很难识别出它其实“不是人做的”。专家审查才能发现为了验证GPT-4做出来的数据是否真的令人信服,Nature特意请来了英国曼彻斯特大学生物统计学家杰克·威尔金森(JackWilkinson)和同事ZewenLu,来检查数据可信度。检查结果表明,许多捏造出的患者在性别、名字匹配度上就有问题(例如Mary的性别一栏是男性一样)。然后,一些数据之间的相关性也不高,包括术前和术后视力测量与眼部成像检查(eye-imagingtest)之间的数据相关性等。最后,患者的年龄也设置得不同寻常。在检查之后,用GPT-4生成假数据集的研究人员也承认,大模型在生成数据集上还存在有缺陷的地方。但杰克·威尔金森(JackWilkinson)依旧对结果表示了担忧:一旦知道自己“哪里露馅了”,AI很容易就能纠正它,并生成更加具有说服力的结果。有网友认为,这篇文章最大的意义并不在于证明“GPT-4有幻觉”;更重要的是,它证明了GPT-4生成看似合理的数据集“非常容易”,也算是一种对期刊的警告(记得严格审稿!)。不过,也有网友感觉研究意义不大,因为即使没有ChatGPT这样的工具,真想造假的学者也能很容易伪造出一套数据。OneMoreThing此外,这两天一段关于ChatGPT的视频在抖音上也是火得不行。视频中,终于毕业的歪果仁小哥直呼“感谢ChatGPT帮助我完成所有作业和考试”(手动狗头)...PC版:https://www.cnbeta.com.tw/articles/soft/1399275.htm手机版:https://m.cnbeta.com.tw/view/1399275.htm

封面图片

使用GPT-4 学渣比学霸更有优势

使用GPT-4学渣比学霸更有优势沃顿商学院教授分享了这项研究后,引起不少网友讨论。网友对这样的结果也感觉很意外:和我的预期完全不符啊,还以为所有人分数都会提高。还有网友称这是“真正的游戏规则改变者”:AI正在改变教育格局,在缩小差距的同时提高标准。不过也有网友持不同观点:擅长使用AI的人可能表现会非常出色,那种看起来差距缩小的情况可能只是因为有满绩点4.0这一上限:AI会是“平衡器”吗?除了上面所说的,我们查看论文,发现研究人员还得出了这些结论:使用GPT-4对参与者总体任务完成的质量影响较小且不稳定;使用GPT-4显著减少了参与者完成任务的时间;平时技能水平较低的参与者在使用GPT-4后,任务完成质量提升最为显著,本就能独立高质量完成任务的参与者获得的质量提升较小;GPT-4能为所有学生节省相似的时间,无论他们原本完成任务的速度如何;即便参与者不了解自己在各项任务上的具体成绩,他们也能明确指出GPT-4最有效的应用场景。下面一起来看实验详情。具体来说,来自南加州大学Gould法学院、明尼苏达大学法学院的几位教授,以研究AI辅助对法律分析的影响为例。给参与实验的60位来自明尼苏达大学法学院的学生提出了四项初级律师常见的任务:起诉状起草(ComplaintDrafting)、合同起草(ContractDrafting)、员工手册起草(EEHandbook)和客户备忘录起草(ClientMemo)。不同的是,这些参与者随机分为两组(A组、B组),每组30人。A组参与者需使用GPT-4完成起诉状起草、合同起草任务,而B组使用GPT-4完成员工手册起草和客户备忘录起草任务。实验前,全部学生都接受了约2小时的培训,了解如何有效使用GPT-4进行法律分析。完成任务过程中,参与者需记录自己完成任务的时间。然后,研究人员在不知道参与者身份和其他信息的情况下,匿名完成所有作品的评分。具体实验结果如下。在4.0绩点机制上,使用GPT-4辅助后,学生在四项任务中的平均分数波动幅度为+0.17、+0.24、+0.07、-0.07。可视化图表更直观:总的来说,仅合同起草任务的表现在95%置信水平上展现出了统计学意义上的显著提升。再来看使用和不使用GPT-4参与者,完成任务平均花费的时间:可以直观地看到,参与者完成任务时间大大缩减:更多数据和分析内容,感兴趣的朋友可查看论文。值得一提的是,几位教授在论文最后,还写下了长达12页的启示,针对律师、法律客户、法官以及法学院、法学院学生提出了不同的建议。其中指出:法学院需要重新考虑学生使用AI的时机和方法,以及在何种情况下应限制AI的应用,以便更好地适应未来实践的需求。此外,针对不同人群的类似研究也不在少数。职场中AI会是“平衡器”吗?来自哈佛商学院、沃顿商学院、MIT斯隆管理学院等的研究人员联合波士顿咨询公司做了一项研究。他们选取了波士顿咨询公司中的部分高知员工,让他们使用AI辅助完成分析、创意构思和说服技巧等18项任务测试。结果发现,原本表现位于团队下半层的顾问们在AI辅助下成果质量提升了43%;而平时表现在上半层的顾问仅提升了17%。使用GPT-4之前,顶尖员工与其他员工之间的平均差距为22%;使用之后,这一差距显著缩小至4%。MIT的一项研究同样表明,使用ChatGPT之后,高水平写作者和低水平写作者的表现差异缩减了一半。创意写作领域亦见相似现象,伦敦大学学院、埃克塞特大学研究人员的一项实验表明,创意作家技能差距缩小,GPT-4提供的五个创意灵感“有效地平衡了不同创造力水平作家的创造力评分”。不过,尽管有多项研究表明使用AI可以缩减人们之间的技能差距,但正如论文分享者、沃顿商学院教授EthanMollick所言:技能的造王者(KingMaker)、加速器(Escalator)、平衡器(Leveler),AI究竟将扮演哪一种角色,并不是总是很清楚。那么,你认为AI在你身边正扮演着哪种角色?...PC版:https://www.cnbeta.com.tw/articles/soft/1418593.htm手机版:https://m.cnbeta.com.tw/view/1418593.htm

封面图片

UCSD研究显示GPT-4在图灵测试中被误认为人类的比例高达54%

UCSD研究显示GPT-4在图灵测试中被误认为人类的比例高达54%UCSD的研究团队进行了一项实证研究,结果显示人类无法将GPT-4与人类区分开来,在54%的情况下,GPT-4被判定为人类。这是首次有系统在交互式双人图灵测试中被实证通过测试。研究者CameronR.Jones招募了500名志愿者,他们被分为5个角色:4个评估员(分别是GPT-4、GPT-3.5、ELIZA和人类),另一个角色是隐藏在屏幕另一端的人类,等待评估员的发现。实验要求人类参与者与人类或人工智能进行5分钟对话,并判断对话者是否是人类。研究结果显示,GPT-4的通过率为54%,超过了GPT-3.5(50%)和ELIZA基线(22%),但低于人类被试者(67%)。研究者还发现,评估者更注重语言风格和社会情感因素,而不是知识和推理。这表明社会智能是AI最难以模仿的人类特征。关注频道@ZaiHuaPd频道投稿@ZaiHuabot

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人