美国奥数队总教练、卡耐基梅隆大学数学系教授罗博深表示:GPT将彻底改变“刷题”教育模式!

美国奥数队总教练、卡耐基梅隆大学数学系教授罗博深表示:GPT将彻底改变“刷题”教育模式!GPT-4发布后,美国奥数队总教练、卡耐基梅隆大学数学系教授罗博深表示,它将导致人类社会的教育发生根本性改变。这位数学家认为,这个几乎是用“刷题”的方式喂大的人工智能的到来,意味着人类的刷题时代即将成为历史。作为教育者,老师们要想不被被淘汰,必须学会改变教育的方式,培养孩子动脑、解决问题的能力。他接受“知识分子”采访时表达了以下主要观点:ChatGPT是一个语言模型,它做的事情就是先收集很多语料和数据,如果你开始和它对话,它就会开始计算,根据数据库里已有的对话,回答什么词或者句子是概率最高的,也就是从人的角度看起来最自然的。这不是创新,而是刷题,GPT-4就是现在世界上最会刷题的东西。因为它的做法就是和刷题一样,先吸收所有的例子,所有过去的考卷,所有过去的解法,再找出最合适的答案。未来的孩子,需要的是能够想出新办法的能力,不可以只是做以前别人做的东西。我们不能像ChatGPT一样,只是说出最普通、最自然的的句子,应该想到那些没有人想到过的句子才对。老师们要想不被被淘汰,就要改变教育的方式,培养孩子动脑、解决问题的能力。过去孩子的大脑装了很多“电话号码”,现在不需要“电话号码”了,我们要利用这些空间。应该少教一些知识点,多花一点时间在思维的培养上。我真的建议,如果我们要教下一代的孩子,我们必须花够时间教那些孩子如何思维、如何创新。来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

相关推荐

封面图片

OpenAI GPT-4o 辅导孩子做数学题演示

OpenAIGPT-4o辅导孩子做数学题演示OpenAI邀请了可汗学院的可汗和他儿子一起使用了GPT-4o来辅导在可汗学院上遇到的数学题。在演示中ChatGPTApp可以获取iPad屏幕上的题目进行分析并作出应答,与GPT交流时可以随时打断GPT的对话。GPT-4o会给孩子基本概念和题目解题思路的启发,提供鼓励并且随时纠错,效果十分不错。关注频道@ZaiHuaPd频道投稿@ZaiHuabot

封面图片

ChatGPT对人类社会最为根本的改变,将发生在教育领域

这篇是美国奥数队总教练、卡耐基梅隆大学数学系教授罗博深(Po-ShenLoh)谈ChatGPT,从数学教育角度切入。ChatGPT计算能力大概是小学生水平,但逻辑水平是能做奥数的初中生,且是刷题之王,孺子可教。文中提到的899分解质因数的例子,我刚才试了一下,同样发出惊叹。只要简单提示平方差公式,GPT-4立马能给出新的解题思路:899=900-1=(30+1)*(30-1)罗博深认为,人要想和机器竞争,保全工作,必须要提高想出新办法的能力。ChatGPT的目标是面对提问,给出最大概率出现、最自然的解,它的运作思路和人想出新办法的能力完全相反。人在这方面的能力,ChatGPT很难替代。未来的考核和选拔中,面试可能会更重要,灵活的思维更被看重。读完想了挺多,心情有点沉重。从宏观角度,暂且抛开培养人思维和创新能力的难题,会不会教育系统的目的,本身就不是培养和找到比AI更厉害的人?

封面图片

【书名】中小学数学要义【作者】风云老师【格式】#epub#mobi#azw3#pdf【分类】#数学#科普#教育【简介】本书是为了

【书名】中小学数学要义【作者】风云老师【格式】#epub#mobi#azw3#pdf【分类】#数学#科普#教育【简介】本书是为了中小学家长、学生而写的,一本梳理中小学数学体系与核心知识点的书。作者想要大声疾呼:厘清数学脉络,理解数学的思想,远远比“刷题”重要得多。作者作为数学专业领域的学者和老师,想要对目前数学教育中,只注重解题能力的训练,培养“小镇做题家”的方式说“不”,正本清源,将数学精髓和思想传递给老师、家长和孩子。下载频道群组商务

封面图片

《中小学数学要义》找到数学本源 厘清脉络思想

名称:《中小学数学要义》找到数学本源厘清脉络思想描述:《中小学数学要义》是为了中小学家长、学生而写的,一本梳理中小学数学体系与核心知识点的书。作者从数学本源开始,将这些最核心知识点通过两三条主线完全交织关联在一起,不同的知识板块之间还做了自然的类比。整本书都在试图传达这样一个理念:一切数学知识皆有根源,没有什么数学知识是凭空创造的。作者想要大声疾呼:厘清数学脉络,理解数学的思想,远远比“刷题”重要得多。作者作为数学专业领域的学者和老师,想要对目前数学教育中,只注重解题能力的训练,培养“小镇做题家”的方式说“不”,正本清源,将数学精髓和思想传递给老师、家长和孩子。链接:https://pan.quark.cn/s/0a2ac926f2d5大小:22.4MB标签:#数学#教育#图书#中小学数学要义#quark频道:@yunpanshare群组:@yunpangroup

封面图片

儿童数学思维启蒙数独课合集

名称:儿童数学思维启蒙数独课合集描述:与其让孩子提早的去机械刷题,不如学数独。数独中用到的很多逻辑推理方法,都是数学思想的“开窍法宝”。解出数独的过程其实就像一个侦探在破案,需要孩子去观察,去思考,去推理,找到线索,能够有效锻炼孩子的逻辑推理能力。链接:https://pan.quark.cn/s/0b3fa5f8c6cf大小:8.02GB标签:#数独#数学启蒙#学习教育#quark频道:@yunpanshare群组:@yunpangroup

封面图片

GPT-4满分通过MIT本科数学考试 这套提示词火了

GPT-4满分通过MIT本科数学考试这套提示词火了要知道,测出这个结果的不是别人,正是来自MIT和波士顿大学、康奈尔大学的研究团队。而且强如上一代王者GPT-3.5,在同样的测试中,只成功搞定了三分之一。论文一出,无数目光迅速被吸引过来。GPT-4这样看似开挂的行为,自然引发了不少网友的感慨。比GPT-3.5强好多,好耶!咱就是说,有没有可能以后不需要比GPT-4更强的模型,来解决学术问题了?还有网友展现了自己网上冲浪的“前沿性”,玩了个这两天YannLeCun吐槽“GPT-4智商不如狗”的梗:GPT-4开挂MIT考试具体来说,GPT-4这次是参与了这样一场测试:研究团队策划了一个数据集,其中包含4550个问题和解决方案。这4550个问题和解决方案,来自MIT数学系和EECS的学生获得本科学位,需要学习的课程问题集、期中考试和期末考试。包括:6-1:电气科学与工程;6-2:电气工程与计算机科学;6-3:计算机科学与工程;6-4:人工智能与决策;18-1:普通数学;18-2:应用数学;18-3:纯数学;18-C:数学与计算机科学。题目统统出自MIT的数据集,从中随机生成228个问题,不涉及图像和已有解决方案的问题。题目的难度等级由易到难依次为:练习、习题、期中考试、期末考试、实验和专题。按答案类型排序,题目的难度由易到难依次为:编程、开放、选择题、数值、表达式和图像。这一次,参与考试的不只有GPT-4和GPT-3.5,还有StableVicuna-13B、LLaMA-30B和LLaMA-60B。选择让这4个大模型作为考试参赛选手,原因是它们是“最先进的大语言模型”。通过表格里的数据可以看到,得分最高的是经过调优后的GPT-4,得分率100%;表现最一般的是LLaMA-30B,只拿下了30%的分数。值得关注的是,原始版本的GPT-4开箱即用,完全不经过调优,在本次MIT考试中也拿到了90%的分数。调优流程,包括Few-Shot+CoT+Self-critique+Experts。从最终考试成绩的表格数据可以看到,从左到右每增加一个环节,调优后的GPT-4得分都会更上一层楼。此外,研究团队还在提示框里进行了工程优化,具体的“咒语”如下:等等,评分人是GPT-4自己?看到这样的结果,不少网友心生感慨,LLM在数学考试上的进步,未免有些神速了哈。2年前,AI还在苦苦挣扎小学数学问题。类似“小明种了5棵柠檬树,每年从每棵树上得到6个柠檬,10年间他总共得到多少柠檬”这种。去年年初,MIT+哈佛+哥伦比亚大学+滑铁卢大学的联合研究表示,把数学问题转换成等价的编程问题,就可以让GPT-3的同门师兄弟——OpenAI的Codex掌握高数,达到MIT本科水平。学了6门MIT本科基础数学课里随机抽取的例题,6门课程每门随机出25道题,再加上一个ACT水平(美国高考)的数据集里的60道题。总计210道题,AI全部答对。不过有人提出,AI达到的“MIT本科水平”,实际是Codex在做语言题而非数学题——因为当时的评测中,Codex负责读写,并不包括求解。所以,这一回GPT-4表现奇佳,怎一个妙字了得~好了,知道你很着急夸它,但你先别着急夸它,因为很快有人发现了一些“诡异”。主要有2大槽点。第一个值得质疑一番的,就是OpenAI的训练数据集没有完全公布。这也就意味着,无法证明数据集中的4550个问题和解决方案,在GPT-4的训练集中不存在。换句话说,如果GPT-4在预训练阶段已经接触到了这次的考题们,那最终拿下完美得分,就没什么好惊喜的了。也难怪乎有网友毫不客气地yygq,认定GPT-4拿到这样的结果,一定是数据集已经包含在训练数据里了。第二个槽点,就是GPT-4最后100%的得分率,似乎哪里不对劲???定睛一看,在论文的第2.6节有一句很关键的点:团队在数据集上微调开源大模型,“给定问题Q、基本事实解S和LLM答案A,我们使用GPT-4自动对模型响应进行评分”。实际操作上,就是每个大模型生成这次考试的答案,然后派出GPT-4打分,分值在0-5之间。所以给GPT-4打出满分的,实际上是GPT-4自己。啊这……很难说没有王婆卖瓜自卖自夸的嫌疑。此外,关于要给GPT-4提供“好的提示”,才能让它达到满分成绩,也让许多人抱有微词。到底什么算“好的提示”呢?似乎无法定义。甚至有人喊着,应该把这些题丢给MIT数学和EECS的学生去做,并不断给他们“好的提示”,这样人类学生也能拿下100%的吧……OneMoreThing一个小小的彩蛋:整个测试中,基本上可以在笔记本电脑上部署运行的StableVicuna-13B,也有48%的得分率。这个成绩,不仅比模型更大的LLaMA-65B高出近10个百分点,就连MITfine-tuing过后的LLaMA-30B,还要高。让人不得不陷入一些关于模型规模与能力相关性的思考参考链接:[1]https://arxiv.org/abs/2306.08997[2]https://twitter.com/johnjnay/status/1669687958960586753[3]https://twitter.com/arankomatsuzaki/status/1669528841629601792[4]https://twitter.com/emollick/status/1669742473097228292...PC版:https://www.cnbeta.com.tw/articles/soft/1365793.htm手机版:https://m.cnbeta.com.tw/view/1365793.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人