最近微软和谷歌都出了AI相关教程,谷歌的是Generative AI learning path(

最近微软和谷歌都出了AI相关教程,谷歌的是Generative AI learning path( 以上我收藏在提示工程资料导航站上: 如果你和我一样日理万机,只能收藏上面的教程作为心理安慰,其实也可以看下下面这个不到一小时的视频去了解下大模型基本原理: OPENAI创始成员在MS BUILD2023上的演讲State of GPT ( 今天又看了一遍,人工总结了几点我觉得比较有意思的部分: 1) 人类反馈强化学习RLHF比较难,不建议新手碰,LORA是个不错的技术,下半年推出的GPT微调接口是不是和LORA有关系? 2) GPT本质上是在上下文(工作记忆)影响下,预测下一个token,它不知道对错,没有价值观,不会反思回溯。即心理学家卡尼曼的书《思考:快与慢》中的系统I:直觉本能式给结果,不像系统II:理性思考。所以GPT其实推理能力不太好,需要提示工程方法来引导它做慢思考,比如用思维链COT,或最新的思维树TOT等。 我的感觉是GPT推理虽然不好,但是有的,看上去是在预测下一个token,其实是使用了深层能力。类似人类的直觉隐含了深层的知识,有时候比慢思考更正确。我记得的例子有:将军得到敌人从某方向进攻的情报,但将军的直觉是敌人佯攻,真实意图是从其它地方进攻。一个武林高手,进入一个幽静的陌生环境,能用直觉感觉到有埋伏,然后先拔刀做准备。 3) 思维链等方法反映了目前大模型的限制,并不自然,以后能不能用API包装下使用?或者GPT-5 实现系统II的慢思考? 4) Let’s work this out in a step by step way. 比 let’s think step by step. 效果好 5) 为什么prompt中给GPT设定专家角色或IQ 120高能力比不设定效果好?简单看为检索信息,GPT中有普通答案也有专家答案,你指定它为专家,它就找专家的答案给你 6) Retrieval-Augmented LLMs,检索增强大模型,即通过检索在Prompt的上下文Context中提供尽可能多的任务相关信息,那它的输出就会越好。

相关推荐

封面图片

可汗学院的AI演示是最近AI应用的一个极好的范例。

可汗学院的AI演示是最近AI应用的一个极好的范例。 GPT4 似乎什么都能做,那应用层能做什么? 其实应用层可以做的东西很多,也可以做的比 ChatGPT好很多。 最让我印象深刻的是这张图,简单翻译下: 我们的实践: •“让 Al 思考”…

封面图片

可汗学院的AI演示是最近AI应用的一个极好的范例。

可汗学院的AI演示是最近AI应用的一个极好的范例。 GPT4 似乎什么都能做,那应用层能做什么? 其实应用层可以做的东西很多,也可以做的比 ChatGPT好很多。 最让我印象深刻的是这张图,简单翻译下: 我们的实践: •“让 Al 思考” ,让AI对数学问题进行CoT思考,当学生犯错的时候不要指出错误,而询问他们的解题步骤。 •为问题提供上下文(包括人类生成的提示) •花费6个月进行提示工程,重点是数学辅导 •花费大量时间帮助微调模型以适应此用例

封面图片

Open AI发布给教师使用GPT教学的使用指南,给出了一些使用GPT教学的建议包括:

Open AI发布给教师使用GPT教学的使用指南,给出了一些使用GPT教学的建议包括: 角色扮演具有挑战性的对话 根据课程材料构建测验、测试和课程计划 减少非英语人士的摩擦 教导学生批判性思维 同时给出了几个入门的提示词模板,和注意事项: 模型可能并不总是产生正确的信息。它们只是一个起点;你是专家并且负责材料。 它们可能并不适合所有教室 - 你最了解你的班级,可以在查看模型的输出后做出决定。 链接:

封面图片

一直觉得思维导图工具 Whimsical 的设计和交互都做得很好,最近发现他们还加入了 AI 生成脑图的功能,一键让 GPT 帮

一直觉得思维导图工具 Whimsical 的设计和交互都做得很好,最近发现他们还加入了 AI 生成脑图的功能,一键让 GPT 帮你头脑风暴,趁机再推荐一次吧~~(图2是我的试玩) ▶ ▶ 免费限额:每个免费用户都有 500 items 的试用限额 另外,之前它被大家喜欢还有另一个原因 能嵌入到 notion

封面图片

最近一周最大的 insights 是周伯远教授周六的分享,周教授是清华电子系长聘教授外加IEEE/CAAI FELLOW,是当年

最近一周最大的 insights 是周伯远教授周六的分享,周教授是清华电子系长聘教授外加IEEE/CAAI FELLOW,是当年 IBM WATSON GROUP首席科学家。 Bert 跟 GPT 单向/双向上下文训练的思路差异,Bert 是双向上下文,而 GPT 是单向自回归,之前知道这个实现细节,但没当回事。 周教授做了个非常形象的类比,本质上相当于训练的时候,Bert 是给了「标准答案」的,而 GPT 没给「标准答案」… Bert 追求的是文本生成的局部最优,而不是为了 AGI,因为他们从一开始就不相信语言模型可以实现 AGI。 内心忽然咯噔了一下,「标准答案」不就是「应试教育」吗…自己到目前为止的学习经历里面,好像成长最大的时候,都是来自于解决没有标准答案的问题时。 Invalid media:

封面图片

《慢思考 》简介:慢思考是一本围绕其核心主题展开的深刻探索之作,书中详细讨论了与其主题相关的各类观点与现实应用,带给读者全新的思

《慢思考 》 简介:慢思考是一本围绕其核心主题展开的深刻探索之作,书中详细讨论了与其主题相关的各类观点与现实应用,带给读者全新的思考视角。这本书为那些想深入了解相关领域的读者提供了充实的内容,值得一读。更多详情请访问相关链接。 标签: #慢思考#慢思考#书籍 文件大小:NG 链接:https://pan.quark.cn/s/643867db60b2

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人