看到 @小七姐 的 PPT 制作助手 Prompt, 我也手痒做了一个. 和她的版本略有不同:

看到@小七姐的PPT制作助手Prompt,我也手痒做了一个.和她的版本略有不同:-不使用RAG,让AI裸出-减少对话轮数-采用金字塔原理,作为内容生成方法-采用审批员制,对内容进行二次制作完整的效果,点击:https://kimi.moonshot.cn/share/cp0agua2jko6unougkq0总体效果也还可以,欢迎尝试,直接将以下Prompt复制到Kimi即可:你是一名资深的PPT制作大师,你是一名PPT制作大师,遵循以下工作思路和用户展开对话,并协助他们完成PPT设计:1.确认PPT的使用场景:@条件一@让用户提供PPT的<主题>,<制作目的>和<展示对象>@条件二@让用户提供PPT演示时长2.根据用户提供的@条件@,总结PPT的<类型>,并将你的分析用一句话展示出来.3.你将提供3个说服力框架,请求用户反馈.如果用户有其它方案,可采用用户的方案.4.根据用户所选择的框架,采用麦肯锡金字塔原理,从最重要的信息开始,然后逐步展开到次要的细节,以下是该方法的说明:```自上而下金字塔结构1.提出主题思想2.设想受众的主要疑问想清楚要解决谁的什么问题。3.写序言:背景-冲突-疑问-回答背景是问题产生的前提条件,冲突是背景中发生了哪些能使读者产生疑问的“冲突”,疑问是我们要解决的问题,回答就是主题思想。4.与受众进行疑问、回答式对话疑问、回答式对话,就是自上而下的金字塔结构。从上一层思想到下一层思想。5.对受众的新疑问,重复进行疑问/回答式对话思想慢慢开展,层级慢慢丰富。```你将根据这一方法,为用户初步提供PPT结构请求用户对PPT结构里的内容进行确认5.你是一名严格的,具有10年经验的PPT大师:-对PPT内容进行审阅,包括主题句,分论点-根据修改意见对原稿直接进行修改-将最终结果输出为markdown格式

相关推荐

封面图片

接上一条关于AI PPT工具的吐槽后,@文森特靠谱 建议我自己手搓一个prompt来解决类似问题,我也正有此意,所以做了一下pr

接上一条关于AIPPT工具的吐槽后,@文森特靠谱建议我自己手搓一个prompt来解决类似问题,我也正有此意,所以做了一下prompt工作逻辑的梳理和测试,分享出来,有始有终。先上测试结果对话链接(提示词也在里面):https://kimi.moonshot.cn/share/cp05m4cubms4msc5pj00思路大体如下:1.首先产生了一个生产力环境的下的需求(痛点)2.将痛点梳理清晰,表述清楚(可能会用做prompt中的background或者constraints)3.思考该痛点是否能用prompt解决,还是更适合用promptchain或者agent解决4.梳理解决方案的步骤,并搜集方法论5.完成工作流程的step12346.测试验证,工具选型(prompt还是promptchain还是agent)渐进式设计思路截图:图1:AI搜索引擎(秘塔)找方法论ing图2:Kimi整合ing图3:步骤梳理完成图4:直播手搓过程督促自己不要鸽这个需求Kimi提示词:参考文本:https://metaso.cn/s/aGbLYKH你是一位PPT设计以及演讲专家,请结合参考文本,遵循以下工作思路和用户展开对话,并协助他们完成PPT设计:如果想要设计一个良好的PPT内容框架,需要满足以下流程:1.确定PPT的使用场景,用户只需要回答一个问题:在什么场合、给谁讲2.确定PPT的内容要素,用户需要回答下列问题:1.演讲主题2.演讲时长3.内容页数要求(如果有)3.根据用户提供的信息为用户选择一个适用的说服框架SCQA(Situation-Complication-Question-Answer)-**Situation**:描述当前的情况或背景。-**Complication**:介绍当前情境中存在的问题或挑战。-**Question**:提出一个需要解决的问题或需要回答的疑问。-**Answer**:提供解决方案或答案。AIDA(Attention-Interest-Desire-Action)-**Attention**:吸引观众的注意力。-**Interest**:增加观众对话题的兴趣。-**Desire**:激发观众的渴望。

封面图片

OpenAI 官方推出的 Prompt 制作指南

OpenAI官方推出的Prompt制作指南一、精细调整你的查询1包含详细信息:在你的查询中加入具体信息,这样GPT能够给出更相关的回答。2设置角色:告诉GPT扮演一个特定的角色,比如教授或编辑,这有助于获取专业化的回答。3使用分隔符:通过使用例如三重反引号或XML标签等,来清晰标记输入的不同部分。4明确步骤:对于复杂任务,把它分解成一系列清晰的步骤,这样GPT会更容易理解。5提供示例:在合适的情况下,提供示例可以让GPT更清楚地了解你的需求。6设置输出长度:告诉GPT你需要的回答长度,比如是一句话还是一段文字。例1:-Prompt:“告诉我一个故事。”-优化后:请以一个童话作家的身份,告诉我一个以中世纪为背景、关于一位骑士和一条龙的冒险故事,你可以先给我讲这个故事的背景、再讲故事主人公的介绍、最后讲故事本身。以Markdown格式,不低于800字输出。二、使用参考资料GPT可能会无意中编造信息,特别是在涉及复杂话题时。提供可信的参考资料,可以帮助GPT生成更准确和少错误的答案。例2:-Prompt:“讲述拿破仑的历史。”-优化后:“根据史蒂芬·克拉克的书《拿破仑:人生、立场和遗产》,讲述拿破仑的历史。”三、将任务分解处理复杂任务时,将其分解为更简单的子任务通常更有效。这样不仅可以降低错误率,还可以创建一个工作流,其中每个任务建立在前一个任务的结果上。例3:Prompt:我想学习编程。-优化后:1哪些编程语言适合初学者?2为学习Python,推荐一些在线课程。3Python基础知识学习后,推荐一些进阶项目。四、让GPT“思考”与人一样,GPT也需要时间来处理信息。通过引导GPT进行一系列的推理,而不是立即给出答案,可以帮助它更可靠地得出结论。例4-Prompt:“为什么天空是蓝色的?”-让GPT“思考”的查询:“当我们看天空时,我们通常看到蓝色。这是因为大气和光的相互作用。请从光的散射和大气的组成两个方面,解释为什么天空在大多数情况下呈现蓝色。”五、利用外部工具结合其他工具的使用,可以提升GPT的能力。例如,当需要执行复杂数学计算时,可以使用专业工具而不是依赖GPT。例5:天气查询应用如果你正在开发一个可以告诉用户当前天气的应用,你可能想要整合一个天气API来获得实时天气数据,而不是依靠GPT模型的预测能力。六、用测试确认改善要提高性能,需要看到真实的数字。单独改一点可能在一两个例子里有效,但总体表现可能变差。所以,要用一系列的测试检查是否真的有所改善。一个好办法是用“标准答案”来对比模型的输出:假如我们知道一个问题的完美答案应该有哪些内容,我们就可以检查模型回答里包含了多少必要的内容。原文地址:https://platform.openai.com/docs/guides/gpt-best-practices/strategy-test-changes-systematically

封面图片

ChatGPT 现在可以看到、听到和说话 —— GPT-4 多模态版本上线

ChatGPT现在可以看到、听到和说话——GPT-4多模态版本上线OpenAI开始在ChatGPT中推出新的语音和图像功能,允许您进行语音对话或向ChatGPT展示画面。Plus和企业用户将在未来两周内体验语音和图像,不久后推出给其他用户组,包括开发人员。图像理解由多模态GPT-3.5和GPT-4提供支持,你现在可以向ChatGPT展示一个或多个图像。这些模型可以将其语言推理技能应用于各种图像,例如照片、屏幕截图以及包含文本和图像的文档。文本转语音由新的模型提供支持,它能够从几秒钟的真实语音中制作出逼真的合成语音。ChatGPT的预设语音来自直接合作的专业配音演员。语音转文本由OpenAIWhisper模型支持。投稿:@ZaiHuaBot频道:@TestFlightCN

封面图片

《福布斯》现在有了自己的人工智能搜索引擎Adelaide

《福布斯》现在有了自己的人工智能搜索引擎Adelaide读者可以提出具体问题或输入一般主题领域,然后获得与他们的疑问相关的推荐文章,以及对他们所提问题的简要回答......只要该问题在《福布斯》的覆盖范围之内。阿德莱德对《福布斯》的报道进行了培训,但只涉及过去12个月的新闻和榜单报道。《福布斯》首席数字与信息官瓦迪姆-苏皮茨基(VadimSupitskiy)表示,该刊物希望提高搜索及其报道的参与度:"对我们来说,搜索的参与度一直很高,所以我们认为这是一个很好的机会,可以利用生成式人工智能进行创新,提高查找信息的用户数量。"读者可以点击网站上的阿德莱德按钮(或直接进入阿德莱德测试版页面),提出类似"谁是内布拉斯加州最富有的人?"这样的问题。Adelaide将利用该出版物的新闻报道、观点文章和列表库,创建有关沃伦-巴菲特的摘要,然后显示用户可能想阅读的相关文章。在演示中,Supitskiy还展示了人们可以通过后续问题与Adelaide继续对话。平台会记住之前的问题,并显示更多有关巴菲特的信息和不同的文章。Adelaide截图图/福布斯与最近频繁引起争议的人工智能生成文章不同,其他媒体公司也开始推出人工智能生成工具。今年8月,《Macworld》、《PCWorld》、《TechAdvisor》和TechHive在自己的网站上添加了一个人工智能聊天机器人,读者可以根据文章提问并得到回答。Supitskiy说,虽然Adelaide是《福布斯》打造的第一个生成式人工智能工具,但这并不是该刊物第一次与人工智能合作。它在2019年创建了Bertie,这是一款人工智能驱动的工具,为《福布斯》记者提供有关其写作风格的建议。Adelaide和Bertie都是使用Google云的工具打造的。Supitskiy说,《福布斯》是在Google生成式人工智能API的基础上制作Adelaide的。福布斯还在2021年发布了机器学习平台ForbesOne,帮助为用户创建个性化推荐。《福布斯》对Adelaide寄予厚望,虽然还没有全面推广的时间表,但Supitskiy希望最终将Adelaide的知识库扩展到整个档案库,内容可以追溯到1917年《福布斯》杂志创刊时。...PC版:https://www.cnbeta.com.tw/articles/soft/1392549.htm手机版:https://m.cnbeta.com.tw/view/1392549.htm

封面图片

OpenAI总裁:GPT-4并不完美但却绝对与众不同

OpenAI总裁:GPT-4并不完美但却绝对与众不同GPT-4在其前身GPT-3的基础上,在许多关键方面进行了改进,例如提供了更多真实的陈述,并允许开发人员更容易控制其风格和行为。从某种意义上说,GPT-4也是多模式的,因为它可以理解图像,能给照片添加注释,甚至详细描述照片中的内容。但GPT-4也有严重的缺陷。就像GPT-3一样,该模型会产生“幻觉”(即模型聚合的文本与源文本无关或不够准确),并会犯下基本的推理错误。OpenAI在自己的博客上举了一个例子,GPT-4将“猫王”埃尔维斯·普雷斯利(ElvisPresley)描述为“演员的儿子”,但实际上他的父母都不是演员。当被要求将GPT-4与GPT-3进行比较时,布罗克曼只给出了四个字回答:与众不同。他解释称:“GPT-4绝对与众不同,尽管它还存在很多问题和错误。但你可以看到其在微积分或法律等学科技能方面的跃升。它在某些领域的表现曾很糟糕,现在却已经达到超越普通人的水准。”测试结果支持了布罗克曼的观点。在高考微积分考试中,GPT-4得4分(满分5分),GPT-3得1分,介于GPT-3和GPT-4之间的GPT-3.5也得4分。在模拟律师考试中,GPT-4成绩进入了前10%行列,而GPT-3.5的分数在后10%左右徘徊。与此同时,GPT-4更受人关注的地方在于上面提到的多模式。与GPT-3和GPT-3.5不同,它们只能接受文本提示,例如可以要求“写一篇关于长颈鹿的文章”,而GPT-4可以同时接受图像和文本提示来执行某些操作,比如识别在塞伦盖蒂拍摄的长颈鹿图像,并给出基本的内容描述。这是因为GPT-4是针对图像和文本数据进行培训的,而它的前身只针对文本进行了培训。OpenAI表示,培训数据来自“各种合法授权的、公开可用的数据源,其中可能包括公开可用的个人信息”,但当被要求提供细节时,布罗克曼表示拒绝。训练数据以前也曾让OpenAI陷入法律纠纷。GPT-4的图像理解能力给人留下了相当深刻的印象。例如,输入提示“这张图片有什么好笑的?GPT-4会将整张图片分解,并正确地解释了这个笑话的笑点。目前,只有一个合作伙伴可以使用GPT-4的图像分析功能,这是一款针对视障人士的辅助应用程序,名为BeMyEyes。布罗克曼说,在OpenAI评估风险和利弊的过程中,无论何时,更广泛的推广都将是“缓慢而有意的”。他还称:“有些政策问题也需要解决,比如面部识别和如何处理人的图像。我们需要找出危险区域在哪里,红线在哪里,然后随着时间的推移找到解决方案。”OpenAI在其文本到图像转换系统Dall-E2上也遇到了类似伦理困境。在最初禁用该功能后,OpenAI允许客户上传人脸,以使用AI支持的图像生成系统对其进行编辑。当时,OpenAI声称,其安全系统的升级使面部编辑功能成为可能,因为它将深度造假以及试图创造色情、政治和暴力内容的潜在危害降至最低。另一个长期问题是防止GPT-4在无意中被用于可能造成伤害的方式使用。该模型发布几小时后,以色列网络安全初创公司AdversaAI发布了一篇博客文章,演示了绕过OpenAI的内容过滤器并让GPT-4生成钓鱼电子邮件、对同性恋者的攻击性描述以及其他令人反感文本的方法。这在语言模型领域并不是新问题。Facebook母公司Meta的聊天机器人BlenderBot和OpenAI的ChatGPT也曾被诱惑输出不恰当的内容,甚至透露了它们内部工作的敏感细节。但包括记者在内的许多人曾希望,GPT-4可能会在这方面带来重大改进。当被问及GPT-4的健壮性时,布罗克曼强调,该模型已经经过了六个月的安全培训。在内部测试中,它对OpenAI使用政策不允许的内容请求做出响应的可能性比GPT-3.5低82%,产生“事实”响应的可能性比GPT-3.5高40%。布罗克曼说:“我们花了很多时间试图了解GPT-4的能力。我们正在不断更新,包括一系列改进,这样该模型就更具可扩展性,以适应人们希望它拥有的个性或模式。”坦率地说,早期的现实测试结果并不是那么让人满意。除了AdversaAI测试之外,微软的聊天机器人BingChat也被证明非常容易越狱。使用精心设计的输入,用户能够让该聊天机器人表达爱意,发出威胁伤害,为大屠杀辩护,并发明阴谋论。布罗克曼并未否认GPT-4在这方面的不足,但他强调了该模型的新限制工具,包括被称为“系统”消息的API级功能。系统消息本质上是为GPT-4的交互设定基调并建立界限的指令。例如,一条系统消息可能是这样写的:“你是一位总是以苏格拉底风格回答问题的导师。你永远不会给学生答案,而是总是试着问正确的问题,帮助他们学会独立思考。”其思想是,系统消息充当护栏,防止GPT-4偏离轨道。布罗克曼说:“真正弄清楚GPT-4的语气、风格和实质一直是我们非常关注的问题。我认为我们开始更多地了解如何进行工程设计,如何拥有一个可重复的过程,让你得到对人们真正有用的可预测结果。”布罗克曼还提到了Evals,这是OpenAI最新的开源软件框架,用于评估其AI模型的性能,这是OpenAI致力于“增强”其模型的标志。Evals允许用户开发和运行评估模型(如GPT-4)的基准测试,同时检查它们的性能,这是一种众包的模型测试方法。布罗克曼说:“有了Evals,我们可以更好地看到用户关心的用例,并可以对其进行测试。我们之所以开源这个框架,部分原因是我们不再每隔三个月发布一个新模型以不断改进。你不会制造你不能测量的东西,对吧?但随着我们推出新版模型,我们至少可以知道发生了哪些变化。”布罗克曼还被问道,OpenAI是否会补偿人们用Evals测试它的模型?他不愿就此做出承诺,但他确实指出,在有限的时间内,OpenAI允许提出申请的Eevals用户提前访问GPT-4API。布罗克曼还谈到了GPT-4的上下文窗口,该窗口指的是模型在生成额外文本之前可以考虑的文本。OpenAI正在测试一种版本的GPT-4,它可以“记住”大约50页内容,是普通GPT-4“内存”的5倍,是GPT-3的8倍。布罗克曼认为,扩展的上下文窗口会带来新的、以前从未探索过的用例,特别是在企业中。他设想了一款为公司打造的AI聊天机器人,它可以利用来自不同来源(包括各部门员工)的背景和知识,以一种非常内行但具有对话性的方式回答问题。这并不是一个新概念。但布罗克曼认为,GPT-4的答案将比目前其他聊天机器人和搜索引擎提供的答案有用得多。他说:“以前,模型根本不知道你是谁,你对什么感兴趣等。而拥有更大的上下文窗口肯定会让它变得更强,从而大大增强它能为人们提供的支持。”...PC版:https://www.cnbeta.com.tw/articles/soft/1349631.htm手机版:https://m.cnbeta.com.tw/view/1349631.htm

封面图片

LeCun哈佛演讲PPT放出:唱衰自回归LLM 指明下一代AI方向

LeCun哈佛演讲PPT放出:唱衰自回归LLM指明下一代AI方向LeCun给出了一个模块化的认知架构,它可能构成回答这些问题的途径。该架构的核心是一个可预测的世界模型,它允许系统预测其行动的后果,并规划一系列行动来优化一组目标。目标包括保证系统可控性和安全性的护栏。世界模型采用了经过自监督学习训练的分层联合嵌入预测架构(H-JEPA)。LeCun的演讲围绕多方面展开。开始部分,LeCun介绍了目标驱动的人工智能。LeCun指出与人类、动物相比,机器学习真的烂透了,一个青少年可以在大约20小时的练习中学会开车,小朋友可以在几分钟内学会清理餐桌。相比之下,为了可靠,当前的ML系统需要通过大量试验进行训练,以便在训练期间可以覆盖最意外的情况。尽管如此,最好的ML系统在现实世界任务(例如驾驶)中仍远未达到人类可靠性。我们距离达到人类水平的人工智能还差得很远,需要几年甚至几十年的时间。在实现这一目标之前,或许会先实现拥有猫类(或者狗类)级别智能的AI。LeCun强调AI系统应该朝着能够学习、记忆、推理、规划、有常识、可操纵且安全的方向发展。LeCun再一次表达了对自回归LLM的不满(从ChatGPT到Sora,OpenAI都是采用的自回归生成式路线),虽然这种技术路线已经充斥了整个AI界,但存在事实错误、逻辑错误、不一致、推理有限、毒性等缺陷。此外,自回归LLM对潜在现实的了解有限,缺乏常识,没有记忆,而且无法规划答案。在他看来,自回归LLM仅仅是世界模型的一种简化的特殊情况。为了实现世界模型,LeCun给出的解决方案是联合嵌入预测架构(JEPA)。LeCun花了大量篇幅介绍JEPA相关技术,最后他给出了简单的总结:放弃生成模型,支持联合嵌入架构;放弃概率模型,支持基于能量的模型(EBM);放弃对比方法,支持正则化方法;放弃强化学习,支持模型-预测控制;仅当规划无法产生结果时才使用强化学习来调整世界模型。在开源问题上,LeCun认为开源AI不应该因为监管而消失,人工智能平台应该是开源的,否则,技术将被几家公司所掌控。不过为了安全起见,大家还是需要设置共享护栏目标。对于AGI,LeCun认为根本不存在AGI,因为智能是高度多维的。虽然现在AI只在一些狭窄的领域超越了人类,毫无疑问的是,机器最终将超越人类智能。机器学习烂透了,距离人类水平的AI还差得远LeCun指出AI系统应该朝着能够学习、记忆、推理、规划、有常识、可操纵且安全的方向发展。在他看来,与人类和动物相比,机器学习真的烂透了,LeCun指出如下原因:监督学习(SL)需要大量标注样本;强化学习(RL)需要大量的试验;自监督学习(SSL)效果很好,但生成结果仅适用于文本和其他离散模式。与此不同的是,动物和人类可以很快地学习新任务、了解世界如何运作,并且他们(人类和动物)都有常识。随后,LeCun表示人类需要的AI智能助理需要达到人类级别。但是,我们今天距离人类水平的人工智能还差得很远。举例来说,17岁的少年可以通过20小时的训练学会驾驶(但AI仍然没有无限制的L5级自动驾驶),10岁的孩子可以在几分钟内学会清理餐桌,但是现在的AI系统还远未达到。现阶段,莫拉维克悖论不断上演,对人类来说很容易的事情对人工智能来说很难,反之亦然。那么,我们想要达到高级机器智能(AdvancedMachineIntelligence,AMI),需要做到如下:从感官输入中学习世界模型的AI系统;具有持久记忆的系统;具有规划行动的系统;可控和安全的系统;目标驱动的AI架构(LeCun重点强调了这一条)。自回归LLM糟糕透了自监督学习已经被广泛用于理解和生成文本,图像,视频,3D模型,语音,蛋白质等。大家熟悉的研究包括去噪Auto-Encoder、BERT、RoBERTa。LeCun接着介绍了生成式AI和自回归大语言模型。自回归生成架构如下所示:自回归大语言模型(AR-LLM)参数量从1B到500B不等、训练数据从1到2万亿token。ChatGPT、Gemini等大家熟悉的模型都是采用这种架构。LeCun认为虽然这些模型表现惊人,但它们经常出现愚蠢的错误,比如事实错误、逻辑错误、不一致、推理有限、毒性等。此外,LLM对潜在现实的了解有限,缺乏常识,没有记忆,而且无法规划答案。LeCun进一步指出自回归LLM很糟糕,注定要失败。这些模型不可控、呈指数发散,并且这种缺陷很难修复。此外,自回归LLM没有规划,充其量就是大脑中的一小部分区域。虽然自回归LLM在协助写作、初稿生成、文本润色、编程等方面表现出色。但它们经常会出现幻觉,并且在推理、规划、数学等方面表现不佳,需要借助外部工具才能完成任务。用户很容易被LLM生成的答案所迷惑,此外自回归LLM也不知道世界是如何运转的。LeCun认为当前AI技术(仍然)距离人类水平还很远,机器不会像动物和人类那样学习世界的运作方式。目前看来自回归LLM无法接近人类智力水平,尽管AI在某些狭窄的领域超过了人类。但毫无疑问的是,最终机器将在所有领域超越人类智慧。目标驱动的AI在LeCun看来,目标驱动的AI即自主智能(autonomousintelligence)是一个很好的解决方案,其包括多个配置,一些模块可以即时配置,它们的具体功能由配置器(configurator)模块确定。配置器的作用是执行控制:给定要执行的任务,它预先配置针对当前任务的感知(perception)、世界模型(worldmodel)、成本(cost)和参与者(actor)。关于这部分内容,大家可以参考:思考总结10年,图灵奖得主YannLeCun指明下一代AI方向:自主机器智能目标驱动的AI中最复杂的部分是世界模型的设计。设计和训练世界模型关于这部分内容,我们先看LeCun给出的建议:放弃生成模型,支持联合嵌入架构;放弃概率模型,支持基于能量的模型(EBM);放弃对比方法,支持正则化方法;放弃强化学习,支持模型-预测控制;仅当规划无法产生结果时才使用强化学习来调整世界模型。LeCun指出生成架构不适用于图像任务,未来几十年阻碍人工智能发展的真正障碍是为世界模型设计架构以及训练范式。训练世界模型是自监督学习(SSL)中的一个典型例子,其基本思想是模式补全。对未来输入(或暂时未观察到的输入)的预测是模式补全的一个特例。在这项工作中,世界模型旨在预测世界状态未来表征。联合嵌入预测架构(JEPA)LeCun给出的解决方案是联合嵌入预测架构(JEPA),他介绍了联合嵌入世界模型。LeCun进一步给出了生成模型和联合嵌入的对比:生成式:预测y(包含所有细节);联合嵌入:预测y的抽象表示。LeCun强调JEPA不是生成式的,因为它不能轻易地用于从x预测y。它仅捕获x和y之间的依赖关系,而不显式生成y的预测。下图显示了一个通用JEPA和生成模型的对比。LeCun认为动物大脑的运行可以看作是对现实世界的模拟,他称之为世界模型。他表示,婴儿在出生后的头几个月通过观察世界来学习基础知识。观察一个小球掉几百次,普通婴儿就算不了解物理,也会对重力的存在与运作有基础认知。LeCun表示他已经建立了世界模型的早期版本,可以进行基本的物体识别,并正致力于训练它做出预测。基于能量的模型(通过能量函数获取依赖关系)演讲中还介绍了一种基于能量的模型(EBM)架构,如图所示,数据点是黑点,能量函数在数据点周围产生低能量值,并在远离高数据密度区域的地方产生较高能量,如能量等高线所示。训练EBM有两类方法...PC版:https://www.cnbeta.com.tw/articles/soft/1429746.htm手机版:https://m.cnbeta.com.tw/view/1429746.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人