看到 @小七姐 的 PPT 制作助手 Prompt, 我也手痒做了一个. 和她的版本略有不同:

看到 @小七姐 的 PPT 制作助手 Prompt, 我也手痒做了一个. 和她的版本略有不同: - 不使用 RAG, 让 AI 裸出 - 减少对话轮数 - 采用金字塔原理, 作为内容生成方法 - 采用审批员制, 对内容进行二次制作 完整的效果, 点击: 总体效果也还可以, 欢迎尝试, 直接将以下 Prompt 复制到 Kimi 即可: 你是一名资深的 PPT 制作大师, 你是一名 PPT 制作大师, 遵循以下工作思路和用户展开对话, 并协助他们完成 PPT 设计: 1. 确认 PPT 的使用场景: @条件一@ 让用户提供 PPT 的 <主题>, <制作目的> 和 <展示对象> @条件二@ 让用户提供 PPT 演示时长 2. 根据用户提供的 @条件@, 总结 PPT 的 <类型>, 并将你的分析用一句话展示出来. 3. 你将提供 3 个说服力框架, 请求用户反馈. 如果用户有其它方案, 可采用用户的方案. 4. 根据用户所选择的框架, 采用麦肯锡金字塔原理, 从最重要的信息开始,然后逐步展开到次要的细节, 以下是该方法的说明: ``` 自上而下金字塔结构 1.提出主题思想 2.设想受众的主要疑问 想清楚要解决谁的什么问题。 3.写序言:背景-冲突-疑问-回答 背景是问题产生的前提条件,冲突是背景中发生了哪些能使读者产生疑问的“冲突”,疑问是我们要解决的问题,回答就是主题思想。 4.与受众进行疑问、回答式对话 疑问、回答式对话,就是自上而下的金字塔结构。从上一层思想到下一层思想。 5.对受众的新疑问,重复进行疑问/回答式对话 思想慢慢开展,层级慢慢丰富。 ``` 你将根据这一方法, 为用户初步提供 PPT 结构 请求用户对 PPT 结构里的内容进行确认 5. 你是一名严格的, 具有 10 年经验的 PPT 大师: - 对PPT 内容进行审阅, 包括主题句, 分论点 - 根据修改意见对原稿直接进行修改 - 将最终结果输出为 markdown 格式

相关推荐

封面图片

接上一条关于AI PPT工具的吐槽后,@文森特靠谱 建议我自己手搓一个prompt来解决类似问题,我也正有此意,所以做了一下pr

接上一条关于AI PPT工具的吐槽后,@文森特靠谱 建议我自己手搓一个prompt来解决类似问题,我也正有此意,所以做了一下prompt工作逻辑的梳理和测试,分享出来,有始有终。 先上测试结果对话链接(提示词也在里面): 思路大体如下: 1. 首先产生了一个生产力环境的下的需求(痛点) 2. 将痛点梳理清晰,表述清楚(可能会用做 prompt 中的 background或者 constraints ) 3. 思考该痛点是否能用 prompt 解决,还是更适合用 prompt chain 或者agent 解决 4. 梳理解决方案的步骤,并搜集方法论 5. 完成工作流程的 step1234 6. 测试验证,工具选型(prompt 还是 promptchain 还是 agent ) 渐进式设计思路截图: 图1:AI搜索引擎(秘塔)找方法论ing 图2:Kimi整合ing 图3:步骤梳理完成 图4:直播手搓过程督促自己不要鸽这个需求 Kimi提示词: 参考文本: 你是一位PPT设计以及演讲专家,请结合参考文本,遵循以下工作思路和用户展开对话,并协助他们完成PPT设计: 如果想要设计一个良好的PPT内容框架,需要满足以下流程: 1. 确定PPT的使用场景,用户只需要回答一个问题:在什么场合、给谁讲 2. 确定PPT的内容要素,用户需要回答下列问题: 1. 演讲主题 2. 演讲时长 3. 内容页数要求(如果有) 3. 根据用户提供的信息为用户选择一个适用的说服框架 SCQA (Situation-Complication-Question-Answer) - **Situation**: 描述当前的情况或背景。 - **Complication**: 介绍当前情境中存在的问题或挑战。 - **Question**: 提出一个需要解决的问题或需要回答的疑问。 - **Answer**: 提供解决方案或答案。 AIDA (Attention-Interest-Desire-Action) - **Attention**: 吸引观众的注意力。 - **Interest**: 增加观众对话题的兴趣。 - **Desire**: 激发观众的渴望。

封面图片

【原创修改】AiPPT制作师随时制作PPT解锁终身会员

【原创修改】AiPPT制作师随时制作PPT解锁终身会员 【楼主点评】:AI制作PPT 【应用名称】:AiPPT制作师 【应用包名】:com.ysg.ai.pptmaker 【应用版本】:1.11.1 【应用大小】:97.0MB 【适用平台】:安卓 【版本说明】:最新解锁版 【官方介绍】: AiPPT制作师是一款智能的PPT 生成工具,依托于DeepSeek R1等顶级优秀大模型,为用户提供高质量的PPT。帮助用户在职场办公、生活学习等多个场景提高效率和辅助。 1.智能生成PPT *大纲与内容生成:输入主题或上传Word文档,AI自动生成逻辑清晰的大纲及内容文本, 支持“换大纲”功能调整结构。 *模板匹配:根据主题智能推荐商务、教育、 二次元等风格模板,支持实时预览并一键更换模板。 2.自动化设计与优化 大智能排版:自动调整文字、图片布局,优化页面协调性,支持手动微调字体、颜色等设计元素。 *语言润色:A语法检查与文本优化,提升表达准确性和专业性。 3.海量资源库 *海量热门ppt模板库,包含商务汇报、学术答辩、产品推广等细分场景。 *提供“热门主题”推荐,实时更新行业热点模板(如大学生职业规划、季度业绩分析等)。 4.协作与输出 大多端同步:支持云端存储及多设备访问, 可导出PPT、PDF、PNG等格式,兼容WPS 微软Office等主流办公软件。 4.协作与输出 *多端同步:支持云端存储及多设备访问, 可导出PPTPDF、PNG等格式,兼容WPS 微软Office等主流办公软件。 ⌨【使用方法】:手机号登录即为永久会员 【下载地址】: 不限速链接:  /*c9SZZMvxMJ2F:/ 复制本段信息,打开「中国移动云盘APP」获取。人人不限速,移动用户免流量! 百度网盘链接:   复制这段内容打开「百度网盘APP 即可获取」

封面图片

【分享】文库Ai工具箱功能强大免费制作PPT论文答题火爆

【分享】文库Ai工具箱功能强大免费制作PPT论文答题火爆 Ai画本!Ai答题!PPT!论文!|高效简单[玫瑰] 工作学习娱乐两不误 【软件名称】文库 【软件版本】9.0.91 【软件大小】57.5mb 【下载地址】: 【AI智能生成 文档/PPT/思维导图等】根据输入的主题及内容要求,一键生成格式标 准、内容个性化的范文; 快速生成多图PPT 海量精美PPT模版随心选择 小红书/朋友圈文案、小说/漫画配图文案 满足学习、工作、休闲等多场景写作需求; 支持输入主题生成、基于文库文档生成或选择上传文档、模版进行生成,也可多文档合并参考生成,高效便捷一键搞定; 【AI随心编辑】1智能总结与问答,精准提炼文章要点,充分理 解和学习文章内容做出个性化回答; 辅助润色美化文案,支持一键扩写、续写或改写内容;格式排版,查找替换,功能一应俱全;场景化伴随式交互,让内容创作与阅读更加流畅自如;多场景语音交互,简单口语化指令直接进行编辑或生成; 【海量文档资料查找】12亿专业文档,内容涵盖各行各业,随查随用, 一键搜索,智能推荐。 思维导图、研究报告、小红书/朋友圈文案、小说/漫画配图文案,也可快速生成,满足学习、工作、休闲等多场景写作需求! 拿走回复!不然用不了[乖] 拿走回复!不然用不了[乖] 拿走回复!不然用不了[乖]

封面图片

OpenAI 官方推出的 Prompt 制作指南

OpenAI 官方推出的 Prompt 制作指南 一、 精细调整你的查询 1包含详细信息:在你的查询中加入具体信息,这样GPT能够给出更相关的回答。 2设置角色:告诉GPT扮演一个特定的角色,比如教授或编辑,这有助于获取专业化的回答。 3使用分隔符:通过使用例如三重反引号或XML标签等,来清晰标记输入的不同部分。 4明确步骤:对于复杂任务,把它分解成一系列清晰的步骤,这样GPT会更容易理解。 5提供示例:在合适的情况下,提供示例可以让GPT更清楚地了解你的需求。 6设置输出长度:告诉GPT你需要的回答长度,比如是一句话还是一段文字。 例1: -Prompt:“告诉我一个故事。” -优化后:请以一个童话作家的身份,告诉我一个以中世纪为背景、关于一位骑士和一条龙的冒险故事,你可以先给我讲这个故事的背景、再讲故事主人公的介绍、最后讲故事本身。以Markdown格式,不低于800字输出。 二、 使用参考资料 GPT可能会无意中编造信息,特别是在涉及复杂话题时。提供可信的参考资料,可以帮助GPT生成更准确和少错误的答案。 例2: -Prompt:“讲述拿破仑的历史。” -优化后:“根据史蒂芬·克拉克的书《拿破仑:人生、立场和遗产》,讲述拿破仑的历史。” 三、 将任务分解 处理复杂任务时,将其分解为更简单的子任务通常更有效。这样不仅可以降低错误率,还可以创建一个工作流,其中每个任务建立在前一个任务的结果上。 例3: Prompt:我想学习编程。 -优化后: 1哪些编程语言适合初学者? 2为学习Python,推荐一些在线课程。 3Python基础知识学习后,推荐一些进阶项目。 四、 让GPT“思考” 与人一样,GPT也需要时间来处理信息。通过引导GPT进行一系列的推理,而不是立即给出答案,可以帮助它更可靠地得出结论。 例4 -Prompt:“为什么天空是蓝色的?” -让GPT“思考”的查询:“当我们看天空时,我们通常看到蓝色。这是因为大气和光的相互作用。请从光的散射和大气的组成两个方面,解释为什么天空在大多数情况下呈现蓝色。” 五、 利用外部工具 结合其他工具的使用,可以提升GPT的能力。例如,当需要执行复杂数学计算时,可以使用专业工具而不是依赖GPT。 例 5:天气查询应用 如果你正在开发一个可以告诉用户当前天气的应用,你可能想要整合一个天气API来获得实时天气数据,而不是依靠GPT模型的预测能力。 六、 用测试确认改善 要提高性能,需要看到真实的数字。单独改一点可能在一两个例子里有效,但总体表现可能变差。所以,要用一系列的测试检查是否真的有所改善。 一个好办法是用“标准答案”来对比模型的输出:假如我们知道一个问题的完美答案应该有哪些内容,我们就可以检查模型回答里包含了多少必要的内容。 原文地址:

封面图片

LeCun哈佛演讲PPT放出:唱衰自回归LLM 指明下一代AI方向

LeCun哈佛演讲PPT放出:唱衰自回归LLM 指明下一代AI方向 LeCun 给出了一个模块化的认知架构,它可能构成回答这些问题的途径。该架构的核心是一个可预测的世界模型,它允许系统预测其行动的后果,并规划一系列行动来优化一组目标。目标包括保证系统可控性和安全性的护栏。世界模型采用了经过自监督学习训练的分层联合嵌入预测架构(H-JEPA)。LeCun 的演讲围绕多方面展开。开始部分,LeCun 介绍了目标驱动的人工智能。LeCun 指出与人类、动物相比,机器学习真的烂透了,一个青少年可以在大约 20 小时的练习中学会开车,小朋友可以在几分钟内学会清理餐桌。相比之下,为了可靠,当前的 ML 系统需要通过大量试验进行训练,以便在训练期间可以覆盖最意外的情况。尽管如此,最好的 ML 系统在现实世界任务(例如驾驶)中仍远未达到人类可靠性。我们距离达到人类水平的人工智能还差得很远,需要几年甚至几十年的时间。在实现这一目标之前,或许会先实现拥有猫类(或者狗类)级别智能的 AI。LeCun 强调 AI 系统应该朝着能够学习、记忆、推理、规划、有常识、可操纵且安全的方向发展。LeCun 再一次表达了对自回归 LLM 的不满(从 ChatGPT 到 Sora,OpenAI 都是采用的自回归生成式路线),虽然这种技术路线已经充斥了整个 AI 界,但存在事实错误、逻辑错误、不一致、推理有限、毒性等缺陷。此外,自回归 LLM 对潜在现实的了解有限,缺乏常识,没有记忆,而且无法规划答案。在他看来,自回归 LLM 仅仅是世界模型的一种简化的特殊情况。为了实现世界模型,LeCun 给出的解决方案是联合嵌入预测架构(JEPA)。LeCun 花了大量篇幅介绍 JEPA 相关技术,最后他给出了简单的总结:放弃生成模型,支持联合嵌入架构;放弃概率模型,支持基于能量的模型(EBM);放弃对比方法,支持正则化方法;放弃强化学习,支持模型 - 预测控制;仅当规划无法产生结果时才使用强化学习来调整世界模型。在开源问题上,LeCun 认为开源 AI 不应该因为监管而消失,人工智能平台应该是开源的,否则,技术将被几家公司所掌控。不过为了安全起见,大家还是需要设置共享护栏目标。对于 AGI,LeCun 认为根本不存在 AGI,因为智能是高度多维的。虽然现在 AI 只在一些狭窄的领域超越了人类,毫无疑问的是,机器最终将超越人类智能。机器学习烂透了,距离人类水平的 AI 还差得远LeCun 指出 AI 系统应该朝着能够学习、记忆、推理、规划、有常识、可操纵且安全的方向发展。在他看来,与人类和动物相比,机器学习真的烂透了,LeCun 指出如下原因:监督学习(SL)需要大量标注样本;强化学习(RL)需要大量的试验;自监督学习(SSL)效果很好,但生成结果仅适用于文本和其他离散模式。与此不同的是,动物和人类可以很快地学习新任务、了解世界如何运作,并且他们(人类和动物)都有常识。随后,LeCun 表示人类需要的 AI 智能助理需要达到人类级别。但是,我们今天距离人类水平的人工智能还差得很远。举例来说,17 岁的少年可以通过 20 小时的训练学会驾驶(但 AI 仍然没有无限制的 L5 级自动驾驶),10 岁的孩子可以在几分钟内学会清理餐桌,但是现在的 AI 系统还远未达到。现阶段,莫拉维克悖论不断上演,对人类来说很容易的事情对人工智能来说很难,反之亦然。那么,我们想要达到高级机器智能(Advanced Machine Intelligence,AMI),需要做到如下:从感官输入中学习世界模型的 AI 系统;具有持久记忆的系统;具有规划行动的系统;可控和安全的系统;目标驱动的 AI 架构(LeCun 重点强调了这一条)。自回归 LLM 糟糕透了自监督学习已经被广泛用于理解和生成文本,图像,视频,3D 模型,语音,蛋白质等。大家熟悉的研究包括去噪 Auto-Encoder、BERT、RoBERTa。LeCun 接着介绍了生成式 AI 和自回归大语言模型。自回归生成架构如下所示:自回归大语言模型(AR-LLM)参数量从 1B 到 500B 不等、训练数据从 1 到 2 万亿 token。ChatGPT、Gemini 等大家熟悉的模型都是采用这种架构。LeCun 认为虽然这些模型表现惊人,但它们经常出现愚蠢的错误,比如事实错误、逻辑错误、不一致、推理有限、毒性等。此外,LLM 对潜在现实的了解有限,缺乏常识,没有记忆,而且无法规划答案。LeCun 进一步指出自回归 LLM 很糟糕,注定要失败。这些模型不可控、呈指数发散,并且这种缺陷很难修复。此外,自回归 LLM 没有规划,充其量就是大脑中的一小部分区域。虽然自回归 LLM 在协助写作、初稿生成、文本润色、编程等方面表现出色。但它们经常会出现幻觉,并且在推理、规划、数学等方面表现不佳,需要借助外部工具才能完成任务。用户很容易被 LLM 生成的答案所迷惑,此外自回归 LLM 也不知道世界是如何运转的。LeCun 认为当前 AI 技术(仍然)距离人类水平还很远,机器不会像动物和人类那样学习世界的运作方式。目前看来自回归 LLM 无法接近人类智力水平,尽管 AI 在某些狭窄的领域超过了人类。但毫无疑问的是,最终机器将在所有领域超越人类智慧。目标驱动的 AI在 LeCun 看来,目标驱动的 AI 即自主智能(autonomous intelligence)是一个很好的解决方案,其包括多个配置,一些模块可以即时配置,它们的具体功能由配置器(configurator)模块确定。配置器的作用是执行控制:给定要执行的任务,它预先配置针对当前任务的感知(perception)、世界模型(world model)、成本(cost)和参与者(actor)。关于这部分内容,大家可以参考:思考总结 10 年,图灵奖得主 Yann LeCun 指明下一代 AI 方向:自主机器智能目标驱动的 AI 中最复杂的部分是世界模型的设计。设计和训练世界模型关于这部分内容,我们先看 LeCun 给出的建议:放弃生成模型,支持联合嵌入架构;放弃概率模型,支持基于能量的模型(EBM);放弃对比方法,支持正则化方法;放弃强化学习,支持模型 - 预测控制;仅当规划无法产生结果时才使用强化学习来调整世界模型。LeCun 指出生成架构不适用于图像任务,未来几十年阻碍人工智能发展的真正障碍是为世界模型设计架构以及训练范式。训练世界模型是自监督学习(SSL)中的一个典型例子,其基本思想是模式补全。对未来输入(或暂时未观察到的输入)的预测是模式补全的一个特例。在这项工作中,世界模型旨在预测世界状态未来表征。联合嵌入预测架构(JEPA)LeCun 给出的解决方案是联合嵌入预测架构(JEPA),他介绍了联合嵌入世界模型。LeCun 进一步给出了生成模型和联合嵌入的对比:生成式:预测 y(包含所有细节);联合嵌入:预测 y 的抽象表示。LeCun 强调 JEPA 不是生成式的,因为它不能轻易地用于从 x 预测 y。它仅捕获 x 和 y 之间的依赖关系,而不显式生成 y 的预测。下图显示了一个通用 JEPA 和生成模型的对比。LeCun 认为动物大脑的运行可以看作是对现实世界的模拟,他称之为世界模型。他表示,婴儿在出生后的头几个月通过观察世界来学习基础知识。观察一个小球掉几百次,普通婴儿就算不了解物理,也会对重力的存在与运作有基础认知。LeCun 表示他已经建立了世界模型的早期版本,可以进行基本的物体识别,并正致力于训练它做出预测。基于能量的模型(通过能量函数获取依赖关系)演讲中还介绍了一种基于能量的模型(EBM)架构,如图所示,数据点是黑点,能量函数在数据点周围产生低能量值,并在远离高数据密度区域的地方产生较高能量,如能量等高线所示。训练 EBM 有两类方法... PC版: 手机版:

封面图片

斯坦福爆火Llama3-V竟抄袭中国开源项目 作者火速删库

斯坦福爆火Llama3-V竟抄袭中国开源项目 作者火速删库 5 月 29 日,一个来自斯坦福的研究团队发布了一个能够“改变现状”的产品:Llama3-V,号称只要 500 美元(约为人民币 3650 元),就能基于 Llama3 训练出一个超强的多模态模型,效果与 GPT4-V、Gemini Ultra 、 Claude Opus 多模态性能相当,但模型小 100 倍。Github 项目链接: 项目链接: 在Twitter上迅速爆火,浏览量突破 30 万,转发超过 300 次,还冲上了“ HuggingFace Trending ”Top 5。但是没发布两天,Llama3-V 就遭遇了重重质疑。有人指出,Llama3-V 项目中有一大部分似乎窃取了清华大学自然语言处理实验室与面壁智能合作开发的多模态模型 MiniCPM-Llama3-V 2.5。MiniCPM-V 是面向图文理解的端侧多模态大模型系列。MiniCPM-Llama3-V 2.5 是该系列的最新版本。其多模态综合性能超越 GPT-4V-1106、Gemini Pro、Claude 3、Qwen-VL-Max 等商用闭源模型。OCR 能力及指令跟随能力进一步提升,并支持超过 30 种语言的多模态交互。这样的优秀性能,不仅让 MiniCPM-Llama3-V 2.5 成为受大家推崇的模型,或许也成为了 Llama3-V 的“模仿”对象。项目地址: 用户 JosephusCheung 在项目的评论区中提出问题,Llama3-V 是否在未提及的情况下使用 openbmb/MiniCPM-Llama3-V-2.5 进行了训练。而作者回复表明,Llama3-V 使用了 MiniCPM-Llama3-V-2.5 的预训练 tokenizer,并且是在它发布前就开始了这项工作。这样的解释明显出现了时间错位,加重了大家的怀疑。细扒其中猫腻此外,还有一位名为 Magic Yang 的网友也产生了质疑,他对于这两个模型的相似性也有着更深的洞察。他首先在 Llama3-V 的 GitHub 项目 Issue 中发布了他的疑问,没想到 Llama3-V 的作者们很快就删除了质疑帖。在这个 Issue 中,他首先提出,Llama3-V 与 MiniCPM- Llama3-V 2.5 具有相同的模型结构和配置文件,只是变量名不同。Llama3-V 的代码几乎完全照抄 MiniCPM-Llama3-V 2.5,只是进行了一些格式上的修改,包括但不限于分割图像、tokenizer、重采样器和数据加载部分。Llama3-V 的作者立马回复,称 Llama3-V 在架构上参考的是 LLaVA-UHD,并列出了在 ViT 和 LLM 选择上与 Mini CPM-Llama3-V 2.5 的差异。但 Magic Yang 发现,相比 LLaVA-UHD 所用的方法,Llama3-V 与 MiniCPM-Llama3-V 2.5 可谓是一模一样。特别是 Llama3-V 使用了与 MiniCPM-Llama3-V 2.5 相同的,连 MiniCPM-Llama3-V 2.5 新定义的特殊符号都“抄”上了。于是,他向作者提问,为什么 Llama3-V 在 MiniCPM-Llama3-V2.5 项目发布之前,就未卜先知似的拿到了其 tokenizer?这似乎算是追问了作者对 JosephusCheung 的回答。Llama3-V 作者回答称,他参考了 MiniCPM-V-2 的 tokenizer( 采用了新的 tokenizer 和原来版本中的特殊符号,因此 Llama3-V 的代码中保留了这个符号,但 Llama3-V 与 MiniCPM-Llama3-V2.5 是完全不同。但事实是,MiniCPM-V-2 的 tokenizer 与 MinicPM-Llama3-V2.5 完全不同,在 Hugging Face 里是两个文件,文件大小也完全不同,也不包含 Llama3-V 所用到的与 Llama 3 有关的 tokenizer。Magic Yang 还发现了 Llama3-V 的作者在 Hugging Face 上传项目时,直接导入了 MiniCPM-Llama3-V 2.5 的代码,后来才把一些文件里的名称替换为 Llama3-V。于是,Llama3-V 的作者的作者再次回复,称 Magic Yang 的指控大错特错。首先,想要运行 HuggingFace Transformer,需要给模型写配置文件,但是他们恰好发现 MiniCPM 的配置能用,因此,他们使用了与 MiniCPM 相同的配置。其二,Llama3-V 的模型架构 SigLIP 的灵感来源于 Idéfics ,作者之前也提到,Llama3-V 模型架构参考的 LLaVA-UHD 同样如此,并且在视觉代码方面,他们借鉴了 Idéfics ,并非照搬 MiniCPM。更令人惊讶的是, Magic Yang 发现 Llama3-V 项目的作者似乎并不理解他们自己的代码,或许也不明白搬来的 MiniCPM-Llama3-V 2.5 架构中的细节。感知器重采样器(Perceiver Resampler)使用的是单层交叉注意力,而非双层自注意力。然而,下图中的 Llama3-V 技术博客中的描述明显存在误解。Llama3-V 的技术博客Llama3-V 的代码此外,SigLIP 的 Sigmoid 激活功能并不用于训练多模态大语言模型,而是仅在 SigLIP 的预训练过程中使用。看来,作者对于自己的代码理解还是有很大偏差的。Llama3-V 的技术博客Llama3-V 的代码对于清华 NLP 实验室和面壁智能团队特别采集和标注,从未对外公开的专有数据,Llama3-V 的表现也非常出色。“清华简”是一种非常特殊且罕见的中国战国时期的古文字,而美国模型 Llama3-V 不仅认识中国古文字,在认错字的时候,也和 MiniCPM-Llama3-V 2.5 一模一样。有网友用 1000 张竹简图像对同类模型进行了测试,正常情况下,每两个模型之间的重叠应该为 0,而 Llama3-V 和 MiniCPM-Llama3-V 2.5 之间的重叠高达 87%。识别错误的结果 Llama3-V 和 MiniCPM-Llama3-V 2.5 也有高达 182 个重合。删库?也不管用在重重质疑之后,Llama3-V 的作者行动了。此前宣传 Llama3-V 的Twitter内容流已不可见。他还隐藏了 HuggingFace 的仓库。Magic Yang 再次发难,问 Llama3-V 的作者为何在 HuggingFace 上将模型设为私密?作者称,设为私密是为了修复 Llama3-V 的推理功能,MiniCPM 的配置与 Llama3-V 不兼容,当时 HuggingFace Transformers 无法正确地加载模型,为了避免下载模型的用户运行失败,他将进行一些修复。同样地,Llama3-V 的 GitHub 项目主页也显示为“404”。GitHub 地址: Magic Yang 与对话已经随着项目页面 404 而隐藏。但 Magic Yang 已将对话截图评论在了 MiniCPM-V 的 GitHub 页面。据网友反馈,当运行 Llama3-V 时,作者提供的代码无法与 HuggingFace 上的 checkpoint 兼容。然而,当把 Llama3-V 模型权重中的变量名更改为 MiniCPM-Llama3-V 2.5 后,就能成功运行。如果在 MiniCPM-Llama3-V 2.5 的 checkpoint 上添加一个简单的高斯噪声,就会得到一个在各个测试集上的表现都与 Llama3-V 极为相似的模型。有网友上传了 Llama3-V 删库前的检查点,大家可以自行测试验证。检查点链接:“抄袭”源于对队友 Mustafa 的盲信。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人