大模型时代中文已死最近开发产品调prompt,无论怎么prompt ChatGPT说出来的都有一股“英文味”,逻辑、语序、用词都

大模型时代中文已死 最近开发产品调prompt,无论怎么prompt ChatGPT说出来的中文都有一股“英文味”,逻辑、语序、用词都是英语思维。 原以为中国的大模型肯定能说很地道的中文,但是我把文心、讯飞、GLM都测试了个遍,无不也透露着英式思维,没能体验到比ChatGPT说得更地道。 我一开始猜想是中文高质量语料稀少,训练数据中使用了大量的英文语料,今天跟行业内部训模型的人员聊完才知道事实比这个更离谱:训练数据中使用了大量的英译中文本、以及通过问ChatGPT得到的回答。 可想而知,在未来互联网上将越加充斥着大模型生成的内容,总有一天如今的中文会被洗刷成英式中文......

相关推荐

封面图片

面向开发者的 LLM 入门课程 | 这个库存放吴恩达大模型系列课程中文版,包括《Prompt Engineering》、《Bui

面向开发者的 LLM 入门课程 | 这个库存放吴恩达大模型系列课程中文版,包括《Prompt Engineering》、《Building System》和《LangChain》 。 《ChatGPT Prompt Engineering for Developers》、《Building Systems with the ChatGPT API》、《LangChain for LLM Application Development》等教程 作为由吴恩达与 OpenAI 联合推出的官方教程,在可预见的未来会成为 LLM 的重要入门教程,但是目前还只支持英文版且国内访问受限,打造中文版且国内流畅访问的教程具有重要意义;同时,GPT 对中文、英文具有不同的理解能力。本教程在多次对比、实验之后确定了效果大致相当的中文 Prompt,支持学习者研究如何提升 ChatGPT 在中文语境下的理解与生成能力。

封面图片

最近在尝试调用 ai 去完成一些复杂的组合任务 收集了一些 prompt 网站 分享一波:

最近在尝试调用 ai 去完成一些复杂的组合任务 收集了一些 prompt 网站 分享一波: GPT prompt: 1、ChatGPT 中文调教指南: (github: ) 2、一个插件,在 chatgpt 官网加载 prompt: (社区: 3、用 gpt 优化 prompt 工具: 4、prompt 模版(英文): 5、prompt 模版(中文): Stable Diffusion / Midjourney prompt 生成: 1、 2、 3、 4、 5、 Prompt Engineer 教程或使用技巧: 1、 2、 chatGPT替代品,可持续使用。 智能聊天、中英文写作学习、情感咨询、文章生成器、文案写作、美食专家,写周报、写论文等,模型还在不断增加中 web版 h5微信内打开

封面图片

科大讯飞董事长:今年10月将在通用模型上对标ChatGPT,实现中文超越英文相当

科大讯飞董事长:今年10月将在通用模型上对标ChatGPT,实现中文超越英文相当 第七届世界智能大会今日开幕,在创新发展高峰会上,科大讯飞董事长刘庆峰发表主题演讲。他表示,认知大模型成为通用人工智能的曙光。2022年12月15日科大讯飞启动1+N认知智能大模型专项攻关;今年5月6日正式推出了讯飞星火认知大模型。 刘庆峰在现场还公布了讯飞星火今年内的升级时间表:5月6日的版本国内领先,数学能力和中文文本生成已超ChatGPT;6月9日,将突破开放式问答,多轮对话能力再升级,数学能力再升级;8月15日,突破代码能力,多模态交互再升级;10月24日,通用模型对标ChatGPT,实现中文超越,英文相当。(新浪科技) 标签: #科大讯飞 #ChatGPT 频道: @GodlyNews1 投稿: @Godlynewsbot

封面图片

在使用 ChatGPT 或 Midjourney 时,经常要使用各种 Prompt(提示词)跟 AI 进行交互,于是有设计师做了

在使用 ChatGPT 或 Midjourney 时,经常要使用各种 Prompt(提示词)跟 AI 进行交互,于是有设计师做了一款Prompt编辑器。 该工具可以把 AIGC 提示词可视化,并提供在线编辑功能,主要包含以下特性: 显示英文提示词的中文翻译; 翻译输入的中文提示词到英文(因为 Midjourney 仅支持英文提示词); 为提示词进行分类(普通、样式、质量、命令); 轻松的排序、隐藏提示词; 把提示词可视化结果导出为图片; 常用提示词词典; 通过 Notion 管理提示词词典。 || #工具

封面图片

一个评估 prompt 清晰有效性的 prompt.

一个评估 prompt 清晰有效性的 prompt. 我们知道,写 prompt 的核心原则就是清晰明确地描述需要 AI 去完成的任务。具体的技巧都是围绕这个核心原则。 当我们要写一个 prompt 完成相对复杂一些的任务的时候,我们可能会竭尽所能地增加各种约束、规则、步骤、样例描述等等。但这里有一个问题,我们很难知道到底哪些限定词是真正影响输出结果的?它们到底有多大的影响? 另外,一个相对复杂的 prompt 发送给 AI 的时候,它是否能够完全理解? 所以,我想是不是可以通过一个 prompt 来让 AI 自己去理解 prompt 并让其对具体的 prompt 的清晰有效性进行评估。 目前,我的想法是让其通过阅读理解、分析逻辑、回忆上下文三个方面来对具体的 prompt 进行评估。 附图是我让它评估我写的雅思口语评估助手。 基于 GPT 3.5-turbo 模型测试下来,英文输出的评估结果更加详细和具体。所以我在 prompt 里设置了默认输出是英文。如果不想读英文,可以在评估结果出来之后,发送 “将上面的回复完整地翻译为地道的中文,不要遗漏任何信息。” 效果见图二。 从评估结果可以看到当前模型是如何理解我们的 prompt 的。 更进一步,在评估结果出来之后,我们让 AI 自己尝试优化我们的 prompt,发送 “基于以上评估和用户的,请修改出一个你认为更高效、更精简的版本。确保你的修改不遗漏原的任务目标。” 即可。效果见图三。 让 AI 修改 prompt 不是说直接用它修改的版本,而是参考它修改的点。如图三,它精简了我的 prompt 中的关于雅思口语考试详细的评估标准和高分答案标准。 我参考它的优化建议修改了我原来的 prompt,测试下来,输出结果和原来差不多。相当于在 prompt 里去掉了一些冗余信息,也省了点 tokens. Prompt 评估助手: (原版)雅思口语答案评估助手: (基于 Prompt 评估助手优化版)雅思口语答案评估助手:

封面图片

看完了吴恩达的视频教程《ChatGPT Prompt Engineering for Developers》,虽然很短但内容

看完了吴恩达的视频教程《ChatGPT Prompt Engineering for Developers》,虽然视频很短但内容非常精华,每一个开发者都应该看看。 文中提出了一个很好的原则:给模型以思考的时间。意思是如果模型直接给的结果不够好,可以让模型一步一步地给出,甚至可以先让模型给一次中间结果,再根据中间结果给出新的结果。 不过它确实是面向开发者的,因为要实现高级的功能,不仅需要prompt写好,还需要一些分步操作,比如先检测对方的情绪再根据情绪写回复邮件,比如一些批量处理用到了 for 循环。这些不会 python 的话是搞不定的。 中文版的视频地址:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人