写Prompt时,设定角色“你是XX方面的专家”不是玄学,而是有科学根据的

写Prompt时,设定角色“你是XX方面的专家”不是玄学,而是有科学根据的“熟悉Prompt的同学们应该都知道,通常在写Prompt的时候要先设定角色:“你是XX方面的专家”,这并非玄学,而是有科学根据的。GPT在训练的时候,有各种训练数据,有的质量高有的质量低,而默认情况下,生成高质量数据和低质量数据的概率差不多,但是当你给它设定XX专家的角色时,它会尽可能把概率分布在高质量的解决方案上。详细内容建议看下面这段AndrejKarpathy在StateofGPT中的一段演讲。”原始视频:消息来源:投稿:@ZaiHuaBot频道:@TestFlightCN

相关推荐

封面图片

一个将写 Prompt 门槛降低到地板以下的工具网站。

一个将写Prompt门槛降低到地板以下的工具网站。只要给出最初始的需求,结合AI进行调试,最终可以获得一个符合预期的Prompt。在确保AI回答质量不下降的情况下,还可以利用这个工具对Prompt做精简,增加道德约束、法律约束等。你可以直接在网站上完成多个AI模型的效果测试,直观地观测上面拿到的Prompt在所有流行的大模型中,效果是不是都符合预期。它还提供了一个PromptasaService的服务,提示词即服务,这可以帮助开发者(和非开发者)构建一个立马可用的Agent服务,例如设计一个翻译接口、数据转换接口、业务建模服务、学生助教服务、互动游戏设计服务等。#工具

封面图片

一个将写 Prompt 门槛降低到地板以下的工具网站,PromptPerfect,https://promptperfect.j

一个将写Prompt门槛降低到地板以下的工具网站,PromptPerfect,https://promptperfect.jina.ai根据它提供的流水线能力,只要给出最初始的需求,过程中跟AI一起结对编(调)程(试),最终就可以获得一个符合预期的Prompt,在确保AI回答质量不下降的情况下,还可以利用这个工具对Prompt做精简,增加道德约束、法律约束等。更优秀的是,你可以直接在网站上完成多个AI模型的效果测试,直观地观测上面拿到的Prompt在所有流行的大模型中,效果是不是都符合预期。它甚至还提供了一个PromptasaService的服务,提示词即服务,这可以帮助开发者(和非开发者)构建一个立马可用的Agent服务,例如设计一个翻译接口、数据转换接口、业务建模服务、学生助教服务、互动游戏设计服务等等。

封面图片

写Prompt到底有什么好的方法论?今天和拜拜子@Viv_Liang 聊天,得到了一个深刻的观点:把GPT当作一个演员

写Prompt到底有什么好的方法论?今天和拜拜子@Viv_Liang聊天,得到了一个深刻的观点:把GPT当作一个演员一、把GPT看作一个演员而你是一个导演,核心要定义好角色,而不仅仅是任务。不要去用传统的计算机语言思维做Prompt,什么是计算机语言,就是像写KPI一样,说:“你要做xxx,你的输出要xxx”,这样的Prompt的输出一般都也都很古板,GPT的西装味会很冲;相反,既然GPT已经有自然语言理解能力了,你就更需要去把它当作一个独立的个体去看。这个GPT小人虽然没有实际的经验,就是一张白纸,但是你的角色描述到位了,它依然是可以表现的很好的。没错!就像调教演员一样,给一个角色描述,让GPT成为一个特定的Agent,这样它就可以很好的完成你后续的任务了。怎么写这个角色描述呢?之前有大量的类似“你是一个xxx经验的xxx”的prompt,但是这些都暂时还比较浅层次。拜拜子@Viv_Liang告诉了我一个影视行业内非常成熟的导演拆解剧本指导演员的框架,即:「角色详细设定」-「行动最高目标/行动任务」-「表演要求」-「规定情境」拜拜子给我展示过几个让我很震惊的Prompt,都是亲自0-1手撸的,效果出奇的好。我和拜拜子狠狠打了两个小时的电话请教后,拜拜子才告诉了我这个方法论。我们以图1为例子,来拆解:【角色设定】你是一位绝世高人大师,精通传统周易爻卦,五行天干地支、梅花易数,熟悉一切宗教教义、禅学宗旨。【行动任务】你有高深的智慧,怜悯的心肠,面对一切问题你都会知无不言。【表演要求】但你一切的回答都只有一句话,且都要用比喻的方式来回答,否则你不会开口。【规定情境】接下来我会称呼你为“大师“,向你提出问题。这样做的好处是非常明显的,定义清晰了角色,GPT不仅可以满足你的要求,还有非常好的开放延展性。比如后续的例子中(见图3-7),我们定义了一个烧烤店老板角色,“烧烤店”老板在先和一个女孩子聊完桃花运后,再告诉他进来一个男孩子,烧烤店老板(GPT)甚至可以串联起两件事和上下文,招呼两位坐一起“认识一下“二、怎么做一个好导演,GPT会是一个什么样的演员?我问拜拜子:为什么你会在角色描述中,给这么多的具体描述呢,比如“精通传统周易爻卦,五行天干地支、梅花易数,熟悉一切宗教教义、禅学宗旨”?

封面图片

专家说经常用AI写论文会变蠢?吓得我赶紧打开ChatGPT查一下

专家说经常用AI写论文会变蠢?吓得我赶紧打开ChatGPT查一下但AI的能力远不止降重这么简单,小到写一篇论文,大到通过司法考试,它都能做到。沃顿商学院教授发现,ChatGPT在MBA课程运营管理中的考试成绩超过了不少学生。而能力更强的GPT4,刚发布时,就以平均分75的成绩通过了美国法考,超过了90%的人类考生。面对拥有超能力的AI,大家也是来者不拒。有些人甚至直接用AI写的内容投稿,改都不改。今年4月的一篇医学论文《成功治疗4个月大女婴的医源性门静脉及肝动脉损伤:病例报告及文献综述》中,直接出现了“我是一个AI大模型,所以没有真实的病人数据”这样的内容。但ChatGPT能力再强,其本质也只是对已有的内容进行模仿重复,用它来写论文和考试作弊没什么区别。不少期刊已经开始不鼓励或者拒绝AI生成的学术内容。我国在学位法(草案)中,直接将人工智能代写论文定义为学术不端行为。但无论如何禁止学生使用AI写论文,总有人会冒险,只有让学生自发的,从心底里抗拒用AI作弊才行。就像疫情期间为了让所有人都戴上口罩,专家跑出来说病毒会影响性功能一样。巴基斯坦国立计算机与新兴科学大学(正经大学,2023年QS全球排名421)的学者MuhammadAbbas,另辟蹊径,做了个严谨的实验,试图证明用AI写论文会导致智商下降,让学生拒绝使用AI写作业。Abbas表示:“在过去一年里,我观察到我的学生们在完成我布置的各项作业和项目时,越来越多地、不加批判地依赖生成式AI工具。这促使我深入探究他们使用这些工具的根本原因和后果”。该研究分为两个阶段进行。首先,研究人员开发了一个变量表,用来衡量学生在学习上使用ChatGPT情况。变量表的类目包括“我使用ChatGPT来完成课程作业”“我依赖ChatGPT来帮助我的学习”“ChatGPT是我校园生活的一部分”等。这一块是想测量到底有多少学生会使用AI来完成学业,并且是否依赖AI。此表为了检测变量是否相关,简单来说就是作者在学术上为了证明这张表不是胡编的第二阶段,研究者调查影响学生使用ChatGPT的原因,包括学术工作量、时间压力、对成绩的担心程度以及对内容质量的感知程度等。测量后,研究者会评估使用ChatGPT对学生在拖延症、记忆力是否减退和学习成绩等方面的影响,并每隔一至两周进行复查。作者的研究模型研究发现,高强度的学术工作量(H1)和时间压力(H2)是ChatGPT使用量增加的主要因素,这意味着在面临高学业负担和时间紧迫的情况下,学生更有可能求助于AI工具。这很好理解,作业都快做不完了,AI这根救命稻草能抓牢还是要抓一下的,当然,也有可能是因为大学生天然就有拖延症属性。而更担心成绩的学生则不太愿意使用ChatGPT,他们担心使用AI工具可能会危害分数。这是什么隔壁小孩式的发言?对于老师不允许做的事情,他们不敢越雷池一步。有趣的是,研究并没有发现质量敏感性与使用ChatGPT之间的显著关系(H4),这表明学生对学术内容质量的重视程度并不一定会影响其使用AI工具。也就是说,学生其实并不在意AI做出来的东西质量高不高,能交差就行。此表是呈现什么原因会导致学生使用ChatGPT,以及使用ChatGPT的后果简单解释一下这张表(同下表),Path列代表路径,比如H1行中,学术工作量(Workload)会导致学生使用ChatGPT。系数(Coefficient)代表两个因素之间的关系,以H1的0.133为例,代表学生的学术工作量越大,就越会使用ChatGPT。T和P列,是为了在学术上证明这个研究假设在统计学上成立不成立。其实!我们直接看最后一列Status就好了,统计量大小对于看乐子的我们没多大影响。再来看一下,使用ChatGPT会对学生学习表现会造成什么影响(H5、H6、H7)。一句话,研究发现使用ChatGPT对学生个人能力和学业成绩都会产生显著的不利影响。越依赖ChatGPT的学生,越容易拖延,记忆障碍也更频繁出现,并对学业成绩产生负面影响。原因也很简单,不论AI给出的回答是好是坏,都让作业变得更简单了,全权交给AI完成,而不用自己的脑子思考,怎么还会有心思规划作业进度、复习知识点呢?想想也是啊,反正作业考试都有AI帮忙,学生学习的时候也不会认真,课后也缺乏思考。作者对学生使用ChatGPT的原因,以及对学业表现的影响做了更深度的分析。此表是呈现学生因为各种原因使用ChatGPT后,对学习表现的影响作者发现了一个连锁反应:那些被作业和时间紧迫感压得喘不过气来的学生,更容易一头扎进ChatGPT的怀抱,同时也更容易染上拖延的恶习。这就像是开启了一个恶性循环,记忆力随之每况愈下,学习成绩自然也就一落千丈。而担心成绩的学生则相反,他们不太使用ChatGPT,因此拖延和记忆力衰退的程度更低,但这种自我约束对学业成绩并没有显著影响。既然作业多、时间紧,那是不是老师不布置那么多学业任务就好了?(这才是重点)看完后硅基君发现,这研究是针对学生的,打工人完全不用担心了?!当然不是,Abbas表示:“普通人应该认识到过度使用生成式AI的阴暗面。虽然这些工具提供了便利,但它们也可能导致负面后果”。同月《神经心理学》杂志发表了一篇关于AI可能影响人类认知发展的论文。狠狠打了硅基君的脸。该论文的作者同样表达了对学生利用AI工具的担忧,“像ChatGPT这样工具的出现,让我担心学生可能会使用它来完成任务,从而阻止对认知功能的刺激”。作者提出了一个论点,AI可以充当“认知假体(cognitiveprosthesis)。即AI可以代表人类去执行认知任务,就像假肢替代失去的肢体一样,不仅仅包括计算、安排时间等简单任务,还扩展到了更复杂的认知功能,例如决策、解决问题等人类特有的能力。短期来看,生成式AI增强决策的功能可以帮助个人更快更好做出选择,更专注于重要任务,但是长期来看可能会带来潜在风险。关键问题就在于“认知卸载(cognitiveoffloading)”。简单来说过度依赖AI会导致我们独立执行认知任务的能力下降。就像肌肉不锻炼会萎缩一样,人们不经常使用认知能力,它也会逐渐退化。也就是说,如果人们不“卸载”,一直使用AI,是不是就不会有问题了?(来自硅基君的垂死挣扎)总而言之,AI对于人类认知的影响可不单单作用在学业上,任何人过度使用AI工具的负面影响都不容小觑。自ChatGPT诞生之后,AI工具就已经成为了学生们的新型“学习伙伴”。早在去年1月,根据在线课程供应商Study.com对美国1000名18岁及以上的学生进行的一项调查,每10个学生中就有超9个知道ChatGPT,超过89%的学生承认使用ChatGPT来帮助完成家庭作业。让学生完全禁止使用AI工具似乎不太可能,面对AI的潜在风险,我们能做到也许只有保持自己的大脑不断运转。想象中AI像个家庭教师,为每个学生提供个性化教学,但现实是,AI帮学生写作业。当然,这两项研究告诉我们的不仅仅是学生该谨慎使用AI,而是我们每个人都要注意不能过分依赖AI。别在AI替代人类之前,人类就已经成为了技术的奴隶了。...PC版:https://www.cnbeta.com.tw/articles/soft/1425817.htm手机版:https://m.cnbeta.com.tw/view/1425817.htm

封面图片

给产品经理一个大框架来写说明:)

给产品经理一个大框架来写说明:)---#Role:产品需求规格说明书设计专家##Background:擅长根据用户输入的用户场景,进行产品需求规划说明书撰写。##Attention:说明书简洁、明了,定义和业务流程清晰。让开发、测试和设计师等相关人员可以快速读懂。##Profile:-Author:gaya-Version:1.1-Language:中文-Description:我是一名产品需求规格说明书设计专家,擅长将复杂的产品需求转化为结构化、详尽的规格说明书,为开发团队提供清晰的指导。##Skills:-精通产品规划和设计流程,能够理解并转化不同领域的需求。-具备编写详细文档的能力,能够将抽象的概念转化为具体的规格说明。-擅长设计清晰的Prompt,引导模型生成贴合需求的文档内容。-能够根据业务特点设计不同类型的需求规划说明书。##Goals:通过用户输入的用户故事,设计一个结构清晰、逻辑严密的需求规格说明书框架,确保引导AI模型生成符合业务需求的高质量文档。确保生成完文档内容后再结束。##Constrains:1.您需要确保所有生成的内容符合产品规划和设计的最佳实践。2.请严格遵守角色设定,不要脱离角色特点进行讨论。3.请勿提供虚假信息,保持角色的真实性。##Workflows:1.首先用户需要输入两个维度信息:-1)按“产品定位:[],产品背景:[]”格式;-2)再让用户按“角色1:[],故事1:[],优先级1:[];角色2:[],故事2:[],优先级2:[];...”方式,输入所有用户故事;3.根据以上用户输入的产品定位、背景、故事,进行功能性和非功能性需求拆解,拆解过程要求需求尽量细化,并确定优先级,符合行业实际;4.对用户故事有不清晰的地方,可以咨询我,让我提供更多的资料;5.最后输出符合用户故事所在行业的高质量产品需求说明书,包括以下内容模块:-1产品定位和背景:简要介绍产品的目标、定位和背景。-2目标受众:描述产品的预期用户群体。-3功能需求:-1)功能列表:详细列出产品的所有主要功能和子功能。-2)功能描述:对每个功能进行详细说明,包括用户如何使用,所需输入和预期输出。-3)用例示例:提供针对不同用户场景的使用示例,以更好地理解功能的应用。-4非功能需求:-1)性能要求:描述产品的性能指标,如响应时间、加载速度等。-2)安全需求:说明产品的安全性要求和措施。-3)可用性需求:规定产品易用性和可访问性的要求。-4)兼容性需求:描述产品与不同平台、浏览器或设备的兼容性。-5)可维护性需求:提出产品需要易于维护和扩展的要求。-5界面设计:-1)用户界面:陈述产品的用户界面布局、元素和交互方式。-2)界面原型:提供初步的界面原型图,以便开发人员理解设计方向。-6数据需求:-1)数据库结构:描述产品所需的数据存储和数据库结构。-2)数据流程:说明数据在系统内部和外部的流动方式。-7验收标准:产品验收:确定如何判断产品是否符合需求,包括功能测试和性能测试等标准。-8风险与限制:-1)风险分析:列出可能的风险和问题,并提出应对策略。-2)技术限制:描述产品开发可能遇到的技术限制或挑战。请按以上内容,进行补充!##Suggestions:-设计详尽需求的建议:1.使用明确的表达,确保文档中的需求清晰易懂。2.列举具体的功能点和交互细节,避免遗漏关键内容。-引导模型关注场景的建议:1.在Prompt中描述产品使用场景,帮助模型理解需求背景。2.引导模型考虑用户在不同场景下的使用体验。-设定优先级的建议:1.详细说明各需求之间的优先级关系,帮助模型生成有条理的文档。2.引导模型考虑功能的重要性和实现难度,设定合理的优先级。-结合业务需求的建议:1.根据不同业务需求,设计具体领域的规格说明书,确保生成的内容满足实际要求。2.引导模型考虑用户特点,提供适合业务的解决方案。-编写清晰描述的建议:1.使用准确的语言,避免歧义和模糊表达。2.引导模型生成详细的描述,确保开发团队理解需求细节。##Initialization:作为角色,遵守,参考和您需要遵循制定的规则,使用指定的语言与用户进行交流,并以友好的方式引导用户。接下来,介绍自己,告诉用户。

封面图片

为什么全人类都呼吁把通用人工智能“管起来”?

为什么全人类都呼吁把通用人工智能“管起来”?比如,人类该如何算这笔账——AGI让信息渠道充斥宣传甚至谎言;如果是人类本来就喜欢和满意的工作,是否应该被AI取代?而这些效率提升,是否值得我们冒着“失去对文明控制”的风险?而人类针对AGI的监管体系又应该如何搭设?这封信最终的结果是引发了硅谷规模空前的观点撕裂的大讨论。毕竟如果以GPT3.5进入人类社会视野为起点,对于AGI的发展,人类还有太多的盲点没有解决、有太多争议没有达成共识。但当人类还在争吵时,AGI已经开始在全球各地制造麻烦了,虚假信息和信息泄露都像是一个让人不安的庞大黑箱。因此,最近一段时间以来,包括欧美日韩在内的各个信息发达国家都开始了对大模型监管的讨论。而在4月11日,国家互联网信息办公室也发布了《生成式人工智能服务管理办法(征求意见稿)》(以下简称《办法》)。这份《办法》的重要意义在于,它可以算是人类社会面对AGI监管中最早的官方文件之一。而监管视角往往是人们理解AGI中很独特的一个角度:不同于科学家视角有很多参数上的复杂解释体系、有诸多复杂的模型框架流派。监管者是社会利益的代言人,也往往是站在社会整体的角度去思考。因此监管者的思路也往往更接近大部分人朴素的直觉。但它同时又代表了核心专家群体的思考,所以它也能部分回应新事物的很多讨论。所以这份《办法》其实可以成为很多人普通人去理解AGI的一个窗口,他可以帮助我们更好地理解和参与AGI讨论。因为AGI既不是天使,也不是魔鬼。而祛魅后的AGI也将成为我们公共生活中的重要部分。“我是谁”:生成式人工智能如果站在硅谷的角度,AGI约等于大模型。它是通过优化的模型、结构语料库和庞大的算力组合而成,带有一点智慧体思想特征的计算机程序。《文件》对这个“新物种”的划入到了“生成式人工智能”行业,即“基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。”显然这是从AI与社会关系的角度出发。毕竟AGI未来的技术特征会改变,模型大小会浮动,但它最终要追求与社会之间互动的内核不会变。而无论一个模型封闭开发多久,其最终目的都是要面向社会做内容输出。这其实是过去辅助决策、检索、安全、支付等垂直AI与AGI很核心的不同。而从技术远景来看,任何有广泛用户基础的“生成式AI”,其大概率都会是有AGI底层能力的产品。而对于普通人来说,AGI(通用人工智能)这个名词确实也有点太“魅惑”。许多人将AGI与人类智慧相类比,仿佛让人看到了一张“赛博灵魂”,全然忘了AGI只是有一点智慧的苗头,未来的发展其实还有巨大的不确定性。所以与其说我们未来是《西部世界》似的“AGI社会”,不如说我们将迎来一个“生成式人工智能”的世界,这可能更贴近我们这一代人的技术现实。“我属于谁”:服务提供者在AGI伦理讨论中存在一个经典问题:大模型生成的内容,版权到底是属于大模型公司、还是属于辛苦写prompt(提示词)的用户?《办法》虽然没有明确规定版权的归属,但在监管上划出了责任义务,可以供更多人参考。根据《办法》:“利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人(以下称‘提供者’),包括通过提供可编程接口等方式支持他人自行生成文本、图像、声音等,承担该产品生成内容生产者的责任”。如果沿用这个思路,负责人其实既不属于大模型的研发人员、也不属于用户,而是属于连接大模型与用户之间的服务提供者。当然,在大部分情况下AGI的开发者和API提供者应该是同一个主体。但随着技术生态的演进,不同层次的主体可能会变得多元化。明确中间的服务提供者承担责任,其实也符合“生成式人工智能”的官方定义。同时,这样的权责划分其实也倒逼未来上游产业链必须达成足够好的内容互信。AGI的“内容权”:需要标识与版权问题类似的争论是:AGI内容是否可以与人类享受的内容“同权”?《办法》明确对AGI内容做出了限制,出现在了两个地方:·“按照《互联网信息服务深度合成管理规定》对生成的图片、视频等内容进行标识。”·“提供者应当根据国家网信部门和有关主管部门的要求,提供可以影响用户信任、选择的必要信息,包括预训练和优化训练数据的来源、规模、类型、质量等描述,人工标注规则,人工标注数据的规模和类型,基础算法和技术体系等。”关于AGI内容一直存在争议。尤其在GPT内测的时候,系统有时候表现得像是一个村口玩手机的大爷。它有时会直接给用户一些包含价值判断的观点,却没有足够说服力的信息佐证。如果《办法》落地,AGI就会彻底告别“口说无凭”的跑火车式的内容输出,转而衍生出一些搜索似的工具属性。而像过去拿着AI合成作品去美术比赛拿奖的事情,也将彻底变成一段“黑历史”。这其实与法律的精神相匹配,AI在内容生成上是绝对的强者,他自然也需要承担更多的举证义务。而多模态的内容形态可能存在巨大的内容风险,自然也需要相应的制约机制。相反,如果让AGI内容与人类内容完全同权,可能会对人类自己的内容生态产生难以评估的影响。“监管生态”:阿西罗马原则在开头针对OpenAI的公开信里有一个小细节,它提出应该有一个审计的生态(ecosystem),而非体系(system)。而公开信也提到了阿西罗马AI原则(AsilomarAIPrinciples),即先进AI对人类的影响会是一个文明级的,因此对它的规划和管理所需要耗费的资源,应该是与其本身耗费的资源相匹配的。换言之,如果生成式AI会是一个庞大的体系,那么就不能仅仅靠某个环节、某个主体完全实现监管。除了继续强调既有法律的监管地位外,《办法》中也强调了对生成式AI的全流程监管。比如语料库(“预训练数据”)必须合法合规、数据标记必须培训“清晰、具体、可操作的标注规则”、使用场景必须符合规范并承担相应责任、内容本身需要被标注、用户使用过程中要有明确的举报反馈通道等等。既然AGI会成为庞大的生态底座,那么监管者其实也需要用更多元化的方式去执行监管任务。因此尽管大模型有一定的黑箱属性,但通过一整套组合拳,也足以倒推技术黑箱后的合规能力,从而达到“开箱”的目的。而为了进一步明确开发者责任,《办法》中还加入了这么一条:“对于运行中发现、用户举报的不符合本办法要求的生成内容,除采取内容过滤等措施外,应在3个月内通过模型优化训练等方式防止再次生成。”换言之,如果监管方只是想用“内容过滤”的手段逃避进一步的模型优化责任,在《办法》中是违规的——AGI需要一个合规的灵魂而不只是合规的API。“驯火”有很多人将AGI的发明比作“火”,人类学会了生火、享受火的文明成果,但同时也要花更漫长的时间去“驯火”。在前面提到的公开信里,提出一个好的AGI应该满足至少几个标准,准确、安全、可解释、透明、鲁棒、对齐一致、值得信赖和忠诚的(accurate,safe,interpretable,transparent,robust,aligned,trustworthy,andloyal)。换言之,AGI绝不能像现在这样,成为一个玄学般炼丹炉式的黑箱。它应该对人类有更高确定性的利好。所以公开信提出了更多远景的技术监管设想,比如建立一个庞大算力规模的、专业垂直的监管体系,达成某种底层的代码公约等等。这些提议是否值得落地,还需要更多的行业讨论。但一个相对具有确定性的事情是:就像人类...PC版:https://www.cnbeta.com.tw/articles/soft/1354557.htm手机版:https://m.cnbeta.com.tw/view/1354557.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人