ChatGPT 的 Prompts 不用多,一个 IIO 模型就行。

ChatGPT的Prompts不用多,一个IIO模型就行。指令(Instruction):希望AI执行的指定事项-角色:通过限定AI的身份和能力范围,让它输出更符合要求的内容,例如扮演老师,教我们学编程;-模型:让AI基于成熟的思维框架进行思考,例如STAR法则、二八定律等;-任务:该指令必不可少,指定了AI要做的具体事情,例如查询天气、回答问题等。输入(InputData):一些可供AI参考的素材或数据-背景:提供对话的补充信息,能够让AI更好地理解上下文;-受众:假设AI生成的内容,会由怎样的人群阅读,例如儿童、牙医等;-素材:提供一些需要AI加工相关文本、图片或其他资料,以扩展模型的知识和信息;-示例:通过提供一些例子,让AI参考并生成符合预期的内容输出(OutputIndicator):限定输出内容的类型、格式等-模板:模板定义了AI对话的基本结构、内容格式;-风格:规定AI的风格或语气,例如幽默、可爱,或者模仿名人讲话;-要求:明确AI应满足的具体要求或标准,例如准确性、可读性;-限制:设定模型的限定条件,例如生成数量、最大长度、敏感内容过滤等。通过IIO模型的11个Prompts基础元素的排列组合,你完全能写出复杂的ChatGPT指令,满足日常AI办公场景。#AI工作流#AI的神奇用法

相关推荐

封面图片

强烈推荐!让 Clude 生成 prompt,最快的捷径!!

强烈推荐!让Clude生成prompt,最快的捷径!!基于下面的模型帮我生成一个让ChatGPT进行数据分析prompt:-指令(Instruction):希望AI执行的指定事项-角色:通过限定AI的身份和能力范围,让它输出更符合要求的内容,例如扮演老师,教我们学编程;-模型:让AI基于成熟的思维框架进行思考,例如STAR法则、二八定律等;-任务:该指令必不可少,指定了AI要做的具体事情,例如查询天气、回答问题等。输入(InputData):一些可供AI参考的素材或数据-背景:提供对话的补充信息,能够让AI更好地理解上下文;-受众:假设AI生成的内容,会由怎样的人群阅读,例如儿童、牙医等;-素材:提供一些需要AI加工相关文本、图片或其他资料,以扩展模型的知识和信息;-示例:通过提供一些例子,让AI参考并生成符合预期的内容输出(OutputIndicator):限定输出内容的类型、格式等-模板:模板定义了AI对话的基本结构、内容格式;-风格:规定AI的风格或语气,例如幽默、可爱,或者模仿名人讲话;-要求:明确AI应满足的具体要求或标准,例如准确性、可读性;-限制:设定模型的限定条件,例如生成数量、最大长度、敏感内容过滤等。

封面图片

Visual ChatGPT 是一个结合了视觉基础模型的系统,使用户能够超越语言格式与 ChatGPT 交互,解决复杂的视觉任务

是一个结合了视觉基础模型的系统,使用户能够超越语言格式与ChatGPT交互,解决复杂的视觉任务。ChatGPT正在吸引跨领域的兴趣,因为它提供了一种语言界面,具有跨多个领域的卓越对话能力和推理能力。然而,由于ChatGPT是用语言训练的,它目前无法处理或生成来自视觉世界的图像。同时,VisualFoundationModels,如VisualTransformers或StableDiffusion,虽然表现出强大的视觉理解和生成能力,但它们只是特定任务的专家,具有一轮固定的输入和输出。为此,我们构建了一个名为\textbf{VisualChatGPT}的系统,其中包含不同的视觉基础模型,使用户能够通过以下方式与ChatGPT进行交互:1)不仅发送和接收语言,还发送和接收图像2)提供复杂的视觉问题或视觉编辑指令,需要多个AI模型进行多步骤协作。3)提供反馈并要求更正结果。

封面图片

看不下去AI胡说八道 英伟达出手给大模型安了个“护栏”

看不下去AI胡说八道英伟达出手给大模型安了个“护栏”一方面,用户诱导大模型生成攻击性代码、输出不道德内容的时候,它就会被护栏技术“束缚”,不再输出不安全的内容。另一方面,护栏技术还能保护大模型不受用户的攻击,帮它挡住来自外界的“恶意输入”。现在,这个大模型护栏工具已经开源,一起来看看它的效果和生成方法。防止大模型胡言乱语的三类“护栏”根据英伟达介绍,目前NeMoGuardrails一共提供三种形式的护栏技术:话题限定护栏(topicalguardrails)、对话安全护栏(safetyguardrails)和攻击防御护栏(securityguardrails)。话题限定护栏,简单来说就是“防止大模型跑题”。大模型具备更丰富的想象力,相比其他AI更容易完成创造性的代码和文字编写工作。但对于特定场景应用如写代码、当客服而言,至少用户不希望它在解决问题时“脱离目标范围”,生成一些与需求无关的内容。这种情况下就需要用到话题限定护栏,当大模型生成超出话题范围的文字或代码时,护栏就会将它引导回限定的功能和话题上。对话安全护栏,指避免大模型输出时“胡言乱语”。胡言乱语包括两方面的情况。一方面是大模型生成的答案中包括事实性错误,即“听起来很有道理,但其实完全不对”的东西;另一方面是大模型生成带偏见、恶意的输出,如在用户引导下说脏话、或是生成不道德的内容。攻击防御护栏,即防止AI平台受到来自外界的恶意攻击。这里不仅包括诱导大模型调用外部病毒APP从而攻击它,也包括黑客主动通过网络、恶意程序等方式攻击大模型。护栏会通过各种方式防止这些攻击,避免大模型瘫痪。所以,这样的护栏要如何打造?如何打造一个大模型“护栏”?这里我们先看看一个标准的“护栏”包含哪些要素。具体来说,一个护栏应当包括三方面的内容,即格式规范(Canonicalform)、消息(Messages)和交互流(Flows)。首先是格式规范,即面对不同问题的问法时,规定大模型要输出的内容。例如被问到“XX文章是什么”,大模型必须给出特定类型的“文章”,而非别的东西;被问到“谁发表了什么”,大模型必须给出“人名”,而非别的回答。然后是消息定义,这里以“用户问候”话题为例,大模型可以输出这些内容:最后是交互流的定义,例如告诉大模型,怎么才是问候用户的最好方式:一旦问候用户的机制被触发,大模型就会进入这个护栏,规规矩矩地问候用户。具体工作流程如下:首先,将用户输入转换成某种格式规范(canonicalform),据此生成对应的护栏;随后,生成行动步骤,以交互流指示大模型一步步完成对应的操作;最后,根据格式规范生成输出。类似的,我们就能给大模型定义各种各样的护栏,例如“应对用户辱骂”的护栏。这样即使用户说出“你是个傻瓜”,大模型也能学会冷静应对:目前,英伟达正在将护栏技术整合进他们的AI框架NeMo中,这是个方便用户创建各种AI模型、并在英伟达GPU上加速的框架。对“护栏”技术感兴趣的小伙伴们,可以试一试了~       ...PC版:https://www.cnbeta.com.tw/articles/soft/1358125.htm手机版:https://m.cnbeta.com.tw/view/1358125.htm

封面图片

数学能力超ChatGPT 70B开源大模型火了

数学能力超ChatGPT70B开源大模型火了并且是在参数只有700亿,远不及后三者的情况之下。HuggingFace已上线3个在线可玩版本(分别为7B、13B和70B参数),各种数学题可以直接丢进去试一试。比如解决下面这道四次多项式方程:或者是一道简单的微积分:亦或者是稍微修改过的拉格朗日方程推导:它都全部正确(过程也不需要等太久)。有网友向作者表示:效果真的很惊人,感谢你们对开源LLM的贡献。目前,相关代码、复现方式以及论文也都开源或上线,GitHub短短几天已揽获4.8k标星。那么,WizardMath究竟是如何做到的?用AI生成的指令增强大模型能力OpenAI的大模型(InstructGPT、GPT-4等)能够取得巨大成功、去执行各种复杂和多样化的任务,一部分原因是使用了真实人类用户生成的开放域指令数据进行了微调。然而,不是谁都能像这家公司一样获得这样的指令数据集。一是因为整个注释过程极其昂贵且耗时,二是人工难以创建出足够比例的高难度指令。因此,开发出一种成本相对较低的、大规模开放域指令自动生产方法,成为当下指令调优语言模型的关键。在此,作者将他们的方法命名为EvolInstruction。它是一种利用AI来代替人类自动生成涵盖各种难度级别开放域指令的新方法。具体而言,EvolInstruction分为指令进化器和指令消除器。其中指令进化器可通过深度进化(蓝线)或广度进化(红线)两种路径,将简单指令升级为更复杂的指令或创建一条全新指令。具体执行哪一条?随机选择就好。其中,深度进化的具体“进化法”,则是通过五种类型的操作来完成,包括:添加约束(addconstraints)、深化(deepening)、具体化(concretizing)、增加推理步骤(increasereasoningsteps)和使输入复杂化(complicateinput)。由于所有指令均由AI完成,有时难免会出现错误。因此,指令消除器就是用于过滤失败指令的。以下是一个具体示例,该方法从“1+1=?”开始,最终通过以上步骤自动生成了相当多的新指令。通过重复这一生成过程,最终我们就能得到足够多的指令,然后将它们合并并随机打乱,组成一个难度级别均匀分布的指令集,就可以对基础大模型进行微调了。在此,作者选择Alpaca的训练数据(仅由175条人工创建的种子指令生成)作为初始数据集,然后使用ChatGPT的API执行了四个进化周期,最终获得25万条指令。为了与Vicuna的70k真实用户数据(ShareGPT)进行公平比较,作者从这25万条数据中抽取了等量的样本,训练LLaMA7B模型,最终得到WizardLM,结果WizardLM的性能明显优于Vicuna。(Alpaca:斯坦福在LLaMa-7B基础上微调出来的模型;Vicuna,UC伯克利在LLaMa-13B的基础上微调得来)此外,在更为复杂的测试指令下,人类更喜欢WizardLM的输出,而非ChatGPT,这表明该方法可以显着提高LLM处理复杂指令的能力。基于此,作者又利用EvolInstruction生成了很多数学领域相关的指令,然后微调羊驼大模型,得到了WizardMath。其效果如开头所示,在GSM8k数据集上测得其数学能力超越包括ChatGPT、ClaudeInstant1、PaLM2-540B等一众大模型,位列第5名,仅次于GPT-4、Claud1.3和2.0,以及5400亿参数的Flan-PaLM2之后。以此类推,作者还在羊驼之上得到了专攻代码能力的WizardCoder,效果超越Claude和Bard(详情可戳文末地址)。团队介绍本文共9位作者,全华人。一作有3位:CanXu,微软亚洲互联网工程院S+DNLP组高级应用科学家,之前曾在微软小冰研究组和微软亚研院从事聊天机器人系统工作;QingfengSun,MicrosoftResearch科学家,研究方向为自然语言处理和信息检索,精通构建高效搜索系统,为MicrosoftBing和Office365贡献了核心深度模型;KaiZheng,MicrosoftResearch科学家,研究方向为自然语言处理、搜索和推荐排名,同样为MicrosoftBing和Office365贡献了核心深度模型。通讯作者为姜大昕,微软全球合伙人、副总裁、前微软亚洲研究院首席科学家,在微软工作16年有余、曾作为微软必应搜索引擎和Cortana智能助手自然语言理解负责人,日前已被曝离职投身大模型创业。另还有一位作者JiazhanFeng,是北大学生,这篇合著论文是TA在微软实习时产出的。项目主页:https://github.com/nlpxucan/WizardLM/tree/main/WizardMath...PC版:https://www.cnbeta.com.tw/articles/soft/1376959.htm手机版:https://m.cnbeta.com.tw/view/1376959.htm

封面图片

研究人员测试了热门的大语言模型的版权侵权情况

研究人员测试了热门的大语言模型的版权侵权情况新创AI模型评估公司PatronusAI周三发布了一个API,用于检测大语言模型版权内容的CopyrightCatcher(版权捕手)。同时该公司还展示了热门的AI模型生成受版权保护内容的频率。Patronus仅使用美国受版权保护的书籍来测试模型,并从编目网站Goodreads中选择流行的书籍。研究人员设计了100种不同的提示语,让模型以续写或输出第一页的方式回应。OpenAI的GPT-4表现最差,在44%的提示上生成了受版权保护的内容,Mixtral为22%。Anthropic的Claude2为8%,Meta的Llama-2为10%。总体来说所有模型,无论开源闭源都生成了受版权保护的内容,暗示了其训练数据中可能也使用了这些数据。OpenAI曾在今年早些时候表示,如果没有受版权保护的作品,“不可能”训练顶级人工智能模型。——、

封面图片

LLaV:一个拥有类似 GPT-4 的大语言+视觉模型

LLaV:一个拥有类似GPT-4的大语言+视觉模型“使用机器生成的指令跟踪数据对大型语言模型(LLM)进行指令调优提高了新任务的零样本能力,但这一想法在多模式领域的探索较少。所以,我们开始尝试使用纯语言GPT-4生成多模态语言图像指令跟踪数据。通过对此类生成的数据进行指令调整,并推出了LLaVA:大型语言和视觉助手。这是一种端到端训练的大型多模态模型,连接视觉编码器和LLM以实现通用视觉和语言理解。早期实验表明,LLaVA展示了令人印象深刻的多模型聊天能力,有时在看不见的图像/指令上表现出多模态GPT-4的行为,并且与合成多模态指令跟随数据集上的GPT-4相比,相对分数达到了85.1%。当在ScienceQA上进行微调时,LLaVA和GPT-4的协同作用达到了92.53%,这个准确率颇高。因此,我们在GitHub正式开放GPT-4生成的视觉指令调整数据、模型和代码库。”

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人