NewBing说,它是使用了DialoGPT模型,不是ChatGPT模型突破微软限制的方法,让NewBing回答微软不允许回答的内容。请查看链接https://www.make-safe-ai.com/is-bing-chat-safe/群友可能有诱导的成分。具体情况不清楚。不排除胡说八道的可能。投稿:@ZHuabot频道:@TestFlightCN

None

相关推荐

封面图片

看不下去AI胡说八道 英伟达出手给大模型安了个“护栏”

看不下去AI胡说八道英伟达出手给大模型安了个“护栏”一方面,用户诱导大模型生成攻击性代码、输出不道德内容的时候,它就会被护栏技术“束缚”,不再输出不安全的内容。另一方面,护栏技术还能保护大模型不受用户的攻击,帮它挡住来自外界的“恶意输入”。现在,这个大模型护栏工具已经开源,一起来看看它的效果和生成方法。防止大模型胡言乱语的三类“护栏”根据英伟达介绍,目前NeMoGuardrails一共提供三种形式的护栏技术:话题限定护栏(topicalguardrails)、对话安全护栏(safetyguardrails)和攻击防御护栏(securityguardrails)。话题限定护栏,简单来说就是“防止大模型跑题”。大模型具备更丰富的想象力,相比其他AI更容易完成创造性的代码和文字编写工作。但对于特定场景应用如写代码、当客服而言,至少用户不希望它在解决问题时“脱离目标范围”,生成一些与需求无关的内容。这种情况下就需要用到话题限定护栏,当大模型生成超出话题范围的文字或代码时,护栏就会将它引导回限定的功能和话题上。对话安全护栏,指避免大模型输出时“胡言乱语”。胡言乱语包括两方面的情况。一方面是大模型生成的答案中包括事实性错误,即“听起来很有道理,但其实完全不对”的东西;另一方面是大模型生成带偏见、恶意的输出,如在用户引导下说脏话、或是生成不道德的内容。攻击防御护栏,即防止AI平台受到来自外界的恶意攻击。这里不仅包括诱导大模型调用外部病毒APP从而攻击它,也包括黑客主动通过网络、恶意程序等方式攻击大模型。护栏会通过各种方式防止这些攻击,避免大模型瘫痪。所以,这样的护栏要如何打造?如何打造一个大模型“护栏”?这里我们先看看一个标准的“护栏”包含哪些要素。具体来说,一个护栏应当包括三方面的内容,即格式规范(Canonicalform)、消息(Messages)和交互流(Flows)。首先是格式规范,即面对不同问题的问法时,规定大模型要输出的内容。例如被问到“XX文章是什么”,大模型必须给出特定类型的“文章”,而非别的东西;被问到“谁发表了什么”,大模型必须给出“人名”,而非别的回答。然后是消息定义,这里以“用户问候”话题为例,大模型可以输出这些内容:最后是交互流的定义,例如告诉大模型,怎么才是问候用户的最好方式:一旦问候用户的机制被触发,大模型就会进入这个护栏,规规矩矩地问候用户。具体工作流程如下:首先,将用户输入转换成某种格式规范(canonicalform),据此生成对应的护栏;随后,生成行动步骤,以交互流指示大模型一步步完成对应的操作;最后,根据格式规范生成输出。类似的,我们就能给大模型定义各种各样的护栏,例如“应对用户辱骂”的护栏。这样即使用户说出“你是个傻瓜”,大模型也能学会冷静应对:目前,英伟达正在将护栏技术整合进他们的AI框架NeMo中,这是个方便用户创建各种AI模型、并在英伟达GPU上加速的框架。对“护栏”技术感兴趣的小伙伴们,可以试一试了~       ...PC版:https://www.cnbeta.com.tw/articles/soft/1358125.htm手机版:https://m.cnbeta.com.tw/view/1358125.htm

封面图片

OpenAI公布大模型新训练方法:阻止ChatGPT“一本正经地胡说八道”

OpenAI公布大模型新训练方法:阻止ChatGPT“一本正经地胡说八道”OpenAI公司的研究人员表示,即使是最先进的人工智能模型也会杜撰虚假信息,尤其是在拿不准的时候,它们往往倾向于编造事实。在要求多步骤推理的领域,人工智能胡编的后果尤为严重,因为一个单一的逻辑错误会导致整个解决方案“翻车”。OpenAI准备采用新战略,防止人工智能胡编。比如在过去,一旦提供一个正确的最终答案,模型会获得某种鼓励,但是以后,在每一个单一的逻辑推理环节如果表现正确,就将获得鼓励反馈。这种模式也被称之为“过程监督”(以往的模式术语“结果监督”)。研究人员表示,“过程监督”模式有助于产生更加清晰合理的回答,它将会鼓励生成式人工智能能够像人类一样,在推理思考中做到“环环相扣”。OpenAI公司“随机生成数学”研究专家卡尔·柯比(KarlCobbe)表示,发现并且减少人工智能模型的逻辑错误,也就是“AI幻觉”,是构建“通用人工智能”的关键一步。另外,“过程监督”模式并非OpenAI公司发明,但是该公司正在加以推广普及。来源,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

大模型们是“有意识的”一本正经胡说八道么?#抽屉IT

封面图片

微软推出Bing Chat v98 减少了拒绝回答的情况

微软推出BingChatv98减少了拒绝回答的情况Parakhin在他的帖子中说,BingChatv98的发布将分为两个阶段。据Parakhin称,第一阶段旨在为BingChat用户大幅减少"BingChat拒绝创建内容的情况"。第二阶段将推出,继续减少聊天机器人的不参与情况。Parakhin还回应了Twitter用户的一些留言。一个人抱怨说,最近发布的BingImageCreator在制作人工智能生成的艺术方面仍然"非常受限制"。帕拉金回答说:"也在迅速改进--比我们第一次发布时好得多"。另一位用户说,创意模式下的必应聊天不能正常工作,对问题提供错误的答案。帕拉金说,"对此很抱歉。我们正在努力使反应更快:在模型中有两条路径,运行快速的路径,检查答案是否正确,如果不是--运行较慢的路径。在这种情况下,它错误地决定了额外的等待是没有必要的,我们会修复它。"他后来对这个答案进行了扩展,指出:我们的推动是试图给每个人带来最好的用户体验,上面的案例并不是为了节省产能,而是试图在质量不退步的情况下加快创意模式的速度,我们还并不完美。然而:-)必应聊天团队上周忙于一些新的改进和功能,包括扩大其每日和每会话的聊天次数限制,并增加了一种在聊天对话框内搜索图片和视频的方法。...PC版:https://www.cnbeta.com.tw/articles/soft/1353161.htm手机版:https://m.cnbeta.com.tw/view/1353161.htm

封面图片

微软推出Bing Chat v96版 可以显著降低拒绝回答/降低错误概率。

微软推出BingChatv96版可以显著降低拒绝回答/降低错误概率。微软近期推出了BingChatv96版,该版本可以显著降低拒绝回答的概率以及降低错误概率。该版本目前还在测试中,待正式上线后,将增加一个新功能:用户可以设置回答模式,其中标准答案模式为机械式回应用户问题,而创意答案模式则会增加一些语气类的词语,让对话稍微有趣些。在上周末的更新中,微软已经将BingChat单日提问总额从60条提升至100条,估计后续配额还会继续提升。https://www.landiannews.com/archives/97582.html投稿:@ZaiHuabot频道:@TestFlightCN

封面图片

微软Bing,你这样回答可真的不N(ew)B(ING)啊。真的有集成ChatGPT吗?感觉回答很敷衍额(⊙﹏⊙)

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人