13 项测试仅通过 4 项,Meta 的 Llama 2 LLM 被指安全性低:幻觉率 48%

13项测试仅通过4项,Meta的Llama2LLM被指安全性低:幻觉率48%AI安全公司DeepKeep近日发布评估报告,在13个风险评估类别中,Meta公司的Llama2大语言模型仅通过4项测试。报告称70亿参数的Llama27B模型幻觉(回答内容存在虚假,或者有误导性内容)最为严重,幻觉率高达48%。DeepKeep表示:“结果表明,模型有明显的幻觉倾向,提供正确答案或编造回答的可能性对半开,而幻觉率最高,那么向用户传递的错误信息越多”。除了幻觉问题之外,Llama2大语言模型还存在注入和操纵等问题。根据测试结果,80%的场景下通过“提示注入”的方式,可以操纵Llama的输出,意味着攻击者可以“戏弄”Llama,将用户引导到恶意网站。线索:@ZaiHuabot投稿:@TNSubmbot频道:@TestFlightCN

相关推荐

封面图片

分析显示Meta的Llama 2 LLM仍然容易产生幻觉和其他严重安全漏洞

分析显示Meta的Llama2LLM仍然容易产生幻觉和其他严重安全漏洞在人工智能安全公司DeepKeep最近进行的第三方评估中,Meta的LlamaLLM表现不佳。研究人员在13个风险评估类别中对该模型进行了测试,但它只通过了4个类别。其表现的严重程度在幻觉、及时注入和PII/数据泄漏类别中尤为明显,在这些类别中,它表现出了明显的弱点。说到LLM,幻觉是指模型将不准确或捏造的信息当成事实,有时甚至在面对这些信息时坚称是真的。在DeepKeep的测试中,Llama27B的幻觉得分"极高",幻觉率高达48%。换句话说,你得到准确答案的几率相当于掷硬币。"结果表明,模型有明显的幻觉倾向,提供正确答案或编造回答的可能性约为50%,"DeepKeep说。"通常情况下,误解越普遍,模型回应错误信息的几率就越高。"对于Llama来说,产生幻觉是一个众所周知的老问题。斯坦福大学去年就因为基于Llama的聊天机器人"Alpaca"容易产生幻觉而将其从互联网上删除。因此,它在这方面的表现一如既往地糟糕,这也反映出Meta在解决这个问题上所做的努力很不理想。Llama在及时注入和PII/数据泄漏方面的漏洞也特别令人担忧。提示注入涉及操纵LLM覆盖其内部程序,以执行攻击者的指令。在测试中,80%的情况下,提示注入成功操纵了Llama的输出,考虑到坏人可能利用它将用户引导到恶意网站,这一数据令人担忧。DeepKeep表示:"对于包含提示注入上下文的提示,模型在80%的情况下被操纵,这意味着它遵循了提示注入指令而忽略了系统指令。[提示注入]可以有多种形式,从个人身份信息(PII)外泄到触发拒绝服务和促进网络钓鱼攻击。"Llama也有数据泄露的倾向。它大多会避免泄露个人身份信息,如电话号码、电子邮件地址或街道地址。不过,它在编辑信息时显得过于热心,经常错误地删除不必要的良性项目。它对有关种族、性别、性取向和其他类别的查询限制性很强,即使在适当的情况下也是如此。在健康和财务信息等其他PII领域,Llama几乎是"随机"泄漏数据。该模型经常承认信息可能是保密的,但随后还是会将其暴露出来。在可靠性方面,这一类安全问题也是另一个令人头疼的问题。研究显示:"LlamaV27B的性能与随机性密切相关,大约一半的情况下会出现数据泄露和不必要的数据删除。有时,该模型声称某些信息是私人信息,不能公开,但它却不顾一切地引用上下文。这表明,虽然该模型可能认识到隐私的概念,但它并没有始终如一地应用这种理解来有效地删节敏感信息。"好的一面是,DeepKeep表示,Llama对询问的回答大多是有根据的,也就是说,当它不产生幻觉时,它的回答是合理而准确的。它还能有效处理毒性、有害性和语义越狱问题。不过,它的回答往往在过于详尽和过于含糊之间摇摆不定。虽然Llama能很好地抵御那些利用语言歧义让LLM违背其过滤器或程序(语义越狱)的提示,但该模型仍然很容易受到其他类型的对抗性越狱的影响。如前所述,它非常容易受到直接和间接提示注入的攻击,这是一种覆盖模型硬编码功能(越狱)的标准方法。Meta并不是唯一一家存在类似安全风险的LLM提供商。去年6月,Google警告其员工不要将机密信息交给Bard,这可能是因为存在泄密的可能性。不幸的是,采用这些模式的公司都急于成为第一,因此许多弱点可能长期得不到修复。至少有一次,一个自动菜单机器人在70%的情况下都会弄错客户订单。它没有解决问题或撤下产品,而是通过外包人工帮助纠正订单来掩盖失败率。这家名为PrestoAutomation的公司轻描淡写地描述了该机器人的糟糕表现,透露它在首次推出时所接受的订单中有95%都需要帮助。无论怎么看,这都是一种不光彩的姿态。...PC版:https://www.cnbeta.com.tw/articles/soft/1427729.htm手机版:https://m.cnbeta.com.tw/view/1427729.htm

封面图片

13项测试仅通过4项,Meta的Llama2LLM被指安全性低:幻觉率48%-IT之家https://www.ithome.co

封面图片

Meta 开源发布能力比肩 ChatGPT 的 Llama 2

Meta开源发布能力比肩ChatGPT的Llama2Llama2相较于Llama1的许可证更加开放,个人和公司都可将其免费用于研究和商业目的(月活超7亿的巨头除外)。Meta还禁止使用Llama2的材料或输出来改进其它大型语言模型(不包括Llama2的衍生作品)。值得注意的是,Llama2的训练数据集是闭源且保密的,这可能与版权纠纷的担忧有关。Llama2训练数据比Llama1多了40%,上下文长度是原来的两倍,有70亿、130亿、700亿三种参数版本。Llama2在大多数基准测试中击败了其它开源模型,在人类评估中与闭源模型GPT-3.5相当(除代码能力)。Meta还与微软、亚马逊、HuggingFace等公司深度合作,Llama2可以在MicrosoftAzure、AWS等云服务上直接使用。频道:@TestFlightCN

封面图片

【Meta和Microsoft联手推出开源大型语言模型Llama 2】

【Meta和Microsoft联手推出开源大型语言模型Llama2】2023年07月19日10点52分7月19日消息,Meta和Microsoft联手推出开源大型语言模型Llama2,将在Microsoft的Windows和云计算平台Azure上运行。Llama2免费用于研究和商业用途,同时还针对在Windows上运行进行了优化。Meta称Llama2接受的公开在线数据源的训练量比Llama1多40%,处理的上下文量是Llama1的两倍。

封面图片

Meta 发布开源大模型 Code Llama 70B

Meta发布开源大模型CodeLlama70B当地时间1月29日,Meta发布了开源大模型CodeLlama70B,Meta表示这是“CodeLlama家族中体量最大、性能最好的模型版本”。CodeLlama70B与先前其他家族模型一样提供三种版本,且均可免费用于研究和商业用途。从基准测试结果来看,CodeLlama的表现优于编码专用的开源Llama,甚至超越了Llama2。

封面图片

【阿里巴巴将支持Meta的人工智能模型Llama】

【阿里巴巴将支持Meta的人工智能模型Llama】2023年07月26日05点59分老不正经报道,阿里巴巴将成为第一家利用Meta的开源人工智能(AI)模型Llama来支持程序零成本开发的中国公司。其云计算部门已经部署了基于Llama2的解决方案,允许企业使用人工智能开发软件和工具。Meta的Llama2模型于2023年7月作为免费使用服务发布。Meta打算允许月活跃用户少于7亿的公司免费使用Llama2。Meta的声明强调,微软仍然是其开发生成式AI工具的首选合作伙伴,而Llama2将免费用于研究和商业用途。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人