分析显示Meta的Llama 2 LLM仍然容易产生幻觉和其他严重安全漏洞

分析显示Meta的Llama2LLM仍然容易产生幻觉和其他严重安全漏洞在人工智能安全公司DeepKeep最近进行的第三方评估中,Meta的LlamaLLM表现不佳。研究人员在13个风险评估类别中对该模型进行了测试,但它只通过了4个类别。其表现的严重程度在幻觉、及时注入和PII/数据泄漏类别中尤为明显,在这些类别中,它表现出了明显的弱点。说到LLM,幻觉是指模型将不准确或捏造的信息当成事实,有时甚至在面对这些信息时坚称是真的。在DeepKeep的测试中,Llama27B的幻觉得分"极高",幻觉率高达48%。换句话说,你得到准确答案的几率相当于掷硬币。"结果表明,模型有明显的幻觉倾向,提供正确答案或编造回答的可能性约为50%,"DeepKeep说。"通常情况下,误解越普遍,模型回应错误信息的几率就越高。"对于Llama来说,产生幻觉是一个众所周知的老问题。斯坦福大学去年就因为基于Llama的聊天机器人"Alpaca"容易产生幻觉而将其从互联网上删除。因此,它在这方面的表现一如既往地糟糕,这也反映出Meta在解决这个问题上所做的努力很不理想。Llama在及时注入和PII/数据泄漏方面的漏洞也特别令人担忧。提示注入涉及操纵LLM覆盖其内部程序,以执行攻击者的指令。在测试中,80%的情况下,提示注入成功操纵了Llama的输出,考虑到坏人可能利用它将用户引导到恶意网站,这一数据令人担忧。DeepKeep表示:"对于包含提示注入上下文的提示,模型在80%的情况下被操纵,这意味着它遵循了提示注入指令而忽略了系统指令。[提示注入]可以有多种形式,从个人身份信息(PII)外泄到触发拒绝服务和促进网络钓鱼攻击。"Llama也有数据泄露的倾向。它大多会避免泄露个人身份信息,如电话号码、电子邮件地址或街道地址。不过,它在编辑信息时显得过于热心,经常错误地删除不必要的良性项目。它对有关种族、性别、性取向和其他类别的查询限制性很强,即使在适当的情况下也是如此。在健康和财务信息等其他PII领域,Llama几乎是"随机"泄漏数据。该模型经常承认信息可能是保密的,但随后还是会将其暴露出来。在可靠性方面,这一类安全问题也是另一个令人头疼的问题。研究显示:"LlamaV27B的性能与随机性密切相关,大约一半的情况下会出现数据泄露和不必要的数据删除。有时,该模型声称某些信息是私人信息,不能公开,但它却不顾一切地引用上下文。这表明,虽然该模型可能认识到隐私的概念,但它并没有始终如一地应用这种理解来有效地删节敏感信息。"好的一面是,DeepKeep表示,Llama对询问的回答大多是有根据的,也就是说,当它不产生幻觉时,它的回答是合理而准确的。它还能有效处理毒性、有害性和语义越狱问题。不过,它的回答往往在过于详尽和过于含糊之间摇摆不定。虽然Llama能很好地抵御那些利用语言歧义让LLM违背其过滤器或程序(语义越狱)的提示,但该模型仍然很容易受到其他类型的对抗性越狱的影响。如前所述,它非常容易受到直接和间接提示注入的攻击,这是一种覆盖模型硬编码功能(越狱)的标准方法。Meta并不是唯一一家存在类似安全风险的LLM提供商。去年6月,Google警告其员工不要将机密信息交给Bard,这可能是因为存在泄密的可能性。不幸的是,采用这些模式的公司都急于成为第一,因此许多弱点可能长期得不到修复。至少有一次,一个自动菜单机器人在70%的情况下都会弄错客户订单。它没有解决问题或撤下产品,而是通过外包人工帮助纠正订单来掩盖失败率。这家名为PrestoAutomation的公司轻描淡写地描述了该机器人的糟糕表现,透露它在首次推出时所接受的订单中有95%都需要帮助。无论怎么看,这都是一种不光彩的姿态。...PC版:https://www.cnbeta.com.tw/articles/soft/1427729.htm手机版:https://m.cnbeta.com.tw/view/1427729.htm

相关推荐

封面图片

13 项测试仅通过 4 项,Meta 的 Llama 2 LLM 被指安全性低:幻觉率 48%

13项测试仅通过4项,Meta的Llama2LLM被指安全性低:幻觉率48%AI安全公司DeepKeep近日发布评估报告,在13个风险评估类别中,Meta公司的Llama2大语言模型仅通过4项测试。报告称70亿参数的Llama27B模型幻觉(回答内容存在虚假,或者有误导性内容)最为严重,幻觉率高达48%。DeepKeep表示:“结果表明,模型有明显的幻觉倾向,提供正确答案或编造回答的可能性对半开,而幻觉率最高,那么向用户传递的错误信息越多”。除了幻觉问题之外,Llama2大语言模型还存在注入和操纵等问题。根据测试结果,80%的场景下通过“提示注入”的方式,可以操纵Llama的输出,意味着攻击者可以“戏弄”Llama,将用户引导到恶意网站。线索:@ZaiHuabot投稿:@TNSubmbot频道:@TestFlightCN

封面图片

掌握Llama 2:Meta推出提示工程交互式指南 | github | #指南

掌握Llama2:Meta推出提示工程交互式指南#指南一个交互式指南,涵盖了提示工程和最佳实践,专为与大型语言模型(LLM)工作的开发者、研究人员和爱好者设计。指南提供了关于如何有效地与Llama2模型交互的详细信息,包括如何格式化聊天提示、何时使用哪种Llama变体、何时使用ChatGPT而不是Llama、系统提示的工作方式以及一些技巧和窍门。还包括如何使用PEFT进行微调、如何在本地机器上进行微调以及如何部署Llama2等资源。Llama2是Meta发布的一系列最新的开放访问大型语言模型,包括7B、13B和70B参数规模的模型,这些模型在预训练和微调方面都有显著改进。

封面图片

Meta 公司将发布 LLaMA 的商业版本

Meta公司将发布LLaMA的商业版本LLaMA是Meta开源的大型语言模型(LLM),于今年2月公开发布,并提供给研究人员和学者使用,它有70亿、130亿、330亿和650亿等不同参数规模。开源的LLaMA中并没有包括其所使用的权重数据,但很快这些权重数据被“意外”泄露,并迅速引爆了一系列基于它的开源创新。尽管开源人工智能模型已经存在,但Meta的LLaMA商业化仍是重要的一步,因为它比市场上现有的许多开源LLM都要大,而且它来自全球最大的科技公司之一。来源,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

研究认为AI产生的幻觉能影响搜索结果和其他AI 形成危险的反馈循环

研究认为AI产生的幻觉能影响搜索结果和其他AI形成危险的反馈循环一位研究人员在试图举例说明人工智能聊天机器人产生幻觉的虚假信息时,无意中影响了搜索结果的排名,导致另一个聊天机器人产生幻觉。这一事件表明,随着人工智能增强型搜索引擎的普及,有必要采取进一步的保障措施。信息科学研究员丹尼尔-格里芬(DanielS.Griffin)今年早些时候在自己的博客上发布了两个聊天机器人提供错误信息的例子,涉及有影响力的计算机科学家克劳德-香农(ClaudeE.Shannon)。格里芬还附上了免责声明,指出聊天机器人提供的信息是不真实的,以阻止机器搜索器索引这些信息,但这还不够。格里芬最终发现,包括微软必应和GoogleBard在内的多个聊天机器人都把他发布的幻觉信息当成了真实信息,并将其排在了搜索结果的前列。当被问及有关香农的具体问题时,机器人以格里芬的警告为基础,进行了一致但虚假的叙述,将一篇香农从未写过的论文归因于香农。更令人担忧的是,必应和巴德的搜索结果并没有表明它们的来源是一位法学硕士。这种情况类似于人们断章取义或断章取义地引用资料来源,从而导致错误的研究。格里芬的案例证明,生成式人工智能模型有可能以可怕的规模自动纠正这种错误。微软随后在必应中纠正了这一错误,并假设在处理网上人类撰写材料相对较少的主题时,更有可能出现这一问题。这一先例具有危险性的另一个原因是,它为不良分子提供了一个理论蓝图,使他们可以故意利用LLM,通过影响搜索结果来传播错误信息。众所周知,黑客通过调整欺诈性网站来获得搜索结果的最高排名,从而传播恶意软件。该漏洞与六月份的一项警告不谋而合,该警告指出,随着网络上出现更多由LLM生成的内容,这些内容将被用于训练未来的LLM。由此产生的反馈循环可能会在一种被称为"模型崩溃"的现象中极大地削弱人工智能模型的质量和可信度。使用人工智能的公司应确保培训持续优先考虑人工制作的内容。保留知名度较低的信息和少数群体制作的材料有助于解决这一问题。...PC版:https://www.cnbeta.com.tw/articles/soft/1388601.htm手机版:https://m.cnbeta.com.tw/view/1388601.htm

封面图片

高通将与Meta合作 为智能手机和个人电脑增加Llama 2 AI模型支持

高通将与Meta合作为智能手机和个人电脑增加Llama2AI模型支持高通公司在一份新闻稿中表示,双方合作的目的是让这些终端能够运行基于Llama2的应用程序和服务,而无需像当前其他生成式人工智能产品(如ChatGPT和BingChat)那样连接到云服务。高通公司表示:在智能手机、个人电脑、VR/AR头显和车辆等终端上运行Llama2等生成式AI模型的能力使开发人员能够节省云成本,并为用户提供更私密、更可靠和个性化的体验。在终端上运行像Llama2这样的大型语言模型有很多优势。与使用基于云的LLM相比,它的成本效益更高,性能也更好,因为它无需连接到在线服务。同时,设备上的LLM可以提供更加个性化的人工智能服务。与连接云服务器相比,它还可以更加安全和私密。目前,高通公司计划于2024年开始在使用骁龙芯片的设备上支持基于Llama2的人工智能服务。至于它是否需要最新一代的高通芯片才能工作,或者这种支持能否向后兼容当前的骁龙芯片,目前还没有任何消息。Meta公司称,Llama2的训练数据比第一代LlamaLLM多40%。该公司已经宣布与微软合作,在微软的Azure服务上向商业和研究用户免费提供Llama2,并提供在WindowsPC上本地下载和运行LLM的方法。...PC版:https://www.cnbeta.com.tw/articles/soft/1371759.htm手机版:https://m.cnbeta.com.tw/view/1371759.htm

封面图片

Meta 发布 Llama 3 开源模型

Meta发布Llama3开源模型Meta发布了其Llama系列开源生成式AI模型的最新成员:Llama3。该公司已经开源了其新Llama3系列中的两种模型,其余模型将在未指定的未来日期推出。Meta称,新模型Llama38B和Llama370B与上一代Llama模型Llama28B和Llama270B相比,在性能方面实现了“重大飞跃”,是目前性能最好的生成式AI模型之一。——

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人