黑客有能力避开保护 访问您与AI助手的加密私人聊天记录

黑客有能力避开保护 访问您与AI助手的加密私人聊天记录 和其他优秀的助手一样,人工智能对你了如指掌。它知道你住在哪里,在哪里工作。它可能知道你喜欢吃什么食物,这个周末打算做什么。如果你特别健谈,它甚至可能知道你是否在考虑离婚或考虑破产。这就是为什么研究人员设计的一种可以通过网络读取人工智能助手加密回复的攻击令人震惊。这些研究人员来自以色列的进攻型人工智能研究实验室(Offensive AI Research Lab),他们发现,除了Google Gemini之外,大多数使用流媒体与大型语言模型交互的主要人工智能助手都存在一个可利用的侧信道。然后,他们演示了如何利用 OpenAI 的 ChatGPT-4 和微软的 Copilot 的加密网络流量。研究人员在论文中写道:"我们能够准确地重建 29% 的人工智能助手的回答,并成功地从 55% 的回答中推断出主题。"最初的攻击点是标记长度侧信道。研究人员解释说,在自然语言处理中,标记是包含意义的最小文本单位。例如,"我的皮疹很痒"这句话可以标记化如下:S = (k1, k2, k3, k4, k5),其中标记为 k1 = I, k2 = have, k3 = an, k4 = itchy, k5 = rash。然而,令牌是大型语言模型服务处理数据传输的一个重要漏洞。也就是说,当 LLM 以一系列令牌的形式生成和发送响应时,每个令牌都会在生成的同时从服务器发送给用户。虽然这一过程是加密的,但数据包的大小会泄露令牌的长度,从而有可能让网络上的攻击者读取对话内容。研究人员说,从标记长度序列推断回复内容具有挑战性,因为回复可能长达数句,从而产生数百万个语法正确的句子。为了解决这个问题,他们:(1)使用大型语言模型来翻译这些序列;(2)为 LLM 提供句子间上下文,以缩小搜索空间;(3)根据目标模型的写作风格对模型进行微调,从而进行已知纯文本攻击。他们写道:"据我们所知,这是第一项使用生成式人工智能进行侧信道攻击的工作。"研究人员已经就他们的工作联系了至少一家安全厂商 Cloudflare。自从接到通知后,Cloudflare 表示它已经实施了一项缓解措施,以保护自己名为 Workers AI 的推理产品的安全,并将其添加到 AI Gateway 中,以保护客户的 LLM,无论它们在哪里运行。在论文中,研究人员还提出了一项缓解建议:在每条信息中加入随机填充,以隐藏信息流中标记的实际长度,从而使仅根据网络数据包大小来推断信息的尝试变得更加复杂。 ... PC版: 手机版:

相关推荐

封面图片

DeepSeek -人工智能助手

DeepSeek -人工智能助手 由杭州深度求索人工智能基础技术研究有限公司开发的大模型,这款最先进的 AI 采用了突破性的 DeepSeek-V3 模型(拥有超过 6000 亿个参数),在多个基准测试中领先全球标准,与顶级国际模型相媲美。享受更快的速度和全面的功能,旨在解答您的问题并高效改善您的生活。 苹果商店下载: 网页官网下载: #DeepSeek #AI##IOS #苹果 #安卓 #PC #MAC #人工智能助手 免费资源频道:@ZYPD123 全网搜索群:@soso_Group

封面图片

【研究:ChatGPT推出后人工智能相关的加密货币资产呈上涨趋势】

【研究:ChatGPT推出后人工智能相关的加密货币资产呈上涨趋势】 德国汉堡区块链研究实验室的研究人员一项研究表明,OpenAI 推出 ChatGPT后,人工智能相关的加密货币资产呈上涨趋势。据研究人员称:尽管整个加密货币市场处于看跌状态,但ChatGPT的推出对人工智能相关加密资产的表现产生了重大影响。使用综合差分法,我们发现在发布后的一个月内人工智能相关加密资产平均价格上涨至少10.7%。”

封面图片

/tmp/tmprdixxh5g

元气少女情报局研究人员发现人工智能模型可以被训练来欺骗

封面图片

研究发现:用人工智能生成的图像训练出的人工智能产生了糟糕的结果。

研究发现:用人工智能生成的图像训练出的人工智能产生了糟糕的结果。 斯坦福大学和莱斯大学的研究人员发现,生成式人工智能模型需要“新鲜的真实数据”,否则输出的质量就会下降。 这对摄影师和其他创作者来说是个好消息,因为研究人员发现,训练数据集中的合成图像会放大人工痕迹,使人工智能画出的人类看起来越来越不像真人。 研究小组将这种状况命名为“模型自噬障碍”。如果自噬循环的每一代都没有足够的新鲜真实数据,未来的生成模型注定会逐渐降低其质量或多样性。 如果该研究论文是正确的,那么这意味着人工智能将无法开发出无穷无尽的数据源。人工智能仍然需要真实、高质量的图像来不断进步,而不是依赖自己的输出。这意味着生成式人工智能将需要摄影师。

封面图片

$AIS 人工智能助手旨在让您的生活更轻松。 您可以让 AI Assistant 阅读文本、唱歌和提问。 AI助手与你同在。

$AIS 人工智能助手旨在让您的生活更轻松。 您可以让 AI Assistant 阅读文本、唱歌和提问。 AI助手与你同在。 人工智能游戏即将推出。 另外,AI助手很快就会为您接收自动交易指令。 许多大客户都在这里并支持该项目。 20k MC 电击机: https://t.me/aiassistanterc 机器人: https://www.aiassistant.shop/ai-assistant-bot 推特 https://twitter.com/AIAssistantERC 网站: https://www.aiassistant.shop 人工智能国际象棋游戏: https://www.aiassistant.shop/ai-assistant-chess 人工智能市场 https://www.aiassistant.shop/ai-assistant-chess https://dexscreener.com/ethereum/0xfebab17f1721c5d23f27189922e7094b0ac86f27

封面图片

研究:人工智能模型缺乏透明度 或将加大监管难度

研究:人工智能模型缺乏透明度 或将加大监管难度 一项研究显示,目前主要的人工智能模型缺乏透明度,或将加大政策制定者拟定有效政策来监管这项科技的难度。 法新社报道,这项由哈佛大学研究员于星期三(10月18日)发表的研究,旨在指导政策制定者对人工智能科技方面进行监管。研究人员设计了一个“基础模型透明指数”,并对10家主要的人工智能公司进行了排名。 得分最高的是由脸书母公司Meta Platforms于今年7月推出的人工智能模型“Llama 2”,得分为54%。 推出人工智能聊天机器人ChatGPT的美国人工智能公司OpenAI,今年3月发布的大型语言数据库模型GPT-4排名第三,得分为48%。 谷歌推出的“PaLM 2”以40%排在第五位,略高于亚马逊支持的人工智能初创公司Anthropic推出的“Claude 2”人工智能模型(36%)。 斯坦福大学基金会模型研究中心的研究员博马萨尼说,这些公司应该努力争取80%到100%的得分。 研究人员指出,“较低的透明度将使政策制定者更难以制定有意义的政策,以对这一强大的科技进行监管。” 此外,这也让其他企业更难得知自己的应用是否可依赖这项科技,同时让学术界更难以进行研究,消费者也更难以了解模型的局限性。“如果没有透明度,监管机构甚至无法提出正确的问题,更别说是在这些地方采取行动了。” 这项研究发现,没有一家公司提供有多少用户依赖使用人工智能模型的信息,或它们使用的地理位置信息。此外,多数人工智能公司都不披露其模型中使用了多少收版权保护的资料。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人