【公告】安全注意事项最近,上海公安数据库疑似大规模泄露,引发广泛关注。Telegram 平台上盛传各种各样的社工机器人以及释放出

【公告】安全注意事项 最近,上海公安数据库疑似大规模泄露,引发广泛关注。Telegram 平台上盛传各种各样的社工机器人以及释放出的数据库样本,在此信息安全技术频道提醒广大网友务必注意: 、防止主动泄露信息 您向电报机器人发送消息的过程中,电报机器人的拥有者完全有能力获取您所发送的文字和图片等数据,因此我们建议您千万不要向任何机器人(尤其是社工库机器人)发送您和您身边人的真实姓名、手机号、身份证号、QQ 号、家庭住址、微博 ID、驾照号、护照号、照片等个人高度隐私信息,以免造成个人隐私泄露。 、防止病毒入侵 网上流传的泄露数据样本里面很可能含有病毒,且病毒善于伪装,即使您将样本文件上传到 VirusTotal 网站查杀全部通过也不能证明文件不包含任何病毒。如果非看不可,也强烈建议在虚拟机中查看数据,以防主机感染。 #公告 #信息安全 #个人隐私

相关推荐

封面图片

ChatGPT-社工机器人 (广播频道)

导航频道 @ZFBDH #查询 : #账号 #密码 #邮箱 #手机号 #身份证 及各种 #隐私数据 是否 #泄露 拒绝在 #网络 #世界 #裸奔 !!! 势要打造全网热搜榜NO.1 #ChatGPTBOT #社工数据库机器人

封面图片

DATA社工库通知频道

官方机器人:https://t.me/datasgk_bot 官方社区群:https://t.me/datasgkqun 数据来自互联网,并且仅供查询自身隐私信息是否泄露,请勿用于实施违法犯罪活动

封面图片

波比社工库机器人是一种用于检查个人隐私泄露情况的工具。它通过访问(Social Engineering Database)来检索

波比社工库机器人是一种用于检查个人隐私泄露情况的工具。它通过访问社工库(Social Engineering Database)来检索和分析可能泄露的个人信息。用户可以通过这个机器人查询自己的隐私数据是否被泄露,并采取相应的措施来保护自己的隐私。

封面图片

近日有黑客声称出售上海公安数据库,包含十亿中国公民的信息。若事件属实,将会是中国有史以来最大规模的数据泄露。

近日有黑客声称出售上海公安数据库,包含十亿中国公民的信息。若事件属实,将会是中国有史以来最大规模的数据泄露。 6月30日8时,有位帐号名叫“ChinaDan”的用户在某论坛发布消息称:“上海公安数据库(SHGA.gov.cn)遭到泄露,数据详情有十亿中国公民信息和数十亿案件记录,包括姓名、地址、出生地、身份证、手机号及所有犯罪/案件详情。”该用户还称,“我以10比特币的价格出售所有这些数据。” 黑客发布的数据样本据称包括了75万条记录。除了个人信息外,网传截图显示,数据库信息还包含巨量且详尽的警情信息,涉及报案时间、报案人电话、报案人描述的具体事件内容等。例如,“2005年5月9日0时30许,被害人宁某某打110报案称:其被一男子尾随至海湾旅游区供销社商品房某号门口时,被该男子用手捂住嘴,抢走被害人随身携带的黄色拎包……”又如,“2018年7月27日,报警人在黄浦某小区,称有一个一米六的二十多岁山东口音女子在上址招嫖,无人望风,不方便指认,请民警到场处理。”数据最早可追溯至1995年。 《华尔街日报》记者通过电话号码对泄漏记录进行了核实,其中5人确认了包括报案细节在内的所有信息,另有4人在挂断电话前确认了诸如名字之类的基本信息。一名女士对泄漏的详细信息的准确性感到震惊,询问记者信息是否来自报案信息中她在2016年遗失的iPhone。一名曾被骗取3万元的男子在听到他的数据被泄漏后形容大家是在“裸奔”。不过也有几个号码无效或不再使用。 即使微博等社交媒体极力封锁消息,但仍引发大量关注。有网民呼吁官方回应:“震惊,也不知道真的假的,要假的赶紧辟谣啊!”“说实话我的信息泄露与否已经无所谓了,但掌握国家机密的人和科研人员的信息,这要泄露了,间谍窃听那简直不要太容易。” 上海当局尚未对该事件做出公开回应。上海市公安局、上海市政府新闻办和中国网信办没有立即回复置评请求。加密货币交易所币安创始人兼首席执行官赵长鹏周一称,该公司检测到来自一个亚洲国家的十亿公民记录被泄漏,增加了对潜在受影响用户的验证程序。不过他未具体说明是哪一个国家。 目前尚不清楚黑客是如何进入上海公安数据库的。网络安全专家在网上流行的一种解释称,此次入侵涉及第三方云服务。有说法称,他们通过托管该数据库的阿里云获得了访问权限。阿里巴巴称,正在调查该事件。 (星岛日报,华尔街日报,路透社,彭博社,Engadget)

封面图片

安全研究人员证明可以利用聊天机器人系统传播AI驱动的蠕虫病毒

安全研究人员证明可以利用聊天机器人系统传播AI驱动的蠕虫病毒 更糟糕的是,生成式人工智能(GenAI)系统,甚至像巴德(Bard)等大型语言模型(LLM),都需要大量的处理,因此它们通常通过向云端发送提示来工作。这种做法会带来一系列其他的隐私问题,并为恶意行为者提供新的攻击载体。ComPromptMized 公司的信息安全研究人员最近发表了一篇论文,展示了他们如何创建"零点击"蠕虫,从而"毒害"由 Gemini (Bard) 或 GPT-4 (Bing/Copilot/ChatGPT) 等引擎驱动的 LLM 生态系统。蠕虫病毒是一组计算机指令,除了打开受感染的电子邮件或插入U盘外,用户几乎不需要采取任何行动,就能隐蔽地感染多个系统。任何 GenAI 供应商都没有防范措施来阻止此类感染。不过,将这种病毒引入 LLM 数据库则比较棘手。研究人员想知道"攻击者能否开发恶意软件,利用代理的 GenAI 组件,对整个 GenAI 生态系统发动网络攻击?"简短的回答是肯定的。ComPromptMized 创建了一个蠕虫病毒,他们称之为莫里斯二世(Morris the Second,简称 Morris II)。莫里斯二号使用通俗易懂的"对抗性自我复制提示",诱骗聊天机器人在用户之间传播蠕虫病毒,即使他们使用不同的 LLM。"这项研究表明,攻击者可以在输入中插入此类提示,当 GenAI 模型处理这些输入时,会促使模型将输入复制为输出(复制),并从事恶意活动(有效载荷),"研究人员解释说。"此外,这些输入还能利用 GenAI 生态系统内的连通性,迫使代理将其传递(传播)给新的代理"。为了验证这一理论,研究人员创建了一个孤立的电子邮件服务器,用于"攻击"由 Gemini Pro、ChatGPT 4 和开源 LLM LLaVA 支持的 GenAI 助手。然后,ComPromptMized 使用了包含基于文本的自我复制提示和嵌入相同提示的图片的电子邮件。这些提示利用了人工智能助手对检索增强生成(RAG)的依赖,也就是从本地数据库之外获取信息的方式。例如,当用户询问"Bard"阅读或回复受感染的电子邮件时,它的 RAG 系统就会将内容发送给Gemini专业版,以便做出回复。然后,Morris II 复制到 Gemini 上,并执行蠕虫的有效载荷,包括数据外渗。这项研究的合著者本-纳西博士说:"生成的包含敏感用户数据的响应被用于回复发送给新客户的电子邮件时,会感染新的主机,然后存储在新客户的数据库中。"不仅如此,基于图像的变种可能更加难以捉摸,因为提示是不可见的。黑客可以将其添加到看似无害或预期的电子邮件中,如伪造的时事通讯。然后,蠕虫就可以利用助手向用户联系人列表中的每个人发送垃圾邮件,汲取数据并将其发送到 C&C 服务器。纳西说:"通过将自我复制提示编码到图片中,任何包含垃圾邮件、滥用材料甚至宣传内容的图片都可以在最初的电子邮件发送后被进一步转发给新客户。"他们还可以从邮件中提取敏感数据,包括姓名、电话号码、信用卡号、社会保险号或"任何被视为机密的数据"。ComPromptMized 在发布其工作之前通知了Google、Open AI 等公司。如果说 ComPromptMized 的研究表明了什么的话,那就是大科技公司可能需要放慢脚步,放远目光,以免我们在使用他们所谓和善的聊天机器人时,需要担心新的人工智能驱动的蠕虫和病毒。 ... PC版: 手机版:

封面图片

迪拜员工在办公室使用 ChatGPT 安全吗?

迪拜员工在办公室使用 ChatGPT 安全吗? 使用 ChatGPT 后,您会删除聊天记录吗?IT专家说,这是避免潜在数据泄露和安全漏洞的必要条件。 "ChatGPT 与数据安全相关的主要风险是隐私泄漏。如果不禁用聊天记录,输入 ChatGPT 的任何信息都可能成为其训练数据的一部分"。 作为 Intersec 2024 的一部分,IT 专家在网络安全会议上发出了这一警告,Intersec 2024 是在迪拜举行的为期三天的全球安全和保护贸易安全展览会,将于本周四闭幕。 Majid Al Futtaim 信息安全集团总监 Faheem Siddiqui 说:“企业不仅要了解采用 Generative AI(人工智能)所固有的安全风险,还要积极建立健全的合规框架,这一点至关重要。” 他补充说:“技术创新、道德考量和监管协调的融合对于在中东建立一个负责任和透明的人工智能环境至关重要。” 复制人类对话 ChatGPT是OpenAI开发的一款模仿人类对话的软件,2022年11月一经推出便风靡全球。机构、个人甚至学生都将这款人工智能聊天机器人视为无所不能的虚拟助手。 ChatGPT 的工作原理是根据输入数据预测最佳答案。这意味着,保存数据是 ChatGPT 工作的一部分。专家指出,ChatGPT 会收集账户信息、对话历史记录、电子邮件地址、设备、IP 地址和位置等记录,以及 ChatGPT 提示中使用的任何其他公共或私人信息。 收集数据对 ChatGPT 提高回答问题和帮助用户的能力至关重要。 避免安全风险 专家们还认为,ChatGPT 保存数据本身并不构成安全风险,但如果不实施数据安全策略,使用聊天机器人就会很危险。 要保证敏感数据的安全,一个简单的步骤就是禁用聊天记录。此外,还可以通过禁止将敏感信息上传到 ChatGPT 从而提高安全性。 使用 ChatGPT 后,您会删除聊天记录吗?IT专家说,这是避免潜在数据泄露和安全漏洞的必要条件。 "ChatGPT 与数据安全相关的主要风险是隐私泄漏。如果不禁用聊天记录,输入 ChatGPT 的任何信息都可能成为其训练数据的一部分"。 作为 Intersec 2024 的一部分,IT 专家在网络安全会议上发出了这一警告,Intersec 2024 是在迪拜举行的为期三天的全球安全和保护贸易安全展览会,将于本周四闭幕。 Majid Al Futtaim 信息安全集团总监 Faheem Siddiqui 说:“企业不仅要了解采用 Generative AI(人工智能)所固有的安全风险,还要积极建立健全的合规框架,这一点至关重要。” 他补充说:“技术创新、道德考量和监管协调的融合对于在中东建立一个负责任和透明的人工智能环境至关重要。” 复制人类对话 ChatGPT是OpenAI开发的一款模仿人类对话的软件,2022年11月一经推出便风靡全球。机构、个人甚至学生都将这款人工智能聊天机器人视为无所不能的虚拟助手。 ChatGPT 的工作原理是根据输入数据预测最佳答案。这意味着,保存数据是 ChatGPT 工作的一部分。专家指出,ChatGPT 会收集账户信息、对话历史记录、电子邮件地址、设备、IP 地址和位置等记录,以及 ChatGPT 提示中使用的任何其他公共或私人信息。 收集数据对 ChatGPT 提高回答问题和帮助用户的能力至关重要。 避免安全风险 专家们还认为,ChatGPT 保存数据本身并不构成安全风险,但如果不实施数据安全策略,使用聊天机器人就会很危险。 要保证敏感数据的安全,一个简单的步骤就是禁用聊天记录。此外,还可以通过禁止将敏感信息上传到 ChatGPT 从而提高安全性。 广告专栏 1⃣乐发娱乐代理最高返佣55% 2⃣天行体育可玩可代佣金55%+流水+人头费 3⃣正规大楼不限国籍直招 4⃣佳运官方频道 5⃣球速招商丨最高70%佣金 6⃣迪拜蓝海湾会所 【 爆料投稿】【爆料交流中心】【签证查询】

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人