警方︰骗徒用人工智能开视像会议骗款2亿元

警方︰骗徒用人工智能开视像会议骗款2亿元 警方首次发现,有骗徒利用人工智能深伪技术,在网上视像会议假冒成多名人士,欺骗与会的一名职员,分15次把2亿港元转帐到5个本地户口。警方相信骗徒预先在网上下载影片,利用深伪技术配上伪冒声音行骗,提醒市民不论视像会议有多少人参与,都要提高警觉,并以惯常用的方式查证真伪。 2024-02-04 18:22:15

相关推荐

封面图片

骗徒以人工智能伪冒多人出席视像会议 与会职员被骗汇款失2亿元

骗徒以人工智能伪冒多人出席视像会议 与会职员被骗汇款失2亿元 警方首次发现有骗徒利用人工智能深伪技术,在网上会议假冒成多名人士,欺骗与会的一名职员,这名职员最终分15次、把2亿港元转帐5个本地户口。网络安全及科技罪案调查科网络安全组署理高级警司陈纯青表示,报案人是一间跨国公司香港分行的财务职员,他在上月中收到假冒该公司英国总部首席财务官的讯息,对方声称要进行机密交易,邀请报案人参与一个多人视像会议。由于当时参与视像会议的成员,显示出与真实人士一样的容貌,虽然报案人曾有怀疑,但最终不虞有诈,按指示汇款共2亿港元。报案人最终向总公司查询,才发现被骗。陈纯青说,调查后发现视像会议中各名人士的影像,与声称出席会议的各成员一些网上公开影片是一样,相信骗徒预先在网上下载影片,然后利用人工智能为影片配上伪冒声音,预制成欺诈片段,套用在视像会议。骗徒为免露出破绽,在视像会议中没有与报案人交流,只是直接向报案人下达命令。警方说,市民过往在单对单的视像会议,戒备心可能较高,但无论在网上见到单人或多人,当收到汇款要求都必须查证。汇款前可以用惯常联络的方式,再联络对方一次。警方亦建议可要求对方在镜头前做指定动作、视像会议期间提问,以测试对方身份真伪等。另外,早前网上出现人工智能伪造电视节目片段,冒称行政长官向市民推介投资计划。警方说,暂时没有收到因为相关伪冒片段而堕入骗局的举报。 2024-02-04 08:25:16

封面图片

DeepMind:政治深度伪造居恶意使用人工智能榜首

DeepMind:政治深度伪造居恶意使用人工智能榜首 谷歌旗下 DeepMind 部门首次对人工智能最常见的恶意使用情况进行的研究显示,利用人工智能生成的“深度伪造”冒充政客和名人,远比利用人工智能协助网络攻击的行为普遍得多。该研究表示,制作逼真的假冒人物图像、视频和音频的情况几乎是第二高频率滥用生成式人工智能工具情况的两倍:使用聊天机器人等基于文本的工具伪造信息,生成虚假信息并发布到网上。分析发现,行为者滥用生成式人工智能的最常见目标是塑造或影响公众舆论。这一占到使用的27%,加剧了人们对深度伪造可能影响今年全球选举的担忧。

封面图片

检察官办公室将使用人工智能。

检察官办公室将使用人工智能。 俄罗斯总检察长伊戈尔·克拉斯诺夫 (Igor Krasnov) 今天在莫斯科举行的专门讨论检察官办公室 2023 年工作成果和加强法律和秩序任务的委员会会议上表示:“我们需要在2024年更大胆、更广泛地使用人工智能。”

封面图片

巴尔的摩警方逮捕用人工智能技术伪造校长声音的高中体育主任

巴尔的摩警方逮捕用人工智能技术伪造校长声音的高中体育主任 据 NBC 新闻报道,警方在前派克维尔高中体育主管达尊-达里恩试图登上飞往德克萨斯州休斯顿的航班时将其逮捕。运输安全管理局官员因达里恩携带申报枪支而将其拘留。当地警方赶到后,在对其进行背景调查并发现其有未执行的逮捕令后将其逮捕。据称,达里恩于 1 月份在多个未具名的社交媒体网站上发布了现已删除的音频片段,片段中的主要声音听起来像是派克维尔高中的校长埃里克-埃斯沃特(Eric Eiswert)。这似乎是一段与未具名人士的对话。警方报告指出,在对话过程中,艾斯瓦特说非裔美国学生无法"从纸袋里考出来"。他还对犹太社区的人和两名"根本不应该被雇用"的学校员工进行了诽谤。音频曝光后,艾斯瓦特被暂时解职。他在网上收到了大量恶毒的留言,学校也接到了无数愤怒的社区成员打来的电话。埃斯沃特告诉警方,他认为达里恩利用人工智能编造了这段音频,以报复他因工作表现不佳、涉嫌不当处理学校资金而未续约,以及在 2023 年未经批准终止了一名长期教练的合同。他还说,他相信达里恩精通技术,懂得使用人工智能工具。警探发现有证据表明,达里恩在 12 月和 1 月曾多次访问学校网络,搜索"OpenAI 工具",调查人员随后将他与多个付费 OpenAI 账户联系起来。联邦调查局聘请了一位大学教授和法证专家对录音进行分析。他发现文件中含有人工智能生成内容的痕迹。录音的设计者还添加了环境噪音背景音轨,使其听起来更自然。加州大学伯克利分校进行的第二次分析得出结论:有人篡改了音频文件。 ... PC版: 手机版:

封面图片

研究发现:用人工智能生成的图像训练出的人工智能产生了糟糕的结果。

研究发现:用人工智能生成的图像训练出的人工智能产生了糟糕的结果。 斯坦福大学和莱斯大学的研究人员发现,生成式人工智能模型需要“新鲜的真实数据”,否则输出的质量就会下降。 这对摄影师和其他创作者来说是个好消息,因为研究人员发现,训练数据集中的合成图像会放大人工痕迹,使人工智能画出的人类看起来越来越不像真人。 研究小组将这种状况命名为“模型自噬障碍”。如果自噬循环的每一代都没有足够的新鲜真实数据,未来的生成模型注定会逐渐降低其质量或多样性。 如果该研究论文是正确的,那么这意味着人工智能将无法开发出无穷无尽的数据源。人工智能仍然需要真实、高质量的图像来不断进步,而不是依赖自己的输出。这意味着生成式人工智能将需要摄影师。

封面图片

香港警方∶骗徒用深伪技术换脸开视频会议骗款2亿港币

香港警方∶骗徒用深伪技术换脸开视频会议骗款2亿港币 香港警方上月接获一宗关于利用 AI 深伪技术的诈骗案件,报案人为一家跨国公司香港分行职员。指上月中收到该公司英国总部首席财务官的信息,声称要进行机密交易,并邀请该公司数名财务职员参与多人视频会议。由于对方各人在会议内均显示了与现实相同的容貌,职员未察觉有诈骗行为,前后转账15次,总计2亿港元到5个本地银行账户。期后向总部查询后方知受骗。 投稿爆料: @dbai8 东南亚大事件: @dny57 华人俱乐部: @dubailiaotian

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人