以色列使用人工智能识别加沙的轰炸目标

以色列使用人工智能识别加沙的轰炸目标 根据以色列出版物 +972 杂志和 Local Call 的调查,以色列军方一直在使用人工智能来帮助选择在加沙的轰炸目标,为了速度而牺牲了准确性,并在此过程中造成了数千名平民死亡。报告称,该系统名为“Lavender”,是在哈马斯10月7日袭击事件发生后开发的。在顶峰时期,“Lavender”将37,000名加沙巴勒斯坦人标记为“哈马斯武装分子”嫌疑人,并授权暗杀他们。以色列军方在给 +972 和 Local Call 的声明中否认了这样的暗杀名单的存在。一位发言人告诉 CNN,人工智能并没有被用来识别恐怖分子嫌疑人,但并不否认 Lavender 系统的存在,发言人称其“仅仅是分析师在目标识别过程中的工具”。这位发言人告诉 CNN,分析师“必须进行独立检查,以验证所识别的目标是否符合国际法的相关定义以及以色列国防军指令中规定的额外限制”。 、、

相关推荐

封面图片

以色列用人工智能识别打击目标?联合国秘书长对此深感忧虑

以色列用人工智能识别打击目标?联合国秘书长对此深感忧虑 联合国秘书长古特雷斯表示,他对以色列军方依靠人工智能来实施轰炸的行为深感不安,这将在人口稠密的居民区导致大量的平民伤亡。他强调,影响整个家庭生死存亡的决定不应该委托给冷冰冰的算法。以色列军队则在周五否认了这一说法,称其只有一个数据库,目的是为了交叉引用,以识别恐怖组织的军事人员情报。其还称,当袭击造成的预期附带伤亡过大时,以色列国防军就不会实施袭击。冷酷的“薰衣草”+972报告指出,以色列军队开发了一款名为“薰衣草(Lavender)”的人工智能程序,可以快速处理大量数据,以生成数千个潜在目标,方便进行军事打击。消息人士称,“薰衣草”对军方行动的影响非常之大,在加沙轰炸中发挥着核心作用,军方基本上将人工智能输出的结果视为由人类作出的决定。在战争最初的几周,军队几乎完全依赖于“薰衣草”。更令人心惊的是,“薰衣草”的打击目标授权程序如前文所述,最短不过20秒,人类似乎只需要确认打击目标是男性而已。而这一草率的决策程序让“薰衣草”的错误率高达10%,被轰炸目标极有可能与哈马斯联系很少甚至没有联系。不仅打击目标的错误率极高,轰炸的附带伤害也因此变得十分恐怖。消息人士证实,在空袭初期,数千名巴勒斯坦人(其中大多数为妇女、儿童或是无辜的青年)因轰炸而亡。这一切都是因为轰炸决定是通过人工智能的计算而成。另两名消息人士则指出,以色列军方还做出了前所未有的决定,在加沙轰炸前期,“薰衣草”标记的每名“恐怖分子”都有15-20个平民死亡的配额,而过去,军方在攻击恐怖分子时不允许有任何平民伤亡出现。消息人士还补充称,如果攻击目标是营级或者旅级指挥官级别的“恐怖分子”,以色列军方授权最大平民死亡人数可达100人。目前,这份报告并没有被以色列军方所承认,但不少观察人士已经感到不妙。非政府组织国际危机组织的高级分析师Alessandro Accorsi表示,+972的报告非常令人担忧,其表示人类控制战争的程度非常之低,感觉像是世界末日。人权律师、联合国巴勒斯坦难民机构近东救济工程处加沙法律办公室前主任John Sophie则指出,+972报告描述的方法无可否认是犯了战争罪,且鉴于加沙平民伤亡之巨,如若属实,其甚至够得上是反人类罪。 ... PC版: 手机版:

封面图片

联合国秘书长对以色列据报轰炸加沙时使用人工智能深感不安

联合国秘书长对以色列据报轰炸加沙时使用人工智能深感不安 古特雷斯表示,近来有报道称,以色列军方正使用人工智能来识别在加沙的轰炸目标,造成大量平民伤亡。他对此深感不安,并强调影响生死攸关的决定不应交由冷冰冰的算法,人工智能应被用作造福世界的善的力量,而不是用在工业层面发动战争、模糊责任。古特雷斯表示,多年来,他一直在警告将人工智能武器化和削弱人类机构重要作用的危险。他指出,信息战加剧了创伤,掩盖事实真相,推卸责任。与此同时,拒绝国际记者进入加沙,使虚假信息和错误言论得以泛滥。古特雷斯表示,本轮巴以冲突爆发即将6个月。在这场“最致命的冲突”中,约有196名人道主义援助人员丧生,其中包括175名联合国工作人员。在本周“世界中央厨房”的7名人道主义工作者惨遭杀害之后,以色列政府承认了错误,并宣布了惩戒措施。他说,“但根本问题不在于谁犯了错误,而在于现行的军事策略和程序使这些错误一再重演。”古特雷斯敦促以色列切实改变其在加沙的行动方式,以避免平民伤亡,并再次紧急呼吁立即在加沙实现人道主义停火,无条件释放所有人质,畅通无阻地提供人道主义援助。他强调,安理会的所有决议都必须得到落实,“失败将不可原谅”。相关文章:联合国秘书长呼吁对人工智能进行全球风险管理 警告“严重的意外后果” ... PC版: 手机版:

封面图片

卫报报道了以色列的“人工智能战争”

卫报报道了以色列的“人工智能战争” 该报写道: 以色列军方毫不掩饰其对加沙地带轰炸的强度。在进攻的初期,其空军负责人就谈到了“全天候的”无情空袭。他说他的部队”只打击军事目标”,但补充道:“我们并不是在进行外科手术。” 然而,人们相对较少关注以色列国防军(IDF)在加沙选择目标的方法,以及人工智能在其轰炸行动中所发挥的作用。 加沙卫生部称迄今为止该地区已有超过15000人丧生。 最近的战争为以色列国防军提供了一个前所未有的机会,使其可以在更广阔的战场上使用这些工具,特别是部署了一个名为 “福音”的人工智能攻击目标创建平台,大大加快了定位致命目标的速度,官员们将其比作"工厂"。11月初,以色列国防军表示已经确定了加沙的“12,000多个”目标。 该系统所使用的确切信息究竟是什么类型尚不清楚。然而,基于人工智能的决策支持系统需要分析大量数据,包括来自无人机的信息、截获的通信、以及有关个人和群体的运动和行为模式的信息。 虽然以色列军方强调精确度和对平民的最小伤害,但该技术的批评者指出,加沙广泛的物理破坏是相反的证据。 人工智能和国际人道法领域的专家对复杂而不明确的自动化系统在战场上发挥越来越大的作用,以及对平民所面临风险进行充分评估的能力不断减弱表示担忧。 关于自主武器系统: 中国军队如何采用人工智能: #AI #Israel #Gaza

封面图片

DeepMind:政治深度伪造居恶意使用人工智能榜首

DeepMind:政治深度伪造居恶意使用人工智能榜首 谷歌旗下 DeepMind 部门首次对人工智能最常见的恶意使用情况进行的研究显示,利用人工智能生成的“深度伪造”冒充政客和名人,远比利用人工智能协助网络攻击的行为普遍得多。该研究表示,制作逼真的假冒人物图像、视频和音频的情况几乎是第二高频率滥用生成式人工智能工具情况的两倍:使用聊天机器人等基于文本的工具伪造信息,生成虚假信息并发布到网上。分析发现,行为者滥用生成式人工智能的最常见目标是塑造或影响公众舆论。这一占到使用的27%,加剧了人们对深度伪造可能影响今年全球选举的担忧。

封面图片

微软禁止美国警察部门使用企业人工智能工具进行面部识别

微软禁止美国警察部门使用企业人工智能工具进行面部识别 微软公司重申禁止美国警察部门通过 Azure OpenAI 服务使用生成式人工智能进行面部识别。5月1日新增的 Azure OpenAI 服务服务条款中的言语更明确地禁止与 Azure OpenAI 服务集成的产品被美国的警察部门用于人脸识别,包括与 OpenAI 当前 (或许是未来) 图像分析模型的集成。

封面图片

以色列在加沙部署广泛的面部识别计划

以色列在加沙部署广泛的面部识别计划 去年11月19日,巴勒斯坦诗人莫萨布·阿布·托哈穿过加沙中央高速公路沿线的以色列军事检查站,几分钟后就被要求从人群中走出来。据三名不愿透露姓名的以色列情报官员称,事实证明,阿布·托哈走进了嵌入面部识别技术的摄像头范围内。他们说,在对他的脸部进行扫描并确认身份后,人工智能程序发现这位诗人在以色列的通缉名单上。阿布·托哈是数百名被以色列去年年底在加沙启动的面部识别项目识别出来的巴勒斯坦人之一,该项目此前未公开。据以色列情报官员、军事官员和士兵称,这项广泛的实验性努力正在被用来在那里进行大规模监视,在巴勒斯坦人不知情或未同意的情况下收集和编目他们的面孔。四名情报官员表示,该面部识别项目由以色列军事情报部门 (包括网络情报部门 Unit 8200) 负责运行,依赖于以色列私营公司 Corsight 的技术。他们说,它还使用谷歌相册。综合起来,这些技术使以色列能够从人群和颗粒状的无人机镜头中挑选面孔。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人