萨蒂亚·纳德拉:基于AI的伪造不良内容是"令人震惊和感到可怕的"

萨蒂亚·纳德拉:基于AI的伪造不良内容是"令人震惊和感到可怕的" 在 1 月 30 日节目播出前由 NBC 发布的文字稿中,霍尔特要求纳德拉对"互联网上充斥着泰勒-斯威夫特(Taylor Swift)的虚假色情图片做出回应。纳德拉的回答成功地揭开了科技政策的几个谜团,但对这些谜团却知之甚少在没有万全之策的情况下,这也不足为奇。我想说两点:第一,我再次回到我认为的我们的责任上,那就是我们需要在技术周围设置所有的防护栏,以便生产出更安全的内容。有很多事情要做,也有很多事情正在做。但是,这关系到全球、社会你知道,我会说,在某些规范上的趋同。我们可以做到尤其是当法律、执法部门和科技平台能够走到一起的时候我认为我们能够管理的东西比我们想象的要多得多,我们给自己的信任也比我们想象的要多得多。而微软本身就可能与伪造的斯威夫特图片有关。404 Media 的 一份报告显示,这些图片来自一个基于 Telegram 的色情内容制作社区,该社区推荐使用 Microsoft Designer 图片生成器。从理论上讲,Designer 拒绝生成名人图片,但人工智能生成器很容易被欺骗,404 发现只要对提示稍作调整,就可以打破它的限制。虽然这并不能证明Taylor Swift的图片是用 Designer 制作的,但这是微软可以解决的技术缺陷。但是,人工智能工具大大简化了制造真人假裸照的过程,这给那些权力和名气远不如Taylor Swift的女性带来了极大的麻烦。而控制其生产并不像让大公司加强防护那么简单。即使像微软这样的"大科技"平台被锁定,人们也可以重新训练像 Stable Diffusion 这样的开放工具来生成NSFW 图片,尽管有人试图增加这种难度。访问这些生成器的用户可能要少得多,但 Swift 事件表明,一个小社区的工作可以传播得多么广泛。纳德拉模糊地暗示了更大的社会和政治变革,然而,尽管在监管人工智能方面有一些早期举措,但微软并没有明确的解决方案。一般来说,立法者和执法部门都在为如何处理未经同意的性相关图像而苦苦挣扎,而人工智能的伪造又增加了额外的复杂性。一些立法者正试图重新调整公开权法来解决这一问题,但所提出的解决方案往往会给言论带来严重风险。白宫呼吁就这一问题采取"立法行动",但即使是白宫,也没有提供太多关于这意味着什么的细节。还有其他权宜之计比如社交网络限制未经同意的图片的传播范围,不过目前,纳德拉唯一明确的计划就是把微软自己的人工智能部门打理得更井井有条。相关文章:泰勒·斯威夫特AI色情图在X平台疯传 公司正面临欧盟调查白宫呼吁立法制止制作与散播Taylor Swift的AI虚假图片行为 ... PC版: 手机版:

相关推荐

封面图片

伪造的Taylor Swift露骨图片在网上被分享引发国会议员关注

伪造的Taylor Swift露骨图片在网上被分享引发国会议员关注 34 岁的女歌手泰勒-斯威夫特(Taylor Swift)的露骨图片本周被分享到 X 频道,在发布图片的账户被关闭之前,已获得超过 2700 万次浏览和 26 万个"赞"。但这并没有阻止图片的传播,因为这些图片仍在继续传播,据说已被浏览了 4000 多万次。针对这一事件,X 一直在积极删除这些图片,并禁止在该平台上搜索Taylor Swift,试图遏制其传播。该公司在一份声明中说:"我们正密切关注事态发展,确保立即处理任何进一步的违规行为,并删除相关内容。"但平台上的节制可能还不够。现在,美国国会议员甚至白宫都对这一问题发表了看法。美国众议员乔-莫雷勒(Joe Morelle)表示,AI伪造图片会造成无法挽回的情感、经济和声誉伤害不幸的是,女性受到的影响尤为严重"。民主党代表伊薇特-克拉克(Yvette Clark)说:"泰勒-斯威夫特的遭遇并不新鲜。多年来,女性一直是[未经]她们同意的深度伪造的目标。随着人工智能的进步,制造深度假新闻变得更加容易和廉价"。泰勒-斯威夫特的遭遇并不新鲜。多年来,未经女性同意,她们一直是深度伪造的目标。而随着人工智能的进步,制造深度假新闻变得更加容易和便宜。这是一个两党甚至斯威夫特人都应该能够共同解决的问题。- 伊薇特-D-克拉克(@RepYvetteClarke)2024 年 1 月 25 日正如克拉克众议员所说,这并不是一个新问题。但有了这样一个高调的目标,这个问题已经成为公众讨论的焦点,现在可能成为未来立法的目标。周五,白宫新闻秘书卡琳-让-皮埃尔(Karine Jean-Pierre)称这些图片"令人震惊",并在一份声明中说:"虽然社交媒体公司在内容管理方面做出了自己的独立决定,但我们认为它们在执行自己的规则以防止错误信息和未经同意的真人私密图片传播方面可以发挥重要作用。"在英国,2023 年 10 月,根据《网络安全法》,露骨的深度伪造是非法的。PornHub 是一家主要的在线成人媒体提供商,自 2018 年起禁止在其平台上发布AI生成的假新闻。Swift女士尚未对此事件发表公开评论。无论最近这起备受瞩目的事件是否会导致立法改革,人工智能内容显然已经给法律制定者带来了问题。就在本周,我们报道了第一起已知的人工智能生成的信息被用于压制选民投票率的事件,当时假冒的拜登总统打电话给新罕布什尔州的居民,敦促他们不要投票。 ... PC版: 手机版:

封面图片

X似乎已经阻止了对Taylor Swift关键词的搜索 但很容易绕过

X似乎已经阻止了对Taylor Swift关键词的搜索 但很容易绕过 在Platformer的凯西-牛顿(Casey Newton)发现了这一变化后,我们尝试了其他一些关键词的搜索。如果 X 是有意阻止搜索人工智能生成的斯威夫特非法图片,那么它似乎并没有走多远。这是因为,如果你遇到了一个被屏蔽的搜索词,并决定花最起码的力气去尝试其他词,就可以轻松绕过它。例如,"Taylor AI Swift"或简单地在她的名字周围加上引号都能返回结果。甚至在一个看似被屏蔽的搜索词上再加一个词,也能得到结果。更重要的是,虽然帖子可能被阻止搜索,但与之相关的媒体显然没有被阻止搜索点击"媒体"选项卡可以看到大量图片。有报道称,Taylor Swift正在考虑对托管这些图片的网站采取法律行动。微软首席执行官萨蒂亚-纳德拉(Satya Nadella)昨天在接受美国全国广播公司晚间新闻采访时称Deepfake所做所为"令人震惊,非常可怕",并表示他认为人工智能公司需要"快速行动",建立更好的防护机制。 ... PC版: 手机版:

封面图片

微软发布首份年度人工智能透明度报告

微软发布首份年度人工智能透明度报告 所有这些活动也让许多人感到担忧,认为像微软 开发的人工智能工具可能会被用于不道德或非法行为。今天,微软在一篇博客文章中宣布,它已经发布了第一份计划中的年度透明度报告,介绍其目前负责任的人工智能实践。微软总裁 Brad Smith 在博文中表示:这份报告使我们能够分享我们日趋成熟的实践,反思我们所学到的东西,规划我们的目标,对自己负责,并赢得公众的信任。八年来,我们一直在负责任的人工智能领域不断创新,在发展我们的计划的同时,我们也从过去的经验中吸取教训,不断改进。这份PDF格式的报告详细介绍了微软 在多个领域为其服务提供负责任的人工智能实践,并对员工进行了使用培训。报告指出:2023 年版的《商业行为标准》培训是全公司必修的商业道德课程,涵盖了我们的员工用于安全开发和部署人工智能的资源。截至 2023 年 12 月 31 日,99% 的员工完成了这一课程,包括负责任的人工智能模块。微软还成立了负责任的人工智能委员会,定期召开会议,目的是不断改进工作,确保人工智能服务的安全。公司还有一个"负责任的人工智能冠军"计划,要求其成员发现并解决人工智能产品中存在的问题,并就负责任的做法向其他成员提供指导。报告还举例说明了负责任的人工智能程序如何影响其产品的创建和开发。其中一个例子涉及微软 Designer,这款人工智能图像创建应用程序据说被不明人士用来制作流行歌手泰勒-斯威夫特(Taylor Swift)的露骨"深度伪造"图像,后来在互联网上疯传。微软说,它要求新闻团体 NewsGuard 在 Designer 中输入提示,"创建强化或描绘与政治、国际事务和选举有关的突出虚假叙述的视觉效果"。结果,在 Designer 创建的图片中,有 12%"包含有问题的内容"。微软对 Designer 进行了修改,试图避免出现这些图片,效果是有问题图片的数量降到了3.6%。了解更多: ... PC版: 手机版:

封面图片

马斯克的X平台恢复霉霉相关搜索功能

马斯克的X平台恢复霉霉相关搜索功能 X的业务运营主管乔·贝纳罗克(Joe Benarroch)表示:“搜索功能已经重新启用,我们将继续对传播此类内容的企图保持警惕,并将在我们发现的任何地方删除。”上周,由人工智能生成的斯威夫特“不雅”照片在X网站上疯传,吸引了数千万浏览量。相关文章:X似乎已经阻止了对Taylor Swift关键词的搜索 但很容易绕过 ... PC版: 手机版:

封面图片

DeepMind:政治深度伪造居恶意使用人工智能榜首

DeepMind:政治深度伪造居恶意使用人工智能榜首 谷歌旗下 DeepMind 部门首次对人工智能最常见的恶意使用情况进行的研究显示,利用人工智能生成的“深度伪造”冒充政客和名人,远比利用人工智能协助网络攻击的行为普遍得多。该研究表示,制作逼真的假冒人物图像、视频和音频的情况几乎是第二高频率滥用生成式人工智能工具情况的两倍:使用聊天机器人等基于文本的工具伪造信息,生成虚假信息并发布到网上。分析发现,行为者滥用生成式人工智能的最常见目标是塑造或影响公众舆论。这一占到使用的27%,加剧了人们对深度伪造可能影响今年全球选举的担忧。

封面图片

Taylor Swift假图风波后 美国国会议员提出反非自愿人工智能色情法案

Taylor Swift假图风波后 美国国会议员提出反非自愿人工智能色情法案 法案由迪克·德宾 (伊利诺伊州参议员), 林赛-格雷厄姆(Lindsey Graham)(南卡罗来纳州参议员)、艾米-克洛布查尔(Amy Klobuchar)(明尼苏达州参议员)和乔什-霍利(Josh Hawley)(密苏里州参议员)共同提出。该法案以《2022 年暴力侵害妇女法案再授权法案》(Violence Against Women Act Reauthorization Act of 2022)中的一项条款为基础,该法案为非伪造的露骨图片增加了类似的诉权。在一份摘要中,提案人将其描述为对"呈指数级"增长的数字篡改露骨人工智能图像的回应,并将斯威夫特的案例作为一个例子,说明假图像如何"被用来剥削和骚扰女性尤其是公众人物、政客和名人"。色情人工智能操纵图像经常被称为深度伪造图像(deepfakes),自2017 年该术语出现以来,其受欢迎程度和复杂程度都在不断提高。现成的生成式人工智能工具使它们的制作变得更加容易,即使是在具有防止露骨图像或冒充的防护栏的系统上也是如此,它们已被用于骚扰和勒索。但到目前为止,美国许多地方还没有明确的法律补救措施。几乎所有的州都通过了禁止未经同意的非模拟色情制品的法律,尽管这个过程很缓慢。而针对模拟图像生成的法律则少得多。但这是乔-拜登(Joe Biden)总统人工智能监管议程的一部分,白宫新闻秘书卡琳-让-皮埃尔(Karine Jean-Pierre)呼吁国会通过新法律,以应对上周发生的泰勒-斯威夫特(Taylor Swift)事件。《DEFIANCE》法案是专门针对人工智能生成的图像提出的,但也并不局限于这些图像。该法案将任何通过"软件、机器学习、人工智能或任何其他计算机生成或技术手段......在合理的人看来与真实的个人视觉描述无异的亲密性图像(基本规则中定义的术语)视为伪造。"这包括被修改成具有性暗示的真实图片。其措辞似乎也适用于像 Photoshop 这样的老式工具,只要结果足够逼真即可。添加一个标注图片不真实的标签也不能免除责任。国会议员们已经提出了许多针对人工智能和未经同意的色情制品的法案,但大多数尚未获得通过。本月早些时候,立法者提出了《禁止人工智能欺诈法案》(No AI FRAUD Act),这是一项极为广泛的禁令,禁止未经许可使用技术模仿他人。不过,一刀切的模仿规则会引发艺术表达方面的巨大问题;它可能会让有权势的人物对政治模仿、重演或创造性的虚构处理提起诉讼。《DEFIANCE》可能会引发一些同样的问题,但它的限制要大得多尽管它的通过仍面临着一场艰苦的战斗。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人