微软工程师警告公司的人工智能工具会创建暴力、色情、无视版权的图像

微软工程师警告公司的人工智能工具会创建暴力、色情、无视版权的图像 Shane Jones 是微软的一名主管工程经理,他发现了公司的生成式 AI 生成非常容易地生成了恶魔和怪物,以及与堕胎权、携带突击步枪的青少年、暴力场景中的女性色情图像以及未成年人饮酒和吸毒等与公司安全承诺相悖的图像;并且模型还能轻易生成存在版权问题的图片,比如迪士尼的角色。CNBC 本周使用 Copilot 工具(最初称为 Bing Image Creator)依然可以重新生成的所有这些场景。 琼斯在12月开始在内部报告他的发现,虽然微软承认他的担忧,但它不愿意将产品从市场上撤下。微软将他引荐给 OpenAI,当他没有收到该公司的回复时,他在 LinkedIn 上发布了一封公开信,要求 OpenAI 撤下 DALL-E 3 进行调查。在微软的法律部门要求他删除该文章之后,他就此事写了一封信给美国参议员,随后会见了参议院多个委员会的工作人员。现在,他进一步升级了行动,向联邦贸易委员会(FTC)和微软董事会发送了一封信,要求在为模型添加新的安全护栏之前暂时停止其服务,并向公众披露模型所存在的风险。

相关推荐

封面图片

狡猾的人工智能模型故意破坏训练图像以规避版权问题

狡猾的人工智能模型故意破坏训练图像以规避版权问题 Ambient Diffusion 是一种文本到图像的人工智能模型,它通过使用严重破坏的图像来保护艺术家的版权。文本到图像生成器的一个大问题是,它们能够复制用来训练它们的原创作品,从而侵犯艺术家的版权。根据美国法律,如果你创作了原创作品并将其"固定"为有形的形式,你就拥有了它的版权字面意思是复制它的权利。在大多数情况下,未经创作者授权,不得使用受版权保护的图片。今年5 月,Google母公司 Alphabet 遭到一群艺术家的集体版权诉讼,声称Google未经许可使用了他们的作品来训练其人工智能图像生成器 Imagen。Stability AI、Midjourney 和 DeviantArt(它们都使用了 Stability 的 Stable Diffusion 工具)也面临着类似的诉讼。为了避免这个问题,德克萨斯大学奥斯汀分校和加州大学伯克利分校的研究人员开发了一种基于扩散的生成式人工智能框架,该框架只对已损坏到无法识别的图像进行训练,从而消除了人工智能记忆和复制原创作品的可能性。扩散模型是一种先进的机器学习算法,它通过向数据集逐步添加噪声来生成高质量的数据,然后学习逆转这一过程。最近的研究表明,这些模型可以记忆训练集中的示例。这显然会对隐私、安全和版权产生影响。这里有一个与艺术品无关的例子:人工智能需要接受 X 光扫描训练,但不能记住特定病人的图像,否则就会侵犯病人的隐私。为了避免这种情况,模型制作者可以引入图像损坏。研究人员利用他们的环境扩散框架证明,只需使用高度损坏的样本,就能训练扩散模型生成高质量的图像。根据"干净"(左)和损坏(右)的训练图像生成的环境扩散输出结果上图显示了在使用损坏时图像输出的差异。研究人员首先用 CelebA-HQ 高质量名人图片数据库中的 3000 张"干净"图片对模型进行了训练。根据提示,该模型生成的图像与原图几乎完全相同(左图)。然后,他们使用 3000 张高度损坏的图像对模型进行了重新训练,其中多达 90% 的单个像素被随机屏蔽。虽然模型生成的人脸栩栩如生,但结果却大相径庭(右图)。UT奥斯汀分校计算机科学教授亚当-克里万斯(Adam Klivans)是这项研究的共同作者,他表示:"从黑洞成像到某些类型的核磁共振成像扫描,基本上任何昂贵或不可能拥有全套未损坏数据的研究都会如此。"与现有的文本到图像生成器一样,其结果并非每次都完美无缺。关键是,艺术家们知道像 Ambient Diffusion 这样的模型不会记住并复制他们的原创作品,就可以稍稍放心了。它能阻止其他人工智能模型记住并复制他们的原始图像吗?不会,但这就是法院的职责所在。研究人员已将他们的代码和环境扩散模型开源,以鼓励进一步的研究。可在GitHub 上查阅。该研究发表在预印本网站arXiv 上。 ... PC版: 手机版:

封面图片

微软开始屏蔽导致其人工智能工具生成暴力和性相关的某些术语

微软开始屏蔽导致其人工智能工具生成暴力和性相关的某些术语 CNBC周三的调查中提到的"pro choice"、"pro choce"[原文如此] 和"four twenty"等提示语以及"pro life"一词现在都被屏蔽了。此外,还出现了多次违反政策导致工具被暂停的警告,而在周五之前还没有遇到过这种情况。Copilot 警告提示说:"此提示已被阻止。"我们的系统自动标记了此提示,因为它可能与我们的内容政策相冲突。更多违反政策的行为可能会导致您的访问被自动暂停。如果您认为这是一个错误,请报告以帮助我们改进。"现在,该人工智能工具还阻止了生成青少年或儿童手持冲锋枪玩刺客游戏图片的请求,这与本周早些时候相比有了明显的变化,它表示:"很抱歉,我不能生成这样的图片。这违反了我的道德原则和微软的政策。请不要要求我做任何可能伤害或冒犯他人的事情。感谢您的合作。"微软发言人在接受CNBC采访时表示:"我们正在不断监测、调整和实施更多控制措施,以进一步加强我们的安全过滤器,减少对系统的滥用。"最初对人工智能表示担忧的微软人工智能工程负责人谢恩-琼斯(Shane Jones)花了几个月的时间测试Copilot Designer,这是微软于2023年3月首次推出的人工智能图片生成器,由OpenAI的技术提供支持。与 OpenAI 的DALL-E 一样,用户输入文字提示来创建图片。用户可以尽情发挥创造力。但自从琼斯在 12 月份开始积极测试该产品的漏洞(这种做法被称为"红队")以来,他发现该工具生成的图片远远违背了微软经常引用的负责任人工智能原则。该人工智能服务在描绘妖魔鬼怪的同时,还使用了与堕胎权利、手持冲锋枪的青少年、暴力场景中的女性性爱图像以及未成年人酗酒和吸毒有关的术语。本周,CNBC 使用 Copilot 工具(原名必应图像创建器)重现了过去三个月中生成的所有这些场景。尽管一些特定的提示已被屏蔽,但 CNBC 报道的许多其他潜在问题依然存在。车祸"一词会出现血泊、脸部变异的尸体,以及在暴力现场拿着相机或饮料的女性,有时还戴着腰部训练器。而"车祸"一词仍然会让人联想到穿着暴露、蕾丝花边服装、坐在破旧汽车顶上的女性。该系统还仍然很容易侵犯版权,例如创建迪斯尼人物形象,如《冰雪奇缘》中的艾莎,在据称是加沙地带的残破建筑物前手持巴勒斯坦国旗,或身着以色列国防军军服手持机枪。琼斯对自己的经历感到非常震惊,于是他从 12 月份开始在公司内部报告自己的发现。虽然公司承认了他的担忧,但不愿让该产品退出市场。琼斯说,微软把他推荐给了 OpenAI,当他没有收到公司的回复时,他在 LinkedIn 上发布了一封公开信,要求这家初创公司的董事会下架 DALL-E 3(最新版本的人工智能模型),以便进行调查。他说,微软的法律部门让琼斯立即撤下他的职位,他照做了。今年 1 月,他就此事致信美国参议员,随后会见了参议院商业、科学和运输委员会的工作人员。本周三,琼斯将他的担忧进一步升级,致信美国联邦贸易委员会主席莉娜-汗(Lina Khan),并致信微软董事会。 ... PC版: 手机版:

封面图片

美国版权局表示,你不能对人工智能生成的图像进行版权保护

美国版权局表示,你不能对人工智能生成的图像进行版权保护 据报道,美国版权局重新考虑了去年秋天授予克里斯蒂娜·卡什塔诺娃(Kristina Kashtanova)漫画书《黎明的扎里亚》(Zarya of the Dawn)的版权保护。它的特点是通过向人工智能图像生成器Midjourney提供文本提示来创建的图片。 部分授予的版权注册已被取消,因为它包括“非人类作者”,当初这一点没有被考虑在内。 标签: #AI #版权 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

微软禁止美国警察部门使用企业人工智能工具进行面部识别

微软禁止美国警察部门使用企业人工智能工具进行面部识别 微软公司重申禁止美国警察部门通过 Azure OpenAI 服务使用生成式人工智能进行面部识别。5月1日新增的 Azure OpenAI 服务服务条款中的言语更明确地禁止与 Azure OpenAI 服务集成的产品被美国的警察部门用于人脸识别,包括与 OpenAI 当前 (或许是未来) 图像分析模型的集成。

封面图片

大型人工智能公司同意打击虐待儿童图像

大型人工智能公司同意打击虐待儿童图像 谷歌、Meta、OpenAI、微软和亚马逊等科技公司今天承诺审查其人工智能训练数据中的儿童性虐待内容 (CSAM),并将其从任何未来模型中删除。这些公司签署了一套旨在限制 CSAM 扩散的新原则。他们承诺确保训练数据集不包含 CSAM,避免使用包含 CSAM 的高风险数据集,并从数据源中删除 CSAM 图像或指向 CSAM 的链接。这些公司还承诺对人工智能模型进行“压力测试”,以确保它们不会生成任何 CSAM 图像,并且只发布经过儿童安全评估后的模型。其他签署者包括 Anthropic、Civita、Metaphysical、Mistral AI 和 Stability AI。

封面图片

微软修改政策 禁止美国警察部门使用企业人工智能工具

微软修改政策 禁止美国警察部门使用企业人工智能工具 另外一个新的要点涵盖了"全球范围内的任何执法部门",并明确禁止在移动摄像头上使用"实时人脸识别技术",如车载摄像头和仪表盘摄像头,以试图在"不受控制的野外"环境中识别一个人。在条款发生变化的一周前,为军事和执法部门提供技术和武器产品的制造商Axon公司发布了一款新产品,该产品利用OpenAI的GPT-4生成文本模型对来自车载摄像头的音频进行总结。批评者很快就指出了其中的潜在隐患,比如幻觉(即使是当今最好的生成式人工智能模型也会编造事实)和从训练数据中引入的种族偏见(鉴于有色人种被警察拦下的几率远远高于白人同胞,这一点尤其令人担忧)。目前还不清楚Axon是否通过Azure OpenAI服务使用GPT-4,如果是,更新政策是否是为了应对Axon的产品发布。OpenAI此前曾限制通过其API使用其模型进行面部识别。不过,新条款还是为微软留出了回旋余地。全面禁止使用Azure OpenAI服务仅涉及美国警方,而非国际警方。它也不包括在后台办公室等受控环境中使用固定摄像头进行的面部识别(尽管条款禁止美国警方使用任何面部识别技术)。这与微软和亲密合作伙伴 OpenAI 最近在人工智能执法和国防合同方面的做法不谋而合。今年1月,彭博社(Bloomberg)的报道披露,OpenAI正在与五角大楼(Pentagon)就包括网络安全能力在内的多个项目展开合作这与该初创公司早前禁止向军方提供人工智能的禁令有所不同。另据《The Intercept》报道,微软已提出使用 OpenAI 的图像生成工具 DALL-E,帮助国防部(DoD)构建执行军事行动的软件。Azure OpenAI 服务于今年 2 月在微软的 Azure 政府产品中推出,为包括执法部门在内的政府机构增加了额外的合规性和管理功能。在一篇博客文章中,微软政府部门Microsoft Federal高级副总裁Candice Ling承诺,Azure OpenAI服务将向国防部"提交额外授权",用于支持国防部任务的工作负载。微软和 OpenAI 没有立即回复置评请求。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人