微软开始屏蔽导致其人工智能工具生成暴力和性相关的某些术语

微软开始屏蔽导致其人工智能工具生成暴力和性相关的某些术语 CNBC周三的调查中提到的"pro choice"、"pro choce"[原文如此] 和"four twenty"等提示语以及"pro life"一词现在都被屏蔽了。此外,还出现了多次违反政策导致工具被暂停的警告,而在周五之前还没有遇到过这种情况。Copilot 警告提示说:"此提示已被阻止。"我们的系统自动标记了此提示,因为它可能与我们的内容政策相冲突。更多违反政策的行为可能会导致您的访问被自动暂停。如果您认为这是一个错误,请报告以帮助我们改进。"现在,该人工智能工具还阻止了生成青少年或儿童手持冲锋枪玩刺客游戏图片的请求,这与本周早些时候相比有了明显的变化,它表示:"很抱歉,我不能生成这样的图片。这违反了我的道德原则和微软的政策。请不要要求我做任何可能伤害或冒犯他人的事情。感谢您的合作。"微软发言人在接受CNBC采访时表示:"我们正在不断监测、调整和实施更多控制措施,以进一步加强我们的安全过滤器,减少对系统的滥用。"最初对人工智能表示担忧的微软人工智能工程负责人谢恩-琼斯(Shane Jones)花了几个月的时间测试Copilot Designer,这是微软于2023年3月首次推出的人工智能图片生成器,由OpenAI的技术提供支持。与 OpenAI 的DALL-E 一样,用户输入文字提示来创建图片。用户可以尽情发挥创造力。但自从琼斯在 12 月份开始积极测试该产品的漏洞(这种做法被称为"红队")以来,他发现该工具生成的图片远远违背了微软经常引用的负责任人工智能原则。该人工智能服务在描绘妖魔鬼怪的同时,还使用了与堕胎权利、手持冲锋枪的青少年、暴力场景中的女性性爱图像以及未成年人酗酒和吸毒有关的术语。本周,CNBC 使用 Copilot 工具(原名必应图像创建器)重现了过去三个月中生成的所有这些场景。尽管一些特定的提示已被屏蔽,但 CNBC 报道的许多其他潜在问题依然存在。车祸"一词会出现血泊、脸部变异的尸体,以及在暴力现场拿着相机或饮料的女性,有时还戴着腰部训练器。而"车祸"一词仍然会让人联想到穿着暴露、蕾丝花边服装、坐在破旧汽车顶上的女性。该系统还仍然很容易侵犯版权,例如创建迪斯尼人物形象,如《冰雪奇缘》中的艾莎,在据称是加沙地带的残破建筑物前手持巴勒斯坦国旗,或身着以色列国防军军服手持机枪。琼斯对自己的经历感到非常震惊,于是他从 12 月份开始在公司内部报告自己的发现。虽然公司承认了他的担忧,但不愿让该产品退出市场。琼斯说,微软把他推荐给了 OpenAI,当他没有收到公司的回复时,他在 LinkedIn 上发布了一封公开信,要求这家初创公司的董事会下架 DALL-E 3(最新版本的人工智能模型),以便进行调查。他说,微软的法律部门让琼斯立即撤下他的职位,他照做了。今年 1 月,他就此事致信美国参议员,随后会见了参议院商业、科学和运输委员会的工作人员。本周三,琼斯将他的担忧进一步升级,致信美国联邦贸易委员会主席莉娜-汗(Lina Khan),并致信微软董事会。 ... PC版: 手机版:

相关推荐

封面图片

微软工程师警告公司的人工智能工具会创建暴力、色情、无视版权的图像

微软工程师警告公司的人工智能工具会创建暴力、色情、无视版权的图像 Shane Jones 是微软的一名主管工程经理,他发现了公司的生成式 AI 生成非常容易地生成了恶魔和怪物,以及与堕胎权、携带突击步枪的青少年、暴力场景中的女性色情图像以及未成年人饮酒和吸毒等与公司安全承诺相悖的图像;并且模型还能轻易生成存在版权问题的图片,比如迪士尼的角色。CNBC 本周使用 Copilot 工具(最初称为 Bing Image Creator)依然可以重新生成的所有这些场景。 琼斯在12月开始在内部报告他的发现,虽然微软承认他的担忧,但它不愿意将产品从市场上撤下。微软将他引荐给 OpenAI,当他没有收到该公司的回复时,他在 LinkedIn 上发布了一封公开信,要求 OpenAI 撤下 DALL-E 3 进行调查。在微软的法律部门要求他删除该文章之后,他就此事写了一封信给美国参议员,随后会见了参议院多个委员会的工作人员。现在,他进一步升级了行动,向联邦贸易委员会(FTC)和微软董事会发送了一封信,要求在为模型添加新的安全护栏之前暂时停止其服务,并向公众披露模型所存在的风险。

封面图片

Meta 为营销人员提供新的人工智能工具来创建广告活动

Meta 为营销人员提供新的人工智能工具来创建广告活动 Facebook 和 Instagram 的母公司 Meta 正在测试新工具,这些工具可以让广告商使用生成式人工智能提示创建营销材料,包括图片和信息。如果广告商上传了他们产品的照片,Meta 的人工智能工具现在可以为该产品生成新的、不同的图像,用于营销目的。对于一些广告商来说,这个功能已经上线了。该公司周二表示,在接下来的几个月里,营销人员还将能够使用文本提示来创建不同版本的原始图像。 、

封面图片

Google推出人工智能图像生成工具TextFX

Google推出人工智能图像生成工具TextFX Google在一篇博文中写道:"ImageFX 专为实验和创意而设计,它可以让你通过简单的文字提示来创建图片,然后通过使用表现力芯片的新提示方式轻松修改图片。"Google声称,它已采取措施确保 TextFX 不会被以非预期的方式使用,例如通过添加"技术保障"来限制"有问题的输出",如暴力、攻击性和色情内容。TextFX 还为"指定人物"(可能是公众人物)设置了一个提示级过滤器尽管Google在其新闻材料中并没有特别明确这一点。"我们从一开始就对训练数据的安全性进行了投资,"Google说。"根据我们的人工智能原则,我们还进行了广泛的对抗性测试和红队合作,以识别和减少潜在的有害和有问题的内容"。作为一项额外的安全措施,Google在使用ImageFX制作的图片上标注了SynthID数字水印,据称这种数字水印对图片编辑和裁剪具有很强的抵御能力。Google在博文中继续介绍道:"SynthID 水印肉眼无法察觉,但可用于识别。通过'关于此图片'中增加的洞察力,当你在Google搜索或 Chrome 浏览器中看到一张图片时,你就会知道它是否可能是由Google的人工智能工具生成的。"你可以在Google用于人工智能实验项目的网络应用程序 AI Test Kitchen 中找到 ImageFX。Imagen 2 扩展在今天的相关新闻中,Google表示,从本周开始,它将把 Imagen 2 带到更多的产品和服务中,包括下一代人工智能搜索体验和人工智能托管服务 Vertex AI 系列。现在,Imagen 2 还支持Google广告中的文本到图片功能和Google GenAI 生产力产品套件 Workspace 中的 Duet AI,它已经进入了Google的 SGE(搜索生成体验)。SGE 于去年 10 月开始在Google图片搜索中为用户提供图片生成工具,现在则利用 Imagen 2 生成图片。用户可以输入一个提示,说明他们想要什么样的图片,SGE 会在 SGE 对话体验中直接返回四个结果。Imagen 2 的另一个样本在 Vertex AI 中,Imagen 2 可通过 API 提供给Google云客户。在其他地方,Imagen 2 现在可以通过Google的人工智能聊天机器人 Bard 调用。Google解释说:"有了Imagen 2,Bard可以理解简单或复杂的提示,这样你就可以生成一系列高质量的图像。只需输入一个描述比如'创建一个狗骑冲浪板的图像'Bard就会生成定制的、范围广泛的视觉图像,帮助你把想法变为现实。"Google仍未透露用于训练 Imagen 2 的数据,这并不令人意外。像Google这样的 GenAI 供应商是否可以在公开数据(甚至是受版权保护的数据)上训练模型,然后再将该模型商业化,这是一个未决的法律问题。相关诉讼正在法院审理中,供应商认为他们受到合理使用原则的保护。但尘埃落定尚需时日。与此同时,Google对此事保持沉默,以策安全。 ... PC版: 手机版:

封面图片

微软发布首份年度人工智能透明度报告

微软发布首份年度人工智能透明度报告 所有这些活动也让许多人感到担忧,认为像微软 开发的人工智能工具可能会被用于不道德或非法行为。今天,微软在一篇博客文章中宣布,它已经发布了第一份计划中的年度透明度报告,介绍其目前负责任的人工智能实践。微软总裁 Brad Smith 在博文中表示:这份报告使我们能够分享我们日趋成熟的实践,反思我们所学到的东西,规划我们的目标,对自己负责,并赢得公众的信任。八年来,我们一直在负责任的人工智能领域不断创新,在发展我们的计划的同时,我们也从过去的经验中吸取教训,不断改进。这份PDF格式的报告详细介绍了微软 在多个领域为其服务提供负责任的人工智能实践,并对员工进行了使用培训。报告指出:2023 年版的《商业行为标准》培训是全公司必修的商业道德课程,涵盖了我们的员工用于安全开发和部署人工智能的资源。截至 2023 年 12 月 31 日,99% 的员工完成了这一课程,包括负责任的人工智能模块。微软还成立了负责任的人工智能委员会,定期召开会议,目的是不断改进工作,确保人工智能服务的安全。公司还有一个"负责任的人工智能冠军"计划,要求其成员发现并解决人工智能产品中存在的问题,并就负责任的做法向其他成员提供指导。报告还举例说明了负责任的人工智能程序如何影响其产品的创建和开发。其中一个例子涉及微软 Designer,这款人工智能图像创建应用程序据说被不明人士用来制作流行歌手泰勒-斯威夫特(Taylor Swift)的露骨"深度伪造"图像,后来在互联网上疯传。微软说,它要求新闻团体 NewsGuard 在 Designer 中输入提示,"创建强化或描绘与政治、国际事务和选举有关的突出虚假叙述的视觉效果"。结果,在 Designer 创建的图片中,有 12%"包含有问题的内容"。微软对 Designer 进行了修改,试图避免出现这些图片,效果是有问题图片的数量降到了3.6%。了解更多: ... PC版: 手机版:

封面图片

TikTok将自动标记人工智能生成的内容

TikTok将自动标记人工智能生成的内容 访问:Saily - 使用eSIM实现手机全球数据漫游 安全可靠 源自NordVPN 该社交视频平台正在通过实施内容凭证(Content Credentials)来实现这一目标,内容凭证是内容出处和真实性联盟(C2PA)的一项技术,该联盟由微软和 Adobe 共同创立。内容凭证将特定的元数据附加到内容上,TikTok 可以利用这些元数据即时识别和标记人工智能生成的内容。因此,TikTok 将开始自动标注上传到平台并附加内容证书的人工智能生成内容。这一变更将于本周四推出,并将在未来几周内适用于全球所有用户。虽然 TikTok 已经对使用 TikTok AI 特效制作的 内容进行了标注,但现在它也将对在其他已实施内容证书的平台上制作的内容进行标注,如 OpenAI 的 DALL-E 3 和微软的必应图像创建器。 微软、Adobe 和 OpenAI 已经开始使用内容证书,Google也承诺支持内容证书。尽管 TikTok 已经要求创作者在发布使用人工智能创建或增强的内容时进行披露,但该公司表示,新的变化是确保人工智能生成的内容被标注的另一种方式,同时也减轻了创作者的压力。在未来几个月中,TikTok 还将开始为平台上使用 TikTok 人工智能特效创建的人工智能生成内容附加内容证书。内容证书元数据将包括人工智能生成内容的制作或编辑地点和方式的详细信息,下载后仍将附加在内容上。采用内容凭证的其他平台将能自动将内容标记为人工智能生成的内容。因此,虽然 TikTok 承诺在自己的服务中标注人工智能内容,但它也在努力帮助确保在 TikTok 中制作的人工智能内容在发布到其他平台时也能准确标注。TikTok 运营及信任与安全主管 Adam Presser 在一份新闻稿中表示:"人工智能生成的内容是一个令人难以置信的创意出口,但对观众而言,透明度至关重要。通过与同行合作跨平台标注内容,我们让创作者更容易负责任地探索人工智能生成的内容,同时继续阻止 TikTok 上禁止的有害或误导性 AIGC。"TikTok 宣称自己是第一个采用内容凭证技术的视频分享平台。值得一提的是,Meta早在今年二月就宣布,计划在 C2PA 的解决方案基础上为内容添加出处。作为周四公告的一部分,TikTok 表示将致力于打击在选举中使用欺骗性人工智能的行为,其政策坚决禁止人工智能生成的有害误导性内容无论是否贴有标签。 ... PC版: 手机版:

封面图片

TikTok 将自动标记更多人工智能生成内容

TikTok 将自动标记更多人工智能生成内容 TikTok 正在加大力度在其应用中自动标记人工智能生成的内容,即使这些内容是使用第三方工具创建的。该公司宣布计划支持「内容凭证(content credentials)」,这是一种表明使用了生成式人工智能的数字水印。TikTok 的规则已经要求创作者披露“逼真的”人工智能生成内容。但这项政策可能很难执行,特别是当创作者使用其他公司的人工智能工具时。但由于内容凭证在整个人工智能行业中越来越多地使用,TikTok 的新自动化标签应该能够弥补其中的一些差距。TikTok 称,该公司将是第一个支持内容凭证的视频平台。谷歌、微软、OpenAI 和 Adobe 都承诺支持内容凭证。 、

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人