微软开始屏蔽导致其人工智能工具生成暴力和性相关的某些术语

微软开始屏蔽导致其人工智能工具生成暴力和性相关的某些术语 CNBC周三的调查中提到的"pro choice"、"pro choce"[原文如此] 和"four twenty"等提示语以及"pro life"一词现在都被屏蔽了。此外,还出现了多次违反政策导致工具被暂停的警告,而在周五之前还没有遇到过这种情况。Copilot 警告提示说:"此提示已被阻止。"我们的系统自动标记了此提示,因为它可能与我们的内容政策相冲突。更多违反政策的行为可能会导致您的访问被自动暂停。如果您认为这是一个错误,请报告以帮助我们改进。"现在,该人工智能工具还阻止了生成青少年或儿童手持冲锋枪玩刺客游戏图片的请求,这与本周早些时候相比有了明显的变化,它表示:"很抱歉,我不能生成这样的图片。这违反了我的道德原则和微软的政策。请不要要求我做任何可能伤害或冒犯他人的事情。感谢您的合作。"微软发言人在接受CNBC采访时表示:"我们正在不断监测、调整和实施更多控制措施,以进一步加强我们的安全过滤器,减少对系统的滥用。"最初对人工智能表示担忧的微软人工智能工程负责人谢恩-琼斯(Shane Jones)花了几个月的时间测试Copilot Designer,这是微软于2023年3月首次推出的人工智能图片生成器,由OpenAI的技术提供支持。与 OpenAI 的DALL-E 一样,用户输入文字提示来创建图片。用户可以尽情发挥创造力。但自从琼斯在 12 月份开始积极测试该产品的漏洞(这种做法被称为"红队")以来,他发现该工具生成的图片远远违背了微软经常引用的负责任人工智能原则。该人工智能服务在描绘妖魔鬼怪的同时,还使用了与堕胎权利、手持冲锋枪的青少年、暴力场景中的女性性爱图像以及未成年人酗酒和吸毒有关的术语。本周,CNBC 使用 Copilot 工具(原名必应图像创建器)重现了过去三个月中生成的所有这些场景。尽管一些特定的提示已被屏蔽,但 CNBC 报道的许多其他潜在问题依然存在。车祸"一词会出现血泊、脸部变异的尸体,以及在暴力现场拿着相机或饮料的女性,有时还戴着腰部训练器。而"车祸"一词仍然会让人联想到穿着暴露、蕾丝花边服装、坐在破旧汽车顶上的女性。该系统还仍然很容易侵犯版权,例如创建迪斯尼人物形象,如《冰雪奇缘》中的艾莎,在据称是加沙地带的残破建筑物前手持巴勒斯坦国旗,或身着以色列国防军军服手持机枪。琼斯对自己的经历感到非常震惊,于是他从 12 月份开始在公司内部报告自己的发现。虽然公司承认了他的担忧,但不愿让该产品退出市场。琼斯说,微软把他推荐给了 OpenAI,当他没有收到公司的回复时,他在 LinkedIn 上发布了一封公开信,要求这家初创公司的董事会下架 DALL-E 3(最新版本的人工智能模型),以便进行调查。他说,微软的法律部门让琼斯立即撤下他的职位,他照做了。今年 1 月,他就此事致信美国参议员,随后会见了参议院商业、科学和运输委员会的工作人员。本周三,琼斯将他的担忧进一步升级,致信美国联邦贸易委员会主席莉娜-汗(Lina Khan),并致信微软董事会。 ... PC版: 手机版:

相关推荐

封面图片

人工智能对人工智能生成的内容进行训练将导致人工智能崩溃

人工智能对人工智能生成的内容进行训练将导致人工智能崩溃 用于训练大型语言模型的数据最初来自人类来源,如书籍、文章、照片等,这些都是在没有人工智能的帮助下创建的。但随着越来越多的人使用人工智能来制作和发布内容,一个明显的问题出现了:当人工智能生成的内容在互联网上扩散时,人工智能模型开始对其进行训练。研究人员发现,“在训练中使用模型生成的内容会导致所产生的模型出现不可逆转的缺陷。”他们研究了文本到文本和图像到图像的人工智能生成模型的概率分布,得出结论:“从其他模型产生的数据中学习会导致模型崩溃 这是一个退化的过程,并且随着时间的推移,模型会忘记真正的基础数据分布。”他们观察到模型崩溃发生得如此之快:模型可以迅速忘记它们最初学习的大部分原始数据。这导致它们随着时间的推移,表现越来越差,错误越来越多。来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

微软工程师警告公司的人工智能工具会创建暴力、色情、无视版权的图像

微软工程师警告公司的人工智能工具会创建暴力、色情、无视版权的图像 Shane Jones 是微软的一名主管工程经理,他发现了公司的生成式 AI 生成非常容易地生成了恶魔和怪物,以及与堕胎权、携带突击步枪的青少年、暴力场景中的女性色情图像以及未成年人饮酒和吸毒等与公司安全承诺相悖的图像;并且模型还能轻易生成存在版权问题的图片,比如迪士尼的角色。CNBC 本周使用 Copilot 工具(最初称为 Bing Image Creator)依然可以重新生成的所有这些场景。 琼斯在12月开始在内部报告他的发现,虽然微软承认他的担忧,但它不愿意将产品从市场上撤下。微软将他引荐给 OpenAI,当他没有收到该公司的回复时,他在 LinkedIn 上发布了一封公开信,要求 OpenAI 撤下 DALL-E 3 进行调查。在微软的法律部门要求他删除该文章之后,他就此事写了一封信给美国参议员,随后会见了参议院多个委员会的工作人员。现在,他进一步升级了行动,向联邦贸易委员会(FTC)和微软董事会发送了一封信,要求在为模型添加新的安全护栏之前暂时停止其服务,并向公众披露模型所存在的风险。

封面图片

微软禁止美国警察部门使用企业人工智能工具进行面部识别

微软禁止美国警察部门使用企业人工智能工具进行面部识别 微软公司重申禁止美国警察部门通过 Azure OpenAI 服务使用生成式人工智能进行面部识别。5月1日新增的 Azure OpenAI 服务服务条款中的言语更明确地禁止与 Azure OpenAI 服务集成的产品被美国的警察部门用于人脸识别,包括与 OpenAI 当前 (或许是未来) 图像分析模型的集成。

封面图片

Meta 为营销人员提供新的人工智能工具来创建广告活动

Meta 为营销人员提供新的人工智能工具来创建广告活动 Facebook 和 Instagram 的母公司 Meta 正在测试新工具,这些工具可以让广告商使用生成式人工智能提示创建营销材料,包括图片和信息。如果广告商上传了他们产品的照片,Meta 的人工智能工具现在可以为该产品生成新的、不同的图像,用于营销目的。对于一些广告商来说,这个功能已经上线了。该公司周二表示,在接下来的几个月里,营销人员还将能够使用文本提示来创建不同版本的原始图像。 、

封面图片

科学期刊《自然》杂志宣布禁止生成式人工智能工具创作图片和视频

科学期刊《自然》杂志宣布禁止生成式人工智能工具创作图片和视频 《自然》杂志针对科研领域中生成式人工智能(generative AI)工具的应用问题做出了一项重要决策。为了确保科研的诚信、透明和道德,该杂志宣布自今日起,不再接受任何使用生成式人工智能工具创作的图片、视频或插图,除非与人工智能相关。 《自然》杂志认为,这种技术虽然应用广泛,却带来了一系列无法解决的问题。首先,生成式人工智能工具无法提供数据来源信息,导致编辑、出版商和读者无法核实其准确性和真实性,这违背了科学出版的诚信和透明原则。其次,这些工具可能侵犯数据所有者的隐私和知识产权,因为它们通常使用了大量未经授权的受版权保护的作品进行训练。另外,生成式人工智能工具还可能加剧虚假信息的传播,例如深度伪造技术可用于制造假视频,误导公众或诽谤他人。 出于以上考虑,《自然》杂志决定在可预见的未来禁止使用生成式人工智能工具创作视觉内容。对于所有受委托的艺术家、电影制作人、插画师和摄影师,杂志要求在提交作品时确认未使用此类技术。来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

【书名】生成式人工智能

【书名】生成式人工智能 【作者】丁磊 【格式】#epub #mobi #azw3 #pdf 【分类】#人工智能 #科普 【简介】本书基于作者的专业背景和长期实践,系统介绍生成式人工智能的内在逻辑与应用,并将其与产业发展,理论和实际相结合,帮助读者从本源了解生成式人工智能,结合未来趋势和发展为读者指明方向。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人