微软总裁布拉德·史密斯概述了打击"滥用AI生成的内容"的方针

微软总裁布拉德·史密斯概述了打击"滥用AI生成的内容"的方针 今天,微软总裁布拉德-史密斯(Brad Smith)在公司官方博客上发表了一篇文章。虽然他没有提到泰勒-斯威夫特(Taylor Swift)的深度伪造图片,也没有提到据称在创建这些图片时使用了微软 Designer,但史密斯表示,公司看到"坏人滥用这些新人工智能工具的现象正在迅速扩大"。史密斯概述了微软将重点关注的六个具体领域,以打击这类"滥用人工智能生成的内容"。首先是通过阻止特定文本提示、测试和快速禁止滥用这些工具的用户等活动,帮助提高这些工具的安全使用。微软正在研究的另一个领域是帮助识别人工智能生成的内容。史密斯表示:我们已经在必应和 Copilot 的Microsoft Designer 图像创建工具中使用了出处技术,我们正在将媒体出处扩展到我们所有创建或处理图像的工具中。公司正在研究未来的"水印和指纹技术",并努力从 LinkedIn 等服务和 Xbox 等游戏服务中删除滥用人工智能的内容。史密斯说,微软还希望与科技行业的其他企业以及执法部门合作,共同打击基于人工智能的深度伪造行为,希望与世界各国政府合作制定新的法律来禁止此类内容。与此同时,微软希望帮助教育公众识别为欺骗人们而制作的深度伪造内容,这"需要新的公众教育工具和计划",向他们展示哪些内容是真实的,哪些是虚假的。博客全文翻译如下:每天,数以百万计的人使用强大的人工智能生成工具来提升他们的创造力。在许多方面,人工智能将为我们所有人创造令人兴奋的机会,让新创意焕发生机。但是,随着这些新工具从微软和整个科技领域推向市场,我们必须采取新的措施,确保这些新技术不会被滥用。技术发展史早已证明,创造力并不局限于怀有良好愿望的人。不幸的是,工具也会变成武器,而这种模式正在重演。目前,我们正目睹坏人滥用这些新的人工智能工具,包括通过人工智能生成的视频、音频和图像进行深度伪造的行为迅速扩张。这一趋势对选举、金融欺诈、非自愿色情骚扰以及新一代网络欺凌构成了新的威胁。我们需要紧急行动起来,解决所有这些问题。令人鼓舞的是,作为一个行业,我们可以从邻近领域的经验中学到很多东西在推进网络安全、促进选举安全、打击暴力极端主义内容和保护儿童方面。作为一家技术公司,我们致力于在六个重点领域采取强有力的综合方法,保护人民和我们的社区:强大的安全架构。我们致力于采用以设计安全为基础的综合技术方法。根据不同的场景,需要在人工智能平台、模型和应用层面应用强大的安全架构。它包括持续的红队分析、先发制人的分类器、阻止滥用提示、自动测试以及快速禁止滥用系统的用户等方面。它需要以强大而广泛的数据分析为基础。微软已经建立了完善的架构,并通过我们的《负责任的人工智能和数字安全标准》分享了我们的学习成果,但随着技术的发展,我们显然需要在这些领域继续创新。持久的媒体出处和水印。这对于打击视频、图像或音频中的深度伪造至关重要。去年,我们在 Build 2023 大会上发布了媒体出处功能,该功能使用加密方法对人工智能生成的内容进行标记和签名,并附带有关其来源和历史的元数据。微软与其他领先公司一起,一直是验证出处方法研发领域的领导者,包括作为原产地项目(Project Origin)和内容出处与真实性联盟(Coalition for Content Provenance and Authenticity,C2PA)标准机构的共同创始人。就在上周,Google和 Meta 在支持 C2PA 方面迈出了重要的一步,我们对此表示赞赏和称赞。我们已经在必应和 Copilot 中的Microsoft Designer图像创建工具中使用了出处技术,我们正在将媒体出处扩展到我们所有创建或处理图像的工具中。我们还在积极探索有助于加强来源技术的水印和指纹技术。我们致力于不断创新,帮助用户快速确定图像或视频是否由人工智能生成或处理。保护我们的服务免受辱骂内容和行为的侵害。我们致力于保护言论自由。但这不应该保护那些试图伪造他人声音以诈骗老年人钱财的个人。这不应延伸至篡改政治候选人的行为或言论以欺骗公众的深度伪造行为。它也不应庇护网络恶霸或未经同意的色情制品的传播者。我们致力于识别并删除我们托管的消费者服务(如 LinkedIn、我们的游戏网络和其他相关服务)中的此类欺骗性和滥用性内容。跨行业以及与政府和民间社会的紧密合作。虽然每家公司都要对自己的产品和服务负责,但经验表明,当我们共同努力建立一个更安全的数字生态系统时,我们的工作往往会做得最好。我们致力于与技术领域的其他公司合作,包括在生成式人工智能和社交媒体领域。我们还致力于与民间团体积极合作,并与政府开展适当的合作。在前进的道路上,我们将借鉴我们在"克赖斯特彻奇呼吁"中打击暴力极端主义的经验,通过数字犯罪部门与执法部门合作,以及通过"我们保护全球联盟"和更广泛的方式更好地保护儿童。我们致力于在整个技术部门并与其他利益相关团体一起采取新的举措。推动立法,保护人们免受技术滥用之害。显然,其中一些新威胁需要制定新的法律和执法部门做出新的努力。我们期待献计献策,支持世界各国政府的新举措,从而更好地保护人们的网络安全,同时尊重保护言论自由和个人隐私等永恒的价值观。公众意识和教育。最后,强大的国防需要公众的充分知情。随着21世纪第二季度的到来,大多数人都已认识到,不能相信在互联网(或其他任何地方)上读到的一切。好奇心和怀疑精神的完美结合是每个人的重要生活技能。同样,我们需要帮助人们认识到,不能轻易相信你看到的每一个视频或听到的每一个音频。我们需要帮助人们学会如何辨别合法内容和虚假内容的区别,包括水印。这将需要新的公众教育工具和计划,包括与民间社会和全社会的领导人密切合作。归根结底,这一切都不容易。这需要我们每天付出艰苦但不可或缺的努力。但是,只要我们共同致力于创新与合作,我们相信,我们一定能够齐心协力,确保技术在保护公众的能力方面保持领先。这或许比以往任何时候都更应该成为我们的集体目标。 ... PC版: 手机版:

相关推荐

封面图片

微软和OpenAI投入200万美元设立基金打击选举相关的内容造假

微软和OpenAI投入200万美元设立基金打击选举相关的内容造假 生成式人工智能(包括 ChatGPT 等大受欢迎的聊天机器人)的兴起导致了一种新的重大威胁,其中涉及人工智能生成的"深度伪造",其目的是使虚假信息永久化。这些新工具可以广泛使用,任何人都可以制作假视频、照片或高知名度政治实体的音频,但这并没有什么帮助。就在本周一,印度选举委员会敦促各政党在围绕选举开展的网络宣传活动中避免使用深度伪造和类似的虚假信息。正是在这一背景下,包括微软和 OpenAI 在内的所有主要科技公司都签署了应对此类风险的自愿承诺,并计划建立一个共同框架,以应对专门为误导选民而制造的深度伪造。在其他地方,主要的人工智能公司已经开始通过在其软件中引入限制来应对这些风险。例如,Google表示不允许其 Gemini 人工智能聊天机器人回答有关选举的问题,而 Facebook 的母公司 Meta也限制通过其人工智能聊天机器人回答与选举有关的问题。今天早些时候,OpenAI 为虚假信息研究人员推出了一款新的深度虚假检测工具,旨在帮助识别由其自己的 DALL-E 图像生成器生成的虚假内容,同时它还加入了行业机构内容出处和真实性联盟(C2PA)的指导委员会,该联盟的成员包括 Adobe、微软、Google和英特尔。新的"社会复原力基金"是这一更广泛的"负责任"人工智能推动力的一部分,微软和 OpenAI 目前正致力于"在选民和弱势群体中进一步开展人工智能教育和扫盲活动"。这将涉及向一些组织发放补助金,其中包括老年人技术服务组织(OATS)、内容真实性联盟(C2PA)、国际民主与选举援助研究所(International IDEA)和人工智能合作伙伴关系(PAI)。根据微软的说法,这些资助旨在让全社会更好地了解人工智能及其能力。例如,OATS 显然将把赠款用于针对美国 50 岁及以上人群的培训项目,内容涵盖"人工智能的基础方面"。社会复原力基金的启动只是微软和 OpenAI 致力于应对人工智能扫盲和教育领域的挑战和需求的其中一步,"微软负责技术和企业责任的公司副总裁 Teresa Hutson 在博文中表示。"微软和 OpenAI 将一如既往地致力于这项工作,我们将继续与拥有共同目标和价值观的组织和倡议合作。" ... PC版: 手机版:

封面图片

微软修复漏洞 旗下AI不能再生成名人假裸照

微软修复漏洞 旗下AI不能再生成名人假裸照 微软发言人证实了这一事件,并表示:“我们对此已展开调查,并正采取相应措施解决问题。我们的行为准则明确禁止使用我们的工具创建成人或未经同意的私密内容。任何违反我们政策的行为,尤其是反复尝试制作这类内容,都将导致用户无法继续使用我们的服务。我们有一支庞大的团队,致力于根据我们负责任的人工智能原则开发各种安全系统,包括内容过滤、操作监控和滥用检测等,以减少系统的滥用可能性,并为用户创造一个更安全的环境。”微软强调,一项正在进行的调查无法证实X上斯威夫特的假裸照是用Designer制作的,但该公司将继续加强其文本过滤提示,并解决滥用其服务的问题。上周五,微软首席执行官萨蒂亚·纳德拉(Satya Nadella)在接受采访时表示,“我们有责任”为人工智能工具增加更多“护栏”,以防止它们制作有害内容。上周末,X开始彻底屏蔽对“泰勒·斯威夫特”的搜索。纳德拉说:“这关乎全球社会在规范上的融合。我们可以做到这一点,尤其是在法律、执法部门和科技平台的共同努力下。我相信,我们可以管理的范围远远超过我们目前的认知。”经过404 Media等媒体测试以及4chan和Telegram上的消息显示,用户利用漏洞生成图像的操作已不再有效。在斯威夫特人工智能生成图片上周引发关注之前,Designer已经阻止用户生成带有“泰勒·斯威夫特裸体”等文字提示的图片,但Telegram和4chan上的用户发现,他们可以通过稍微拼错名人的名字,以及描述不使用任何性术语但会导致性暗示的图片来绕过这些保护。微软修复漏洞后,引发了网友热议。根据404 Media的报道,Telegram上的一名用户在频道中写道:“我认为微软的Designer已经被打补丁了。”另一位用户回应道:“好像它再也无法生成名人的照片了。即使是搜索克洛伊·莫瑞兹(Chloe Moretz),也只会生成普通的金发女孩。我尝试更换服务器和账号,但得到的结果都是一样的。”还有用户表示:“我觉得它现在已经完蛋了。Ariana,、Kylie Jenner,、Lisa、Zendaya这样的名人,现在都只展示出与她们长相或种族相似的普通女孩照片。”404 Media并未公布Telegram频道的名称,因为Telegram并未删除该频道,而且通常不会从其平台上删除太多有害内容。该频道拥有数万名成员,但404 Media并未公布特定用户的身份。分享Telegram频道的名称只会吸引更多人关注它,无益于为有害内容的目标提供任何追索权。尽管Telegram频道仍在分享人工智能生成的成人图片,其中一些似乎是用其他人工智能工具生成的,还有一些是从其他网站上提取的。虽然该频道的重点是利用微软的Designer这一免费且易于使用的工具,但有许多其他方法可以在网上制作这种有害的内容。例如,目前任何人都可以下载名人模型并在自己的电脑上本地运行,以生成有害内容。在4chan上,一些用户声称他们已经发现了必应和Designer的新漏洞。Telegram频道上的一位用户表示:“我坚信,如果这里被关闭了,我们会找到其他地方来制作人工智能内容。”(小小) ... PC版: 手机版:

封面图片

微软向公众发布内部生成式AI红队工具

微软向公众发布内部生成式AI红队工具 本周四,微软发布了用于生成式人工智能的 Python 风险识别工具包(PyRIT),微软的人工智能红队一直在使用该工具检查包括Copilot 在内的基因人工智能系统的风险。博文称,在过去的一年中,微软与 60 多个高价值的基因人工智能系统进行了红组,从中了解到这些系统的红组过程与经典人工智能或传统软件有很大不同。这一过程看起来有所不同,因为微软除了要考虑通常的安全风险外,还要考虑负责任的人工智能风险,例如确保不会故意生成有害内容,或确保模型不会输出虚假信息。此外,基因人工智能模型的架构千差万别,同样的输入可能产生不同的结果,因此很难找到一个适合所有模型的简化流程。因此,手动探测所有这些不同的风险最终会成为一个耗时、乏味和缓慢的过程。微软分享说,自动化可以帮助红色团队识别需要更多关注的风险领域,并将常规任务自动化,这正是 PyRIT 的用武之地。该工具包"经过了微软人工智能团队的实战检验",它向生成式人工智能系统发送恶意提示,一旦收到回应,其评分代理就会给系统打分,然后根据之前的评分反馈发送新的提示。微软表示,PyRIT 的最大优势在于它帮助微软红人团队提高了工作效率,大大缩短了任务所需的时间。微软在新闻稿中说:"例如,在我们对 Copilot 系统进行的一次红队演习中,我们能够选择一个危害类别,生成几千个恶意提示,并使用 PyRIT 的评分引擎来评估 Copilot 系统的输出,这一切只需要几个小时而不是几周的时间。"该工具包即日起可供访问,其中包括一系列演示,帮助用户熟悉该工具: PyRIT的网络研讨会,演示如何在红队生成式人工智能系统中使用 PyRIT。 ... PC版: 手机版:

封面图片

微软和 OpenAI 推出200万美元基金以打击选举深度造假

微软和 OpenAI 推出200万美元基金以打击选举深度造假 微软和 OpenAI 宣布设立200万美元基金,以应对人工智能和深度造假被用来“欺骗选民和破坏民主”的日益增长的风险。根据博文,微软和 OpenAI 的新“Societal Resilience 基金”致力于“在选民和弱势社区中进一步开展人工智能教育和扫盲” 。这将涉及向少数组织发放赠款,包括老年人技术服务 (OATS)、内容来源和真实性联盟 (C2PA)、国际民主和选举援助研究所 (International IDEA) 和人工智能伙伴关系 (PAI)。据微软称,这些赠款旨在让全社会更好地了解人工智能及其能力。

封面图片

微软和Google宣布为生成式人工智能服务提供新的儿童安全承诺

微软和Google宣布为生成式人工智能服务提供新的儿童安全承诺 这两家公司和其他公司与两个团体合作,提出了这些新的承诺。一个名为"Thorn",是一个致力于打击儿童性虐待的非营利组织。另一个名为"所有科技都应以人为本"(All Tech Is Human),旨在帮助创建一个"负责任的科技生态系统"。微软在博文中表示,它将开发生成式人工智能模型,这些模型将不会在包含儿童性或剥削性内容的数据集上进行训练。这也将有助于保护这些模型在发布后免受此类内容的影响。博文补充道:今天的承诺标志着在防止滥用人工智能技术制作或传播儿童性虐待材料(AIG-CSAM)和其他形式的儿童性伤害方面迈出了重要一步。这一集体行动彰显了科技行业对儿童安全的重视,表明了对道德创新和社会最弱势群体福祉的共同承诺。Google在博文中提到的儿童安全承诺与微软 在其人工智能服务方面所做的一些承诺如出一辙。Google补充说,它有自己的团队专门负责查找显示儿童可能面临危险的内容,此外他们还表示,正试图通过"哈希匹配技术、人工智能分类器和人工审核的结合"来查找和删除涉及儿童性虐待和性剥削的内容。最后,Google宣布支持美国国会关于保护儿童免受虐待和剥削的一系列法案。 ... PC版: 手机版:

封面图片

TikTok将自动标记人工智能生成的内容

TikTok将自动标记人工智能生成的内容 访问:Saily - 使用eSIM实现手机全球数据漫游 安全可靠 源自NordVPN 该社交视频平台正在通过实施内容凭证(Content Credentials)来实现这一目标,内容凭证是内容出处和真实性联盟(C2PA)的一项技术,该联盟由微软和 Adobe 共同创立。内容凭证将特定的元数据附加到内容上,TikTok 可以利用这些元数据即时识别和标记人工智能生成的内容。因此,TikTok 将开始自动标注上传到平台并附加内容证书的人工智能生成内容。这一变更将于本周四推出,并将在未来几周内适用于全球所有用户。虽然 TikTok 已经对使用 TikTok AI 特效制作的 内容进行了标注,但现在它也将对在其他已实施内容证书的平台上制作的内容进行标注,如 OpenAI 的 DALL-E 3 和微软的必应图像创建器。 微软、Adobe 和 OpenAI 已经开始使用内容证书,Google也承诺支持内容证书。尽管 TikTok 已经要求创作者在发布使用人工智能创建或增强的内容时进行披露,但该公司表示,新的变化是确保人工智能生成的内容被标注的另一种方式,同时也减轻了创作者的压力。在未来几个月中,TikTok 还将开始为平台上使用 TikTok 人工智能特效创建的人工智能生成内容附加内容证书。内容证书元数据将包括人工智能生成内容的制作或编辑地点和方式的详细信息,下载后仍将附加在内容上。采用内容凭证的其他平台将能自动将内容标记为人工智能生成的内容。因此,虽然 TikTok 承诺在自己的服务中标注人工智能内容,但它也在努力帮助确保在 TikTok 中制作的人工智能内容在发布到其他平台时也能准确标注。TikTok 运营及信任与安全主管 Adam Presser 在一份新闻稿中表示:"人工智能生成的内容是一个令人难以置信的创意出口,但对观众而言,透明度至关重要。通过与同行合作跨平台标注内容,我们让创作者更容易负责任地探索人工智能生成的内容,同时继续阻止 TikTok 上禁止的有害或误导性 AIGC。"TikTok 宣称自己是第一个采用内容凭证技术的视频分享平台。值得一提的是,Meta早在今年二月就宣布,计划在 C2PA 的解决方案基础上为内容添加出处。作为周四公告的一部分,TikTok 表示将致力于打击在选举中使用欺骗性人工智能的行为,其政策坚决禁止人工智能生成的有害误导性内容无论是否贴有标签。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人