多位人工智能专家和行业高管在公开信中呼吁加强对深度伪造的监管

多位人工智能专家和行业高管在公开信中呼吁加强对深度伪造的监管 Yoshua Bengio"如今,深度伪造往往涉及性图像、欺诈或政治虚假信息。由于人工智能发展迅速,使得深度伪造变得更加容易,因此需要采取保障措施,"该组织在信中说,这封信是由加州大学伯克利分校的人工智能研究员安德鲁-克里奇(Andrew Critch)撰写的。深度伪造(Deepfake)是由人工智能算法创建的逼真而又虚假的图像、音频和视频,最近的技术进步使它们与人类创建的内容越来越难以区分。这封题为"扰乱深度假货供应链"的信就如何监管深度假货提出了建议,包括将深度假货儿童色情制品完全定为刑事犯罪,对任何故意制造或协助传播有害深度假货的个人进行刑事处罚,以及要求人工智能公司防止其产品制造有害深度假货。截至本周三上午,已有来自学术界、娱乐界和政界等各行各业的 400 多人在信上签名。签名者包括哈佛大学心理学教授史蒂文-平克(Steven Pinker)、两位爱沙尼亚前总统、Google DeepMind 的研究人员和 OpenAI 的研究人员。自微软支持的 OpenAI 于 2022 年底推出 ChatGPT 以来,确保人工智能系统不危害社会一直是监管机构的首要任务。知名人士曾多次就人工智能风险发出警告,特别是埃隆-马斯克(Elon Musk)去年签署了一封信,呼吁暂停开发比 OpenAI 的 GPT-4 人工智能模型更强大的系统,为期六个月。 ... PC版: 手机版:

相关推荐

封面图片

DeepMind:政治深度伪造居恶意使用人工智能榜首

DeepMind:政治深度伪造居恶意使用人工智能榜首 谷歌旗下 DeepMind 部门首次对人工智能最常见的恶意使用情况进行的研究显示,利用人工智能生成的“深度伪造”冒充政客和名人,远比利用人工智能协助网络攻击的行为普遍得多。该研究表示,制作逼真的假冒人物图像、视频和音频的情况几乎是第二高频率滥用生成式人工智能工具情况的两倍:使用聊天机器人等基于文本的工具伪造信息,生成虚假信息并发布到网上。分析发现,行为者滥用生成式人工智能的最常见目标是塑造或影响公众舆论。这一占到使用的27%,加剧了人们对深度伪造可能影响今年全球选举的担忧。

封面图片

呼吁暂停六个月AI训练的公开信中许多签名是假冒的,更多专家公开反对这封信

呼吁暂停六个月AI训练的公开信中许多签名是假冒的,更多专家公开反对这封信 超过 30,000 人包括特斯拉的埃隆·马斯克、苹果联合创始人史蒂夫·沃兹尼亚克、政治家安德鲁·杨和一些领先的人工智能研究人员签署了一封公开信,呼吁暂停训练比 GPT-4 更强大的人工智能系统六个月. 这封信立即引起了轩然大波,因为签署人纷纷撤回他们的立场,一些著名的签署人被证明是假的,更多的人工智能研究人员和专家公开反对这封信的提议和方法。 这封信由生命未来研究所 (Future of Life Institute)撰写,这是一家非营利组织,其使命是“减少强大技术带来的全球灾难性和生存风险”。它也是长期主义的最大支持者之一,这是一种由许多硅谷科技精英成员推动的世俗宗教,因为它鼓吹寻求大量财富以解决人类在遥远的未来面临的问题。 未来生命研究所向 Motherboard 确认所有签名者都“通过直接沟通进行了独立验证”。 尽管有这个验证过程,这封信还是以一些虚假的签名开始,包括冒充 OpenAI 首席执行官山姆奥特曼、中国国家主席习近平和 Meta 首席人工智能科学家 Yann LeCun,之后该研究所清理了名单并暂停显示签名。

封面图片

欧盟在大选前就 GenAI 风险问题加强对主要平台的监管

欧盟在大选前就 GenAI 风险问题加强对主要平台的监管 这些要求涉及必应(Bing)、Facebook、Google搜索、Instagram、Snapchat、TikTok、YouTube 和 X。根据规定,这八个平台被指定为超大型在线平台(VLOPs),这意味着它们除了要遵守规则手册的其他规定外,还必须评估和降低系统性风险。在周四发布的一份新闻稿中,委员会表示,它要求这些公司提供更多信息,说明它们各自采取了哪些措施来降低与其服务中的生成式人工智能相关的风险包括与人工智能技术生成虚假信息的所谓"幻觉"有关的风险、深度伪造的病毒式传播风险,以及可能误导选民的自动操纵服务风险。"委员会还要求提供信息和内部文件,说明与生成式人工智能对选举进程、非法内容传播、基本权利保护、性别暴力、未成年人保护和精神健康的影响有关的风险评估和缓解措施,"欧委会补充说,强调这些问题涉及"生成式人工智能内容的传播和创建"。欧盟在向记者介绍情况时还表示,它正计划在复活节后进行一系列压力测试。这些测试将检验平台是否做好了应对人工智能生成风险的准备,例如在 6 月欧洲议会选举前可能出现的大量政治深度伪造。一位不愿透露姓名的委员会高级官员说:"我们希望推动各平台告诉我们他们正在做什么,以便尽可能做好准备......应对我们可能发现的所有事件,以及我们在选举前必须做出的反应。"欧盟负责监督虚拟运营商遵守这些针对大科技的 DSA 规则,并将选举安全列为执法的优先领域之一。最近,欧盟正在就针对虚拟运营商的选举安全规则进行咨询,同时着手制定正式指南。根据委员会的说法,今天的要求部分是为了支持这一指导。尽管这些平台被要求在 4 月 3 日之前提供与保护选举有关的信息,这被称为"紧急"要求。但欧盟表示,希望能在此之前,即 3 月 27 日之前完成选举安全指南。委员会指出,合成内容的制作成本正在急剧下降,这增加了选举期间制造误导性假新闻的风险。正因如此,委员会对具有广泛传播政治虚假内容规模的主要平台加大了关注力度。在欧盟看来,上个月慕尼黑安全会议上达成的打击在选举中欺骗性使用人工智能的科技行业协议还不够深入,该协议得到了许多与欧盟委员会现在发送的《索取资料书》相同的平台的支持。委员会的一位官员表示,即将发布的选举安全指南将"更进一步",并指出委员会计划利用三重保障措施:首先是 DSA 的"明确尽职调查规则",该规则赋予委员会针对特定"风险情况"的权力;其次是通过《反虚假信息行为准则》(无法律约束力)与平台合作五年多的经验,欧盟打算将该准则变为 DSA 下的《行为准则》;最后是即将出台的《人工智能法》下的透明度标签/人工智能模型标记规则。这位官员补充说,欧盟的目标是建立一个"执法机构生态系统",在选举前可以利用这些机构。欧盟委员会今天的《索取资料书》还旨在解决比操纵选民更广泛的人工智能生成风险,例如与深假色情或其他类型的恶意合成内容生成有关的危害,无论生成的内容是图像/视频还是音频。这些要求反映了欧盟 DSA 执行 VLOP 的其他优先领域,其中包括与非法内容(如仇恨言论)和儿童保护相关的风险。各平台可在 4 月 24 日之前对其他生成式人工智能征求意见稿作出回复。可能传播误导性、恶意或有害深度伪造内容的小型平台,以及能够以较低成本生成合成媒体的小型人工智能工具制造商,也在欧盟的风险缓解雷达上。这些平台和工具不属于委员会明确的 DSA 对 VLOP 的监督范围,因为它们没有被指定。但委员会扩大监管影响的策略是间接施压,通过大型平台(在此背景下可能充当放大器和/或传播渠道);通过自我监管机制,如上述《虚假信息守则》;以及《人工智能法》(硬法)通过后(预计几个月内)即将启动和运行的《人工智能契约》。 ... PC版: 手机版:

封面图片

NIST 推出评估生成式人工智能的新平台

NIST 推出评估生成式人工智能的新平台 NIST 在新推出的 NIST GenAI网站和一份新闻稿中解释说,NISTGenAI将发布基准,帮助创建"内容真实性"检测(即深度验假)系统,并鼓励开发软件来识别人工智能生成的虚假或误导性信息的来源。"NIST GenAI 计划将发布一系列挑战问题,[旨在]评估和衡量生成式人工智能技术的能力和局限性。这些评估将用于确定促进信息完整性的策略,并指导安全、负责任地使用数字内容"。NIST GenAI 的第一个项目是一项试点研究,目的是建立能够可靠区分人类创建的媒体和人工智能生成的媒体的系统,首先从文本开始。(虽然许多服务都声称可以检测深度伪造,但研究和测试表明,它们充其量只能说是不可靠的,尤其是在文本方面)。NIST GenAI 邀请学术界、工业界和研究实验室的团队提交"生成器"(生成内容的人工智能系统)或"鉴别器"(旨在识别人工智能生成内容的系统)。研究中的生成器必须生成 250 字或更少的摘要,提供一个主题和一组文档,而判别器必须检测给定摘要是否可能是人工智能编写的。为确保公平,NIST GenAI 将提供测试生成器所需的数据。NIST 表示:"以公开数据训练的系统如果不"遵守适用的法律法规",将不被接受。试点登记将于 5 月 1 日开始,第一轮两家计划于 8 月 2 日结束。 预计研究的最终结果将于 2025 年 2 月公布。在人工智能生成的错误信息和虚假信息呈指数级增长之际,NIST GenAI 启动了以深度伪造为重点的研究。根据深度假货检测公司Clarity 的数据,与去年同期相比,今年制作和发布的深度假货数量增加了 900%。这引起了人们的恐慌,这是可以理解的。 YouGov 最近的 一项民意调查 发现,85% 的美国人担心误导性的深度假新闻会在网上传播。NIST GenAI 的启动是 NIST 响应乔-拜登总统关于人工智能的行政命令的一部分,拜登总统的行政命令规定,要求人工智能公司在其模型如何工作方面提高透明度,并制定了一系列新标准,包括对人工智能生成的内容进行标注。这也是 NIST 在任命前 OpenAI 研究员保罗-克里斯蒂亚诺(Paul Christiano)为该机构的人工智能安全研究所成员后,首次发布与人工智能相关的消息。克里斯蒂亚诺因其"现实主义"观点而备受争议;他曾预言,"人工智能的发展有50%的可能以[人类毁灭]而告终"。据报道,包括美国国家标准与技术研究院(NIST)科学家在内的批评人士担心,克里斯蒂亚诺可能会鼓励人工智能安全研究所关注"幻想的场景",而不是现实的、更直接的人工智能风险。NIST 表示,NIST GenAI 将为人工智能安全研究所的工作提供参考。 ... PC版: 手机版:

封面图片

十三名前 OpenAI 员工在一封公开信中表示,人工智能公司对那些提出安全问题的人进行了报复。

十三名前 OpenAI 员工在一封公开信中表示,人工智能公司对那些提出安全问题的人进行了报复。 几位前 OpenAI 员工在一封公开信中警告说,像 OpenAI 这样的先进 AI 公司压制批评和监督,特别是在过去几个月对 AI 安全的担忧增加的情况下。 这封公开信由 13 名前 OpenAI 员工签署(其中六人选择匿名),并得到前谷歌“人工智能之父”Geoffrey Hinton 的支持。信中表示,在缺乏有效的政府监管的情况下,人工智能公司应该承诺遵守公开批评原则。这些原则包括避免制定和执行禁止贬损条款,提供一个“可验证”的匿名举报问题的渠道,允许现任和前任员工向公众提出担忧,并且不对举报人进行报复。 信中说,尽管他们相信人工智能有潜力造福社会,但也看到了风险,比如加剧不平等、操纵和误导信息,以及人类灭绝的可能性。虽然人们对可能接管地球的机器有重要的担忧,但当今的生成式人工智能有更实际的问题,比如侵犯版权、无意中分享有问题和非法的图像,以及它可以模仿人们的样貌并误导公众的担忧。 信件的签署者声称,现有的举报人保护措施“是不足的”,因为它们侧重于非法行为,而不是他们所说的大多数未受监管的问题。劳工部表示,举报工资、歧视、安全、欺诈和扣留休假时间等违规行为的工人受举报人保护法的保护,这意味着雇主不能解雇、裁员、减少工时或降职举报人。信中写道:“鉴于行业内此类案件的历史,我们中的一些人合理地担心各种形式的报复。我们不是第一个遇到或谈论这些问题的人。” 最近,,同时联合创始人,他一直在公司内倡导安全。一位前研究员表示,在 OpenAI,"安全文化和流程已经让位于光鲜亮丽的产品"。 OpenAI 确实有一个新的安全团队,由 CEO 山姆·奥特曼领导。 标签: #OpenAI #匿名 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

【OpenAI CTO:ChatGPT和其他人工智能工具均应受到监管】

【OpenAI CTO:ChatGPT和其他人工智能工具均应受到监管】 2月6日消息,人工智能研究公司OpenAI首席技术官Mira Murati表示,ChatGPT可能会“编造事实”,这与其他基于语言模型的人工智能工具没有什么区别一样。 当被问及像OpenAI这样的公司等机构是否有责任监管这一工具时,Murati说:“对OpenAI等公司来说,最重要的是以一种可控和负责任的方式将其引入公共意识。”但她强调,公司还需要来自监管机构、政府甚至所有人的帮助。她补充说,现在对ChatGPT进行监管“并不算为时过早”。 据悉,ChatGPT是OpenAI于2022年11月30日推出的一种新型AI聊天机器人工具,可根据用户的要求快速生成文章、故事、歌词、散文、笑话和代码,并回答各类疑问。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人