欧委会对微软发出警示 可能因Gen AI风险信息缺失开罚数十亿美元

欧委会对微软发出警示 可能因Gen AI风险信息缺失开罚数十亿美元 访问:NordVPN 立减 75% + 外加 3 个月时长 另有NordPass密码管理器 早在今年 3 月,欧盟就要求微软和其他一些科技巨头提供有关生成式人工智能工具所带来的系统性风险的信息,但周五欧盟委员会表示,微软未能提供它所要求的一些文件。该局要求该公司在 5 月 27 日前提供所需的数据,否则将面临执法风险。DSA规定的罚款最高可达全球收入的6%但在回应正式信息请求(RFI)时提供的不正确、不完整或误导性信息可导致1%的单独罚款。在微软的案例中,罚款总额可能高达几十亿美元。DSA 规定的大型平台的系统性风险义务由委员会自行监督。今天,微软因未能提供所要求的信息而受到委员会的书面警告,而这正是委员会强大的执法工具箱的一部分,对微软而言,这些工具箱可能比因未能按要求提供数据而受到谴责所带来的声誉损失要大得多。委员会说,它缺少微软提供的与其搜索引擎必应的人工智能生成功能有关的风险信息特别是必应的人工智能助手"Copilot in Bing"和图像生成工具"Image Creator by Designer"。欧盟表示,它尤其关注这些工具可能对公民言论和选举进程造成的风险。委员会要求微软在 5 月 27 日之前提供缺失的信息,否则将面临 1% 的罚款。如果该公司届时未能提供数据,委员会还可能对其处以最高达日均收入或全球年营业额 5%的"定期处罚"这将进一步增加微软在这一问题上可能承担的数十亿美元的债务。其搜索引擎必应早在2023 年 4 月就被欧盟 DSA 指定为所谓的超大型在线搜索引擎 (VLOSE),这意味着它要承担额外的义务,以降低虚假信息等系统性风险。DSA 要求大型平台承担减少虚假信息的义务,这将生成式人工智能技术置于了重要位置,因为科技巨头们一直走在将 GenAI 嵌入其主流平台的最前沿尽管存在一些明显的缺陷,例如大型语言模型(LLM)倾向于编造信息,同时将其作为事实呈现。人工智能驱动的图像生成工具也被证明会产生带有种族偏见或其他潜在危害的输出,如误导性的深度伪造。与此同时,欧盟下个月即将举行大选,这让布鲁塞尔的人们开始关注由人工智能推动的政治虚假信息。委员会在一份新闻稿中写道:"之所以要求必应提供信息,是因为怀疑必应可能违反了 DSA,存在与生成式人工智能相关的风险,如所谓的'幻觉'、深度伪造的病毒式传播,以及可能误导选民的自动操纵服务。""根据DSA,包括Bing在内的指定服务必须进行充分的风险评估,并采取相应的风险缓解措施(DSA第34条和第35条)。生成式人工智能是欧盟委员会在其选举程序完整性准则中确定的风险之一,尤其是针对即将于 6 月举行的欧洲议会选举而言。" ... PC版: 手机版:

相关推荐

封面图片

欧盟要求微软澄清必应的人工智能风险

欧盟要求微软澄清必应的人工智能风险 如果微软公司未能在5月27日之前提供有关搜索引擎 Bing 的生成式人工智能功能所带来的风险的更多信息,欧盟委员会可能会对其处以罚款。欧盟委员会周五表示,担心深度造假内容的传播以及操纵服务以误导选民的行为。并表示正在加强对此事的执法行动,因为尚未收到3月14日发出的信息请求的答复。如果未在最后期限前完成,委员会可能会对 Bing 处以高达其年总收入1%的罚款,并处以高达其平均每日收入5%的定期罚款。如果公司提供不正确或误导性的信息,也可以对公司处以罚款。

封面图片

欧盟在大选前就 GenAI 风险问题加强对主要平台的监管

欧盟在大选前就 GenAI 风险问题加强对主要平台的监管 这些要求涉及必应(Bing)、Facebook、Google搜索、Instagram、Snapchat、TikTok、YouTube 和 X。根据规定,这八个平台被指定为超大型在线平台(VLOPs),这意味着它们除了要遵守规则手册的其他规定外,还必须评估和降低系统性风险。在周四发布的一份新闻稿中,委员会表示,它要求这些公司提供更多信息,说明它们各自采取了哪些措施来降低与其服务中的生成式人工智能相关的风险包括与人工智能技术生成虚假信息的所谓"幻觉"有关的风险、深度伪造的病毒式传播风险,以及可能误导选民的自动操纵服务风险。"委员会还要求提供信息和内部文件,说明与生成式人工智能对选举进程、非法内容传播、基本权利保护、性别暴力、未成年人保护和精神健康的影响有关的风险评估和缓解措施,"欧委会补充说,强调这些问题涉及"生成式人工智能内容的传播和创建"。欧盟在向记者介绍情况时还表示,它正计划在复活节后进行一系列压力测试。这些测试将检验平台是否做好了应对人工智能生成风险的准备,例如在 6 月欧洲议会选举前可能出现的大量政治深度伪造。一位不愿透露姓名的委员会高级官员说:"我们希望推动各平台告诉我们他们正在做什么,以便尽可能做好准备......应对我们可能发现的所有事件,以及我们在选举前必须做出的反应。"欧盟负责监督虚拟运营商遵守这些针对大科技的 DSA 规则,并将选举安全列为执法的优先领域之一。最近,欧盟正在就针对虚拟运营商的选举安全规则进行咨询,同时着手制定正式指南。根据委员会的说法,今天的要求部分是为了支持这一指导。尽管这些平台被要求在 4 月 3 日之前提供与保护选举有关的信息,这被称为"紧急"要求。但欧盟表示,希望能在此之前,即 3 月 27 日之前完成选举安全指南。委员会指出,合成内容的制作成本正在急剧下降,这增加了选举期间制造误导性假新闻的风险。正因如此,委员会对具有广泛传播政治虚假内容规模的主要平台加大了关注力度。在欧盟看来,上个月慕尼黑安全会议上达成的打击在选举中欺骗性使用人工智能的科技行业协议还不够深入,该协议得到了许多与欧盟委员会现在发送的《索取资料书》相同的平台的支持。委员会的一位官员表示,即将发布的选举安全指南将"更进一步",并指出委员会计划利用三重保障措施:首先是 DSA 的"明确尽职调查规则",该规则赋予委员会针对特定"风险情况"的权力;其次是通过《反虚假信息行为准则》(无法律约束力)与平台合作五年多的经验,欧盟打算将该准则变为 DSA 下的《行为准则》;最后是即将出台的《人工智能法》下的透明度标签/人工智能模型标记规则。这位官员补充说,欧盟的目标是建立一个"执法机构生态系统",在选举前可以利用这些机构。欧盟委员会今天的《索取资料书》还旨在解决比操纵选民更广泛的人工智能生成风险,例如与深假色情或其他类型的恶意合成内容生成有关的危害,无论生成的内容是图像/视频还是音频。这些要求反映了欧盟 DSA 执行 VLOP 的其他优先领域,其中包括与非法内容(如仇恨言论)和儿童保护相关的风险。各平台可在 4 月 24 日之前对其他生成式人工智能征求意见稿作出回复。可能传播误导性、恶意或有害深度伪造内容的小型平台,以及能够以较低成本生成合成媒体的小型人工智能工具制造商,也在欧盟的风险缓解雷达上。这些平台和工具不属于委员会明确的 DSA 对 VLOP 的监督范围,因为它们没有被指定。但委员会扩大监管影响的策略是间接施压,通过大型平台(在此背景下可能充当放大器和/或传播渠道);通过自我监管机制,如上述《虚假信息守则》;以及《人工智能法》(硬法)通过后(预计几个月内)即将启动和运行的《人工智能契约》。 ... PC版: 手机版:

封面图片

美国联邦贸易委员会正在调查微软、亚马逊和谷歌对 OpenAI 和 Anthropic 的投资

美国联邦贸易委员会正在调查微软、亚马逊和谷歌对 OpenAI 和 Anthropic 的投资 美国联邦贸易委员会 FTC 致函 Alphabet、亚马逊、Anthropic、微软和 OpenAI,要求这些公司解释这些投资对生成式人工智能竞争格局的影响。 该委员会希望“审查企业与人工智能提供商的合作伙伴关系和投资,以更好地了解这些关系及其对竞争格局的影响。”谷歌和亚马逊投资了 Anthropic,而微软则与 OpenAI 有着密切的财务关系。

封面图片

报道微软正在自行开发比OpenAI更小更便宜的人工智能模型

报道微软正在自行开发比OpenAI更小更便宜的人工智能模型 这些 SLM 旨在提供与 OpenAI 的 GPT 等大型语言模型(LLM)类似的对话和生成能力,但对硬件的需求大大降低。与外部开发的替代产品相比,这将使微软的人工智能产品和服务具有更低的相关成本和碳足迹。GenAI 团队预计将并入微软的 Azure 云计算部门,将专注于创建更小的语言模型。为了支持 GenAI 团队,微软还从其研究小组调来了几位顶尖开发人员。微软公司副总裁米沙-比连科(Misha Bilenko)将领导该团队的工作。GenAI 团队的目标是创造出与 OpenAI 等公司提供的模型功能相匹配甚至更强的人工智能,同时针对较小的规模进行优化。迄今为止,微软已将 OpenAI 的多项人工智能功能纳入其产品中。例如,必应在Copilot中使用了GPT-4,必应图像创建器在图像生成中使用了Dall-E。最近几周,该公司还推出了Copilot Pro一项针对个人消费者的订阅服务,为他们提供更先进的人工智能功能。该报告是在 OpenAI 最近推出 GPT 商店之后发布的,用户可以在该商店创建、分享和销售基于 OpenAI 语言模型的定制人工智能模型。同样,微软也宣布了自己的计划,即为Copilot提供针对特定需求和主题定制的人工智能聊天机器人。然而,依赖外部开发的人工智能会产生一些费用,而且缺乏对技术本身的控制。微软致力于开发更小巧、更经济实惠的人工智能技术,这有可能为公司提供自己的解决方案开辟新的途径,减少对第三方供应商的依赖。据说美国司法部(DOJ)和联邦贸易委员会(FTC)希望调查 OpenAI 与微软的关系,以防您错过。上周,我们曾报道,这两个机构都急于调查这笔交易,特别是微软的参与及其对人工智能行业竞争的影响。 ... PC版: 手机版:

封面图片

微软向公众发布内部生成式AI红队工具

微软向公众发布内部生成式AI红队工具 本周四,微软发布了用于生成式人工智能的 Python 风险识别工具包(PyRIT),微软的人工智能红队一直在使用该工具检查包括Copilot 在内的基因人工智能系统的风险。博文称,在过去的一年中,微软与 60 多个高价值的基因人工智能系统进行了红组,从中了解到这些系统的红组过程与经典人工智能或传统软件有很大不同。这一过程看起来有所不同,因为微软除了要考虑通常的安全风险外,还要考虑负责任的人工智能风险,例如确保不会故意生成有害内容,或确保模型不会输出虚假信息。此外,基因人工智能模型的架构千差万别,同样的输入可能产生不同的结果,因此很难找到一个适合所有模型的简化流程。因此,手动探测所有这些不同的风险最终会成为一个耗时、乏味和缓慢的过程。微软分享说,自动化可以帮助红色团队识别需要更多关注的风险领域,并将常规任务自动化,这正是 PyRIT 的用武之地。该工具包"经过了微软人工智能团队的实战检验",它向生成式人工智能系统发送恶意提示,一旦收到回应,其评分代理就会给系统打分,然后根据之前的评分反馈发送新的提示。微软表示,PyRIT 的最大优势在于它帮助微软红人团队提高了工作效率,大大缩短了任务所需的时间。微软在新闻稿中说:"例如,在我们对 Copilot 系统进行的一次红队演习中,我们能够选择一个危害类别,生成几千个恶意提示,并使用 PyRIT 的评分引擎来评估 Copilot 系统的输出,这一切只需要几个小时而不是几周的时间。"该工具包即日起可供访问,其中包括一系列演示,帮助用户熟悉该工具: PyRIT的网络研讨会,演示如何在红队生成式人工智能系统中使用 PyRIT。 ... PC版: 手机版:

封面图片

微软和OpenAI投入200万美元设立基金打击选举相关的内容造假

微软和OpenAI投入200万美元设立基金打击选举相关的内容造假 生成式人工智能(包括 ChatGPT 等大受欢迎的聊天机器人)的兴起导致了一种新的重大威胁,其中涉及人工智能生成的"深度伪造",其目的是使虚假信息永久化。这些新工具可以广泛使用,任何人都可以制作假视频、照片或高知名度政治实体的音频,但这并没有什么帮助。就在本周一,印度选举委员会敦促各政党在围绕选举开展的网络宣传活动中避免使用深度伪造和类似的虚假信息。正是在这一背景下,包括微软和 OpenAI 在内的所有主要科技公司都签署了应对此类风险的自愿承诺,并计划建立一个共同框架,以应对专门为误导选民而制造的深度伪造。在其他地方,主要的人工智能公司已经开始通过在其软件中引入限制来应对这些风险。例如,Google表示不允许其 Gemini 人工智能聊天机器人回答有关选举的问题,而 Facebook 的母公司 Meta也限制通过其人工智能聊天机器人回答与选举有关的问题。今天早些时候,OpenAI 为虚假信息研究人员推出了一款新的深度虚假检测工具,旨在帮助识别由其自己的 DALL-E 图像生成器生成的虚假内容,同时它还加入了行业机构内容出处和真实性联盟(C2PA)的指导委员会,该联盟的成员包括 Adobe、微软、Google和英特尔。新的"社会复原力基金"是这一更广泛的"负责任"人工智能推动力的一部分,微软和 OpenAI 目前正致力于"在选民和弱势群体中进一步开展人工智能教育和扫盲活动"。这将涉及向一些组织发放补助金,其中包括老年人技术服务组织(OATS)、内容真实性联盟(C2PA)、国际民主与选举援助研究所(International IDEA)和人工智能合作伙伴关系(PAI)。根据微软的说法,这些资助旨在让全社会更好地了解人工智能及其能力。例如,OATS 显然将把赠款用于针对美国 50 岁及以上人群的培训项目,内容涵盖"人工智能的基础方面"。社会复原力基金的启动只是微软和 OpenAI 致力于应对人工智能扫盲和教育领域的挑战和需求的其中一步,"微软负责技术和企业责任的公司副总裁 Teresa Hutson 在博文中表示。"微软和 OpenAI 将一如既往地致力于这项工作,我们将继续与拥有共同目标和价值观的组织和倡议合作。" ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人