英国政府正在制定提高人工智能训练数据透明度的规则

英国政府正在制定提高人工智能训练数据透明度的规则 访问:NordVPN 立减 75% + 外加 3 个月时长 另有NordPass密码管理器 《金融时报》在对弗雷泽的采访中发现了这一计划。虽然她概述了总体计划,但她不愿透露有关权利人如何检查其材料是否被人工智能模型使用的细节。知情人士透露,政府将在秋季大选前提出建议。这将使利益相关者能够对提案做出回应,并在提案被通过成为法律之前提出建议或修改意见。据《金融时报》报道,欧盟正在根据其人工智能法案制定类似的规则。根据该法案,人工智能开发者将需要提供一份足够详细的培训内容概要,并实施相关政策,以确保他们的操作符合欧盟版权法的规定。像 OpenAI 这样的人工智能公司已经预料到政府会怎么做,并已与数据提供商达成协议。最近几周,OpenAI 宣布与Reddit、Stack Overflow 和《金融时报》合作,帮助其训练模型。此举将受到声称其权利受到侵犯的权利人的欢迎,然而,对于这些人工智能模型的用户来说,由于知识差距,此举可能会导致质量下降。人工智能公司声称,他们可以根据合理使用规则使用这些数据,因为他们对数据的使用是变革性的。最终,我们将不得不等待法院和政治家们的跟进,看看舆论到底是站在权利人一边,还是站在人工智能开发者一边。 ... PC版: 手机版:

相关推荐

封面图片

多家新闻机构签署并发布了一封公开信,呼吁提高人工智能的透明度并加强版权保护。

多家新闻机构签署并发布了一封公开信,呼吁提高人工智能的透明度并加强版权保护。 多家媒体组织呼吁制定规则,保护用于训练生成人工智能模型的数据的版权。 这封敦促全球立法者考虑制定法规,要求训练数据集透明,并在使用数据进行训练前征得权利人的同意。他们还要求允许媒体公司与人工智能模型运营商进行谈判,识别人工智能生成的内容,并要求人工智能公司消除其服务中的偏见和错误信息。 这些签署者表示,使用媒体内容训练的基础模型在传播信息时“完全没有考虑原始创作者的报酬或归属”。 信中写道:“这种做法破坏了媒体行业的核心商业模式,这些模式是建立在读者和观众(如订阅)、许可和广告基础上的。”“除了违反版权法之外,由此产生的影响还减少媒体的多样性,并削弱公司投资媒体报道的财务可行性,进一步降低公众获取高质量和可信任信息的途径。”

封面图片

研究:人工智能模型缺乏透明度 或将加大监管难度

研究:人工智能模型缺乏透明度 或将加大监管难度 一项研究显示,目前主要的人工智能模型缺乏透明度,或将加大政策制定者拟定有效政策来监管这项科技的难度。 法新社报道,这项由哈佛大学研究员于星期三(10月18日)发表的研究,旨在指导政策制定者对人工智能科技方面进行监管。研究人员设计了一个“基础模型透明指数”,并对10家主要的人工智能公司进行了排名。 得分最高的是由脸书母公司Meta Platforms于今年7月推出的人工智能模型“Llama 2”,得分为54%。 推出人工智能聊天机器人ChatGPT的美国人工智能公司OpenAI,今年3月发布的大型语言数据库模型GPT-4排名第三,得分为48%。 谷歌推出的“PaLM 2”以40%排在第五位,略高于亚马逊支持的人工智能初创公司Anthropic推出的“Claude 2”人工智能模型(36%)。 斯坦福大学基金会模型研究中心的研究员博马萨尼说,这些公司应该努力争取80%到100%的得分。 研究人员指出,“较低的透明度将使政策制定者更难以制定有意义的政策,以对这一强大的科技进行监管。” 此外,这也让其他企业更难得知自己的应用是否可依赖这项科技,同时让学术界更难以进行研究,消费者也更难以了解模型的局限性。“如果没有透明度,监管机构甚至无法提出正确的问题,更别说是在这些地方采取行动了。” 这项研究发现,没有一家公司提供有多少用户依赖使用人工智能模型的信息,或它们使用的地理位置信息。此外,多数人工智能公司都不披露其模型中使用了多少收版权保护的资料。

封面图片

微软发布首份年度人工智能透明度报告

微软发布首份年度人工智能透明度报告 所有这些活动也让许多人感到担忧,认为像微软 开发的人工智能工具可能会被用于不道德或非法行为。今天,微软在一篇博客文章中宣布,它已经发布了第一份计划中的年度透明度报告,介绍其目前负责任的人工智能实践。微软总裁 Brad Smith 在博文中表示:这份报告使我们能够分享我们日趋成熟的实践,反思我们所学到的东西,规划我们的目标,对自己负责,并赢得公众的信任。八年来,我们一直在负责任的人工智能领域不断创新,在发展我们的计划的同时,我们也从过去的经验中吸取教训,不断改进。这份PDF格式的报告详细介绍了微软 在多个领域为其服务提供负责任的人工智能实践,并对员工进行了使用培训。报告指出:2023 年版的《商业行为标准》培训是全公司必修的商业道德课程,涵盖了我们的员工用于安全开发和部署人工智能的资源。截至 2023 年 12 月 31 日,99% 的员工完成了这一课程,包括负责任的人工智能模块。微软还成立了负责任的人工智能委员会,定期召开会议,目的是不断改进工作,确保人工智能服务的安全。公司还有一个"负责任的人工智能冠军"计划,要求其成员发现并解决人工智能产品中存在的问题,并就负责任的做法向其他成员提供指导。报告还举例说明了负责任的人工智能程序如何影响其产品的创建和开发。其中一个例子涉及微软 Designer,这款人工智能图像创建应用程序据说被不明人士用来制作流行歌手泰勒-斯威夫特(Taylor Swift)的露骨"深度伪造"图像,后来在互联网上疯传。微软说,它要求新闻团体 NewsGuard 在 Designer 中输入提示,"创建强化或描绘与政治、国际事务和选举有关的突出虚假叙述的视觉效果"。结果,在 Designer 创建的图片中,有 12%"包含有问题的内容"。微软对 Designer 进行了修改,试图避免出现这些图片,效果是有问题图片的数量降到了3.6%。了解更多: ... PC版: 手机版:

封面图片

英国政府将试用人工智能工具

英国政府将试用人工智能工具 英国的大臣们正在试点使用生成式人工智能来分析对政府意见征集的回应,撰写对议会问题的回答草稿。英国副首相奥利弗•道登将于周四公布一些工具,白厅核心的人工智能“精锐小组”正在试用这些工具,以期在中央部门和公共服务部门更广泛地推广这些工具。人工智能工具包括使用政府托管的 ChatGPT 版本和内部安全托管的开源人工智能模型,以起草对议员向大臣提交的问题和信息自由请求的初步答复。 ()

封面图片

人工智能对人工智能生成的内容进行训练将导致人工智能崩溃

人工智能对人工智能生成的内容进行训练将导致人工智能崩溃 用于训练大型语言模型的数据最初来自人类来源,如书籍、文章、照片等,这些都是在没有人工智能的帮助下创建的。但随着越来越多的人使用人工智能来制作和发布内容,一个明显的问题出现了:当人工智能生成的内容在互联网上扩散时,人工智能模型开始对其进行训练。研究人员发现,“在训练中使用模型生成的内容会导致所产生的模型出现不可逆转的缺陷。”他们研究了文本到文本和图像到图像的人工智能生成模型的概率分布,得出结论:“从其他模型产生的数据中学习会导致模型崩溃 这是一个退化的过程,并且随着时间的推移,模型会忘记真正的基础数据分布。”他们观察到模型崩溃发生得如此之快:模型可以迅速忘记它们最初学习的大部分原始数据。这导致它们随着时间的推移,表现越来越差,错误越来越多。来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

Google图像生成人工智能Imagen 3迎来升级

Google图像生成人工智能Imagen 3迎来升级 Google人工智能研究部门DeepMind负责人德米斯-哈萨比斯(Demis Hassabis)说,与前代产品Imagen 2相比,Imagen 3能更准确地理解文字提示,并将其转化为图像,而且在生成图像方面更具"创造性和细节"。此外,该模型产生的"干扰人工智能"和错误也更少。哈萨比斯补充说:"这也是我们目前渲染文本的最佳模型,而渲染文本一直是图像生成模型面临的挑战。"为了消除人们对深度伪造可能性的担忧,Google表示,Imagen 3 将使用 DeepMind 开发的SynthID 方法,在媒体上应用隐形加密水印。在Google的ImageFX工具中可以注册 Imagen 3 的私人预览版,Google表示,该模型将"很快"提供给使用Google企业生成式人工智能开发平台 Vertex AI 的开发人员和企业客户。Google通常不会透露太多用于训练人工智能模型的数据来源,这次也不例外。这是有原因的。大部分训练数据来自网络上的公共网站、资源库和数据集。而其中的一些训练数据,特别是未经内容创作者许可的受版权保护的数据,是知识产权相关诉讼的源头。Google的网站发布者控制功能允许网站管理员阻止搜索引擎与AI爬虫从他们的网站上获取数据,包括照片和视频。但是,Google并没有提供"退出"工具,而且与某些竞争对手不同的是,Google并没有承诺对权利人(在某些情况下是在不知情的情况下)为训练数据集做出的贡献进行补偿。缺乏透明度并不令人惊讶,但令人失望的尤其是像Google这样拥有丰富资源的公司。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人