英国启动对使用版权内容训练AI模型的审查

英国启动对使用版权内容训练AI模型的审查 英国正在制定措施,规范科技公司使用受版权保护的内容来训练其人工智能模型。英国政府于周二启动了一项磋商,旨在提高创意产业和人工智能开发者在人工智能公司如何获得知识产权并将其用于训练目的方面的清晰度。首先,此次咨询将考虑在商业目的背景下使用人工智能训练时对版权法作出例外规定,但同时仍允许权利人保留其权利,以便他们能够控制其内容的使用。其次,此次咨询将提出拟议的措施,以帮助内容创作者许可人工智能模型制作者使用其内容并获得报酬,并让人工智能开发人员知道哪些材料可用于训练他们的人工智能模型。 CNBC-电报频道- #娟姐新闻:@juanjienews

相关推荐

封面图片

纽约时报禁止使用其内容来训练人工智能模型

纽约时报禁止使用其内容来训练人工智能模型 《纽约时报》已采取先发制人的措施,阻止其内容被用于训练人工智能模型。据 Adweek 报道,《纽约时报》于 8 月 3 日更新了服务条款,禁止将其内容(包括文字、照片、图像、音频/视频剪辑、“外观和感觉”、元数据或汇编)用于开发“任何软件程序,包括但不限于训练机器学习或人工智能(AI)系统。” 更新后的条款还规定,未经出版物的书面许可,不得使用旨在使用、访问或收集此类内容的网站爬虫等自动化工具。《纽约时报》表示,拒绝遵守这些新限制可能会导致未具体说明的罚款或处罚。尽管在其政策中引入了新规则,但该出版物似乎并未对其 robots.txt 进行任何修改,该文件用于告知搜索引擎爬虫哪些 URL 可以访问。

封面图片

美国新法案要求人工智能公司披露受版权保护的训练数据

美国新法案要求人工智能公司披露受版权保护的训练数据 美国新法案将迫使科技公司披露用于训练其人工智能模型的任何受版权保护的数据。美国众议员 Adam Schiff (D-CA) 提出的生成人工智能版权披露法案将要求任何为人工智能制作训练数据集的人向版权登记处提交有关其内容的报告。报告应包含数据集中受版权保护的材料的详细摘要以及数据集的 URL (如果可公开获取)。此要求将扩展到对数据集所做的任何更改。公司必须在使用训练数据集的人工智能模型向公众发布之前“不迟于30天”提交报告。该法案不会追溯到现有的人工智能平台,除非其成为法律后对其训练数据集进行更改。

封面图片

OpenAI与《时代》杂志达成合作协议,将使用其内容训练AI模型

OpenAI与《时代》杂志达成合作协议,将使用其内容训练AI模型 PANews 6月28日消息,据财联社报道,《时代》杂志与OpenAI宣布,两家公司达成了一项多年内容授权协议和战略合作伙伴关系。该协议允许OpenAI将这家出版商的内容引入ChatGPT,并帮助训练其最先进的人工智能(AI)模型。OpenAI可以访问《时代》过去100多年的档案和文章,以训练其AI模型,并在其面向消费者的产品(如ChatGPT)中用于回复用户的询问。OpenAI使用《时代》杂志的内容时会注明引用并链接原始来源。作为协议的一部分,《时代》杂志将可以使用OpenAI的技术,以便为其受众"开发新产品"。

封面图片

英国政府正在制定提高人工智能训练数据透明度的规则

英国政府正在制定提高人工智能训练数据透明度的规则 访问:NordVPN 立减 75% + 外加 3 个月时长 另有NordPass密码管理器 《金融时报》在对弗雷泽的采访中发现了这一计划。虽然她概述了总体计划,但她不愿透露有关权利人如何检查其材料是否被人工智能模型使用的细节。知情人士透露,政府将在秋季大选前提出建议。这将使利益相关者能够对提案做出回应,并在提案被通过成为法律之前提出建议或修改意见。据《金融时报》报道,欧盟正在根据其人工智能法案制定类似的规则。根据该法案,人工智能开发者将需要提供一份足够详细的培训内容概要,并实施相关政策,以确保他们的操作符合欧盟版权法的规定。像 OpenAI 这样的人工智能公司已经预料到政府会怎么做,并已与数据提供商达成协议。最近几周,OpenAI 宣布与Reddit、Stack Overflow 和《金融时报》合作,帮助其训练模型。此举将受到声称其权利受到侵犯的权利人的欢迎,然而,对于这些人工智能模型的用户来说,由于知识差距,此举可能会导致质量下降。人工智能公司声称,他们可以根据合理使用规则使用这些数据,因为他们对数据的使用是变革性的。最终,我们将不得不等待法院和政治家们的跟进,看看舆论到底是站在权利人一边,还是站在人工智能开发者一边。 ... PC版: 手机版:

封面图片

狡猾的人工智能模型故意破坏训练图像以规避版权问题

狡猾的人工智能模型故意破坏训练图像以规避版权问题 Ambient Diffusion 是一种文本到图像的人工智能模型,它通过使用严重破坏的图像来保护艺术家的版权。文本到图像生成器的一个大问题是,它们能够复制用来训练它们的原创作品,从而侵犯艺术家的版权。根据美国法律,如果你创作了原创作品并将其"固定"为有形的形式,你就拥有了它的版权字面意思是复制它的权利。在大多数情况下,未经创作者授权,不得使用受版权保护的图片。今年5 月,Google母公司 Alphabet 遭到一群艺术家的集体版权诉讼,声称Google未经许可使用了他们的作品来训练其人工智能图像生成器 Imagen。Stability AI、Midjourney 和 DeviantArt(它们都使用了 Stability 的 Stable Diffusion 工具)也面临着类似的诉讼。为了避免这个问题,德克萨斯大学奥斯汀分校和加州大学伯克利分校的研究人员开发了一种基于扩散的生成式人工智能框架,该框架只对已损坏到无法识别的图像进行训练,从而消除了人工智能记忆和复制原创作品的可能性。扩散模型是一种先进的机器学习算法,它通过向数据集逐步添加噪声来生成高质量的数据,然后学习逆转这一过程。最近的研究表明,这些模型可以记忆训练集中的示例。这显然会对隐私、安全和版权产生影响。这里有一个与艺术品无关的例子:人工智能需要接受 X 光扫描训练,但不能记住特定病人的图像,否则就会侵犯病人的隐私。为了避免这种情况,模型制作者可以引入图像损坏。研究人员利用他们的环境扩散框架证明,只需使用高度损坏的样本,就能训练扩散模型生成高质量的图像。根据"干净"(左)和损坏(右)的训练图像生成的环境扩散输出结果上图显示了在使用损坏时图像输出的差异。研究人员首先用 CelebA-HQ 高质量名人图片数据库中的 3000 张"干净"图片对模型进行了训练。根据提示,该模型生成的图像与原图几乎完全相同(左图)。然后,他们使用 3000 张高度损坏的图像对模型进行了重新训练,其中多达 90% 的单个像素被随机屏蔽。虽然模型生成的人脸栩栩如生,但结果却大相径庭(右图)。UT奥斯汀分校计算机科学教授亚当-克里万斯(Adam Klivans)是这项研究的共同作者,他表示:"从黑洞成像到某些类型的核磁共振成像扫描,基本上任何昂贵或不可能拥有全套未损坏数据的研究都会如此。"与现有的文本到图像生成器一样,其结果并非每次都完美无缺。关键是,艺术家们知道像 Ambient Diffusion 这样的模型不会记住并复制他们的原创作品,就可以稍稍放心了。它能阻止其他人工智能模型记住并复制他们的原始图像吗?不会,但这就是法院的职责所在。研究人员已将他们的代码和环境扩散模型开源,以鼓励进一步的研究。可在GitHub 上查阅。该研究发表在预印本网站arXiv 上。 ... PC版: 手机版:

封面图片

索尼音乐警告科技公司不要“未经授权”使用其内容来训练人工智能

索尼音乐警告科技公司不要“未经授权”使用其内容来训练人工智能 索尼音乐集团已向700多家科技公司和音乐流媒体服务发送信函,警告他们未经明确许可不得使用其音乐来训练人工智能。信函写到,索尼音乐“有理由相信”信函的收件人“可能已经未经授权使用”了其内容。索尼音乐表示,虽然他们认识到人工智能的“巨大潜力”,但“在人工智能系统的训练、开发或商业化中未经授权使用 SMG 内容”会剥夺该公司和艺术家对其内容的控制权和“合适的补偿”。索尼音乐正在寻求保护其知识产权,其中包括音频和视听录音、封面插图、元数据、歌词等。这封信要求收件人详细说明使用了索尼音乐的哪些歌曲来训练人工智能系统,歌曲是如何获取的,制作了多少副本,是否还存在副本,以及为什么起初会存在副本。索尼音乐已经给予信函收件人截止日期作出回应,并指出将在各个司法管辖区内“依据适用法律的最大允许范围”执行其版权。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人