一项新法案将强制科技公司披露用于训练其 AI 模型的所有版权材料

来自亚当·希夫(AdamSchiff)代表(民主党-加州)的《》要求任何制作人工智能训练数据集的人必须向版权登记处提交关于其内容的报告。报告应包括数据集中受版权保护材料的详细摘要,如果数据集是公开可用的,还应包括数据集的网址。这一要求将扩展到对数据集所做的任何更改。公司必须在使用训练数据集的人工智能模型对外发布前“不迟于30天”提交报告。除非在该法案成为法律后对其训练数据集进行了更改,否则该法案不会追溯至现有的人工智能平台。该法案将涉及艺术家、作者和其他创作者自生成式AI兴起以来一直在抱怨的一个问题:AI模型通常在未经许可的情况下使用受版权保护的材料进行训练。版权和人工智能一直是难以驾驭的领域,特别是关于人工智能模型改变或模仿受保护内容的程度的问题尚未解决。艺术家和作者已经转向诉讼来维护他们的权利。标签:#AI#版权频道:@GodlyNews1投稿:@GodlyNewsBot

相关推荐

封面图片

美国新法案要求人工智能公司披露受版权保护的训练数据

美国新法案要求人工智能公司披露受版权保护的训练数据美国新法案将迫使科技公司披露用于训练其人工智能模型的任何受版权保护的数据。美国众议员AdamSchiff(D-CA)提出的生成人工智能版权披露法案将要求任何为人工智能制作训练数据集的人向版权登记处提交有关其内容的报告。报告应包含数据集中受版权保护的材料的详细摘要以及数据集的URL(如果可公开获取)。此要求将扩展到对数据集所做的任何更改。公司必须在使用训练数据集的人工智能模型向公众发布之前“不迟于30天”提交报告。该法案不会追溯到现有的人工智能平台,除非其成为法律后对其训练数据集进行更改。——

封面图片

新法案要求美国 AI 公司披露其使用的版权材料

新法案要求美国AI公司披露其使用的版权材料美国国会提出了一项新法案,将要求AI公司披露其训练生成式AI模型所使用的版权材料。被称为GenerativeAICopyrightDisclosureAct的法案由加州民主党议员AdamSchiff提出,要求AI公司在发布新的生成式AI系统前,将其训练数据集中的版权作品向版权登记机关登记。法案要求AI公司在发布至少30天前递交相关文件,否则将面临处罚。Schiff在一份声明中表示,AI具有改变经济、政治体系和日常生活的颠覆性潜力,“我们必须在AI的巨大潜力与道德准则的迫切需求和保护之间取得平衡。”法案并不禁止使用版权材料训练,但要求公司承担相应责任。线索:@ZaiHuabot投稿:@TNSubmbot频道:@TestFlightCN

封面图片

美众议员提出新法案:AI 公司应当披露受版权保护训练数据使用情况

美众议员提出新法案:AI公司应当披露受版权保护训练数据使用情况https://www.ithome.com/0/761/336.htm该法案要求在AI模型在向消费者提供之前30天内,需要向版权局提交该模型训练数据集中受版权保护作品的完整清单。当现有模型的训练数据集“发生重大改变”时,也必须及时向版权局提交。对违规行为的经济处罚将由版权局根据公司的违规历史和公司规模等因素,逐案作出决定。

封面图片

狡猾的人工智能模型故意破坏训练图像以规避版权问题

狡猾的人工智能模型故意破坏训练图像以规避版权问题AmbientDiffusion是一种文本到图像的人工智能模型,它通过使用严重破坏的图像来保护艺术家的版权。文本到图像生成器的一个大问题是,它们能够复制用来训练它们的原创作品,从而侵犯艺术家的版权。根据美国法律,如果你创作了原创作品并将其"固定"为有形的形式,你就拥有了它的版权--字面意思是复制它的权利。在大多数情况下,未经创作者授权,不得使用受版权保护的图片。今年5月,Google母公司Alphabet遭到一群艺术家的集体版权诉讼,声称Google未经许可使用了他们的作品来训练其人工智能图像生成器Imagen。StabilityAI、Midjourney和DeviantArt(它们都使用了Stability的StableDiffusion工具)也面临着类似的诉讼。为了避免这个问题,德克萨斯大学奥斯汀分校和加州大学伯克利分校的研究人员开发了一种基于扩散的生成式人工智能框架,该框架只对已损坏到无法识别的图像进行训练,从而消除了人工智能记忆和复制原创作品的可能性。扩散模型是一种先进的机器学习算法,它通过向数据集逐步添加噪声来生成高质量的数据,然后学习逆转这一过程。最近的研究表明,这些模型可以记忆训练集中的示例。这显然会对隐私、安全和版权产生影响。这里有一个与艺术品无关的例子:人工智能需要接受X光扫描训练,但不能记住特定病人的图像,否则就会侵犯病人的隐私。为了避免这种情况,模型制作者可以引入图像损坏。研究人员利用他们的环境扩散框架证明,只需使用高度损坏的样本,就能训练扩散模型生成高质量的图像。根据"干净"(左)和损坏(右)的训练图像生成的环境扩散输出结果上图显示了在使用损坏时图像输出的差异。研究人员首先用CelebA-HQ高质量名人图片数据库中的3000张"干净"图片对模型进行了训练。根据提示,该模型生成的图像与原图几乎完全相同(左图)。然后,他们使用3000张高度损坏的图像对模型进行了重新训练,其中多达90%的单个像素被随机屏蔽。虽然模型生成的人脸栩栩如生,但结果却大相径庭(右图)。UT奥斯汀分校计算机科学教授亚当-克里万斯(AdamKlivans)是这项研究的共同作者,他表示:"从黑洞成像到某些类型的核磁共振成像扫描,基本上任何昂贵或不可能拥有全套未损坏数据的研究都会如此。"与现有的文本到图像生成器一样,其结果并非每次都完美无缺。关键是,艺术家们知道像AmbientDiffusion这样的模型不会记住并复制他们的原创作品,就可以稍稍放心了。它能阻止其他人工智能模型记住并复制他们的原始图像吗?不会,但这就是法院的职责所在。研究人员已将他们的代码和环境扩散模型开源,以鼓励进一步的研究。可在GitHub上查阅。该研究发表在预印本网站arXiv上。...PC版:https://www.cnbeta.com.tw/articles/soft/1431886.htm手机版:https://m.cnbeta.com.tw/view/1431886.htm

封面图片

Google认为版权法不应适用于人工智能训练

Google认为版权法不应适用于人工智能训练据《卫报》报道,Google已向澳大利亚监管机构提交了一份案例,要求其可以做自己想做的事,也许出版商应该可以拒绝。,但这是出版商的责任,而不是Google的责任。《卫报》看到的Google提交的文件呼吁澳大利亚采用“版权制度,能够适当和公平地使用受版权保护的内容,以便能够在澳大利亚对人工智能模型进行广泛而多样化的数据训练,同时在他们不喜欢使用人工智能系统来训练他们的数据的情况下,支持实体的可行选择退出”。”据报道,这与Google之前向澳大利亚提出的论点类似,只是它添加了看似合理的退出选项。然而,要求出版商明确选择退出对其数据的任何人工智能培训意味着出版商必须知道他们的作品正在被抓取。那么,由于监管机构正在为所有人工智能提供商制定计划,这也意味着可能无法证明一家公司是否已经停止抓取数据。此外,理论上,人工智能公司可以延迟该过程,Google并未具体说明该系统如何运作。Google是总部位于美国的大型科技公司联盟之一,该联盟最近承诺为人工智能行业建立最佳实践。...PC版:https://www.cnbeta.com.tw/articles/soft/1376013.htm手机版:https://m.cnbeta.com.tw/view/1376013.htm

封面图片

国内首家人工智能数据训练基地投用 大模型训练 “一站式” 提供

国内首家人工智能数据训练基地投用大模型训练“一站式”提供3月29日,2024北京AI原生产业创新大会暨北京数据基础制度先行区成果发布会在北京经开区举办,人工智能公共算力平台3000P智能算力投入使用,北京人工智能数据训练基地启用,这也是国内首家投入运营的人工智能数据训练基地。北京亦庄人工智能公共算力平台是北京最大规模的高性能人工智能计算集群,可以帮助企业推动开展大模型训练,推广行业应用。(新京报)

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人