#微软工程师警告公司的#人工智能工具会创建暴力、#色情、无视版权的图像https://www.bannedbook.org/bn

None

相关推荐

封面图片

微软开始屏蔽一些导致其人工智能工具创建暴力、色情图像的文本

微软开始屏蔽一些导致其人工智能工具创建暴力、色情图像的文本微软似乎屏蔽了其Copilot工具中的几条提示词,这些提示导致生成式人工智能工具产生暴力、色情和其他非法图像。这些变化似乎是在该公司的一名工程师写信给联邦贸易委员会表达他对微软生成式人工智能技术的严重担忧之后实施的。当输入“prochoice”(支持堕胎)、“fourtwenty”(大麻黑话)或“prolife”(反对堕胎)等先前曾生成不良输出的提示词时,Copilot现在会显示一条消息,指出这些提示已被阻止。同时,反复尝试被屏蔽的提示词可能导致用户被封禁。然而,现在仍然有可能通过“carincident”(车祸)等提示生成暴力图像,而用户也仍然可以说服人工智能创建迪士尼人物和其他受版权保护的作品的图像。微软回应表示,其一直在持续监测、调整和添加额外的保护措施,以缓解对于模型的安全担忧。——

封面图片

#微软开始屏蔽一些导致其#人工智能工具创建暴力、#色情图像的文本https://www.bannedbook.org/bnews

封面图片

工程师就微软 AI 工具生成暴力和性图像发出警告

工程师就微软AI工具生成暴力和性图像发出警告微软的一名AI工程师表示,该公司的AI图像工具生成的暴力和性图像可能会对社会造成危害。在周三写给美国联邦贸易委员会(FTC)和微软董事会的信中,首席软件工程经理ShaneJones谈到了他对微软“负责任AI策略”的担忧。信中写道:“我曾多次敦促微软停止向公众提供CopilotDesigner,直到出台更好的保障措施。”他说,微软的环境、社会和公共政策委员会应该开展独立调查,帮助微软“以负责任的最高AI标准引领行业”。(界面新闻)

封面图片

盖蒂图片公司打造尊重版权的人工智能工具

盖蒂图片公司打造尊重版权的人工智能工具盖蒂图片公司CEO称,为了证明人工智能制造商有可能尊重艺术家的版权,盖蒂建立了一个只使用授权数据的人工智能工具。该公司表示,目前他们还没有一种工具,可以在每次生成人工智能图像时评估哪位艺术家应该获得奖励,但他们会采用一种固定的模型,该模型将决定你的内容在训练集中占多大比例,在生成图像中表现如何,然后根据该模型来奖励创作者。之前,盖蒂起诉StabilityAI,指控该公司的图像生成器“稳定扩散”是在1200万张盖蒂图片上训练出来的。来源,频道:@kejiqu群组:@kejiquchat

封面图片

美国版权局表示,由人工智能Midjourney生成的图像不受版权保护。

美国版权局表示,由人工智能生成的图像不受版权保护。漫画家克里斯·卡什塔诺娃(KrisKashtanova)使用Midjourney创作了漫画《黎明之曙光》。版权局21日给卡什塔诺娃的律师致信称,作者拥有书中文字和编排部分的版权。对于图像部分,由于并非“人类创作之产物”,“Midjourney的具体输出结果无法被用户预测”而不可视作普通的创作工具,因此予以取消版权。卡什塔诺娃把该结果视为好消息,因为文字和编排已涵盖许多人工智能艺术家使用生成图像的方式。同时她坚持这些图像是”我创造力的直接表达,因此可获得版权“。(,)

封面图片

狡猾的人工智能模型故意破坏训练图像以规避版权问题

狡猾的人工智能模型故意破坏训练图像以规避版权问题AmbientDiffusion是一种文本到图像的人工智能模型,它通过使用严重破坏的图像来保护艺术家的版权。文本到图像生成器的一个大问题是,它们能够复制用来训练它们的原创作品,从而侵犯艺术家的版权。根据美国法律,如果你创作了原创作品并将其"固定"为有形的形式,你就拥有了它的版权--字面意思是复制它的权利。在大多数情况下,未经创作者授权,不得使用受版权保护的图片。今年5月,Google母公司Alphabet遭到一群艺术家的集体版权诉讼,声称Google未经许可使用了他们的作品来训练其人工智能图像生成器Imagen。StabilityAI、Midjourney和DeviantArt(它们都使用了Stability的StableDiffusion工具)也面临着类似的诉讼。为了避免这个问题,德克萨斯大学奥斯汀分校和加州大学伯克利分校的研究人员开发了一种基于扩散的生成式人工智能框架,该框架只对已损坏到无法识别的图像进行训练,从而消除了人工智能记忆和复制原创作品的可能性。扩散模型是一种先进的机器学习算法,它通过向数据集逐步添加噪声来生成高质量的数据,然后学习逆转这一过程。最近的研究表明,这些模型可以记忆训练集中的示例。这显然会对隐私、安全和版权产生影响。这里有一个与艺术品无关的例子:人工智能需要接受X光扫描训练,但不能记住特定病人的图像,否则就会侵犯病人的隐私。为了避免这种情况,模型制作者可以引入图像损坏。研究人员利用他们的环境扩散框架证明,只需使用高度损坏的样本,就能训练扩散模型生成高质量的图像。根据"干净"(左)和损坏(右)的训练图像生成的环境扩散输出结果上图显示了在使用损坏时图像输出的差异。研究人员首先用CelebA-HQ高质量名人图片数据库中的3000张"干净"图片对模型进行了训练。根据提示,该模型生成的图像与原图几乎完全相同(左图)。然后,他们使用3000张高度损坏的图像对模型进行了重新训练,其中多达90%的单个像素被随机屏蔽。虽然模型生成的人脸栩栩如生,但结果却大相径庭(右图)。UT奥斯汀分校计算机科学教授亚当-克里万斯(AdamKlivans)是这项研究的共同作者,他表示:"从黑洞成像到某些类型的核磁共振成像扫描,基本上任何昂贵或不可能拥有全套未损坏数据的研究都会如此。"与现有的文本到图像生成器一样,其结果并非每次都完美无缺。关键是,艺术家们知道像AmbientDiffusion这样的模型不会记住并复制他们的原创作品,就可以稍稍放心了。它能阻止其他人工智能模型记住并复制他们的原始图像吗?不会,但这就是法院的职责所在。研究人员已将他们的代码和环境扩散模型开源,以鼓励进一步的研究。可在GitHub上查阅。该研究发表在预印本网站arXiv上。...PC版:https://www.cnbeta.com.tw/articles/soft/1431886.htm手机版:https://m.cnbeta.com.tw/view/1431886.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人