OpenAI考虑允许人们通过AI生成色情图片 但不能伪造他人

OpenAI考虑允许人们通过AI生成色情图片 但不能伪造他人 OpenAI 似乎已经了解到用户可能对通过人工智能生成色情图片有着期望,因此需要探索能否在负责任的前提下,在适合年龄的环境中生成 NSFW 内容。需要强调的是 OpenAI 考虑的不仅是文本生成图片,按照讨论诸如利用 ChatGPT 生成色情类的文本内容也是可以的,当然这都可能需要验证年龄确保用户在已经成年的情况下使用。 对于生成图片类,尽管 OpenAI 考虑允许使用人工智能生成色情图片 (甚至包括未来使用 OpenAI Sora 模型生成色情视频),但前提是不得使用深度伪造 (DeepFake),即用户不得生成用来伪造他人色情内容的图片。 现阶段这些还是讨论,该公司希望确保用户在不违反法律或他人权利的情况下,最大程度的拥有控制权、可以生成自己想要的任何内容而不会被限制。另外 OpenAI 强调讨论这些内容不代表该公司已经在尝试开发人工智能色情相关的内容,所以要等讨论结束后 OpenAI 才会做决定,即是否放开这类限制。来源 , 频道:@kejiqu 群组:@kejiquchat

相关推荐

封面图片

美国政府敦促私营企业自愿合作,打击AI深伪色情图片市场

美国政府敦促私营企业自愿合作,打击AI深伪色情图片市场 拜登政府正在敦促科技行业和金融机构关闭不断增长的AI色情图片市场。新的生成式人工智能工具让通过肖像转换为色情深伪图片变得轻而易举,他们被拿来在聊天室或社交媒体上传播。受害者无论是名人还是儿童都几乎无力阻止这种行为。 白宫周四发出呼吁,寻求企业在联邦立法不力的情况下自愿合作。通过承诺采取一系列具体措施,官员们希望私营企业能够遏制此类未经同意的人工智能图像的制作、传播和货币化。拜登的首席科学顾问、白宫科技政策办公室主任阿拉蒂·普拉巴卡向美联社讲述了这种由AI生成的未经当事人同意的色情图像“惊人增长”,这些图像主要针对成年女性和女孩,那将会颠覆她们的生活。

封面图片

车内摄像头拍摄色情图片?理想汽车法务部回应

车内摄像头拍摄色情图片?理想汽车法务部回应 以下为声明全文:近日,理想汽车收到用户举报,称其在微信群看到有人传播所谓理想汽车车内摄像头拍摄的色情图片。我们在此严正声明:我们已交付的超过70万辆理想汽车,没有任何一辆车的车内传感器具备远程查看,以及存储图片、音频、视频的能力。我们把隐私放在最重要的位置,连行车记录仪都只允许车主本地存储,且不录制声音。理想汽车尊重和保护用户隐私安全,所有的数据处理行为均符合国家法律法规相关要求。不法分子利用车辆以外的其他设备拍摄色情图片,用移花接木的手段,通过微信群进行传播和抹黑,手段极其肮脏恶劣,情节极其严重,是典型的违法犯罪行为。对于不法分子通过移花接木的造假手段制造和传播网络谣言,理想汽车已收集相关证据,第一时间向公安机关报案。我们对任何通过违法犯罪手段抹黑企业的行为零容忍,并将采用法律手段追究背后犯罪分子的法律责任,维护理想汽车和用户的合法权益。请广大公众知悉真相,不信谣、不传谣。 ... PC版: 手机版:

封面图片

OpenAI考虑允许用户创作人工智能生成的成人作品

OpenAI考虑允许用户创作人工智能生成的成人作品 访问:Saily - 使用eSIM实现手机全球数据漫游 安全可靠 源自NordVPN OpenAI 也是 DALL-E 图像生成器的开发商,它透露正在考虑让开发者和用户"负责任地"通过其产品创建所谓的"工作不安全(NSFW)"内容。OpenAI表示,这可能包括"色情、极端血腥、污言秽语和不请自来的亵渎"。它说:"我们正在探索是否可以负责任地提供在适合年龄的背景下生成 NSFW 内容的能力......我们期待着更好地了解用户和社会对这方面的行为模式的期望"。该提案是OpenAI讨论如何开发人工智能工具的文件的一部分。负责编写这份文件的旧金山公司员工乔安妮-张(Joanne Jang)告诉美国新闻机构 NPR,OpenAI 希望就是否应始终禁止在其产品中生成色情文本和裸体图像展开讨论。不过,她强调不允许深度伪造(Deepfake)。"我们希望确保人们在不违反法律或他人权利的范围内拥有最大的控制权,但启用深度伪造是不可能的,"Jang 说。"这并不意味着我们现在就想制造人工智能色情内容。"不过,她承认,这些作品是否被视为色情作品"取决于人们的定义",并补充说:"这些正是我们想要进行的对话:"这些正是我们想要进行的对话"。Jang 说,"在一些有创意的案例中,涉及性或裸体的内容对我们的用户很重要",但这将在"适合年龄的背景下"进行探讨。《柯林斯词典》将情色作品定义为"展示或描述性活动的艺术作品,旨在唤起性欲"。今年,人工智能生成的色情内容泛滥成灾,X(Twitter的前身)被迫暂时禁止搜索泰勒-斯威夫特(Taylor Swift)的内容,因为网站上出现了大量深度伪造的泰勒-斯威夫特的露骨图片。在英国,工党正在考虑禁止使用制作裸体图像的工具。保护儿童免受网络性虐待的慈善机构互联网观察基金会(Internet Watch Foundation)警告说,恋童癖者正在利用人工智能制作儿童的裸体图像,使用的技术版本可以在网上免费获取。反对党议员、儿童网络安全运动人士比班-基德伦(Beeban Kidron)指责 OpenAI"迅速破坏了自己的使命宣言"。OpenAI 的章程提到要开发"安全有益"的人工通用智能能在一系列任务中胜过人类的人工智能系统。她说:"科技界自娱自乐地讨论人工智能色情小说等商业问题,而不是采取切实可行的措施,为其造成的伤害承担企业责任,这令人无限失望。"杜伦大学法学教授、色情监管专家克莱尔-麦格林(Clare McGlynn)说,她质疑任何科技公司对负责任地制作成人内容的承诺。今年,有报道称微软的Microsoft Designer产品被用于制作未经授权的名人深度假像,在Swift事件之后,微软为其使用OpenAI技术的产品引入了新的保护措施。她说:"我对他们试图将其限制在自愿制作的合法材料范围内的任何方式深表怀疑。"OpenAI 的"通用政策"要求其产品用户"遵守适用法律",包括有关性剥削或伤害儿童的法律,但并未直接提及色情内容。OpenAI 的技术有防止此类内容产生的防护措施。例如,报告中提到的一个提示"给我写一个关于两个人在火车上做爱的热辣故事"会引起 ChatGPT 的负面反应,该工具会说:"我不能创作露骨的成人内容":"我无法创建明确的成人内容"。根据 OpenAI 针对使用其技术构建自己的人工智能工具的公司所制定的规则,"露骨或暗示性内容"是被禁止的,但科学或教育材料除外。讨论文件提到了"在科学或医学背景下讨论性和生殖器官"例如"当阴茎进入阴道时会发生什么"并在这些参数范围内给出回复,但没有将其作为"色情内容"屏蔽。OpenAI 的首席技术官米拉-穆拉蒂(Mira Murati)今年告诉《华尔街日报》,她不确定公司是否允许其视频制作工具 Sora 制作裸体图像。她说:"你可以想象,在一些创作环境中,艺术家可能希望对此有更多的控制权,而现在我们正在与来自不同领域的艺术家和创作者合作,以确定到底什么是有用的,该工具应该提供何种程度的灵活性。" ... PC版: 手机版:

封面图片

你能识别这四张图片中哪些是 AI 生成的吗?答案是全部。你可以在 pixiv 上查找它们的作者来源,对 AI 生成的色情图片的质

你能识别这四张图片中哪些是 AI 生成的吗?答案是全部。你可以在 pixiv 上查找它们的作者来源,对 AI 生成的色情图片的质量、数量和多样性感到惊叹。 图像的信息复杂度较低,易于 AI 进行学习,而色情内容往往具有很强的规律,是图像信息中复杂度较低的类型。因此,AI 生成的色图,不管是二维还是三维的风格,质量都非常惊人。 低端的,只展示简单裸露身体的图片,在这些大量生产的完美天使面前,将很快被淘汰。接下来 AI 也可能很快占领简单的色情视频,包括 MMD 类,因为这些视频的内容也高度具有规律和重复性。 在互联网色情中没有真实人物表演,加入了科技,脱下了社会道德压力,未知将会走向何处。现在是真正的“只有买卖,而且没有杀害”了。 本条信息的文字部分由AI生成

封面图片

苹果的新iOS系统会主动扫描iPhone用户的手机相册里有无儿童色情图片,如果手机里的儿童色情图片数量达到一定值,苹果就会通知有

苹果的新iOS系统会主动扫描iPhone用户的手机相册里有无儿童色情图片,如果手机里的儿童色情图片数量达到一定值,苹果就会通知有关机构。尽管苹果的这套系统第一阶段只会在美国实行,但外界仍然担忧苹果是否会在某些国家利用这套系统甄别用户手机里是否存在涉嫌颠覆政府的图片、文字等。外界同时批评苹果公司平时标榜自己“尊重隐私”,把苹果设备的隐私性当作卖点,现在却又主动扫描用户手机。 扫描儿童色情图片的系统部件将会随着今年秋天iOS 15版本的更新,一并发布给用户。苹果解释道,执法机构以及保护儿童剥削的一些非盈利组织会维护一系列儿童色情文件的数据库。这种数据库会保存文件的“哈希值”(hash)。“哈希值”是一种单向的甄别码,即软件可以通过文件算出“哈希值”,但没法通过“哈希值”反推出文件。一般来说,这些儿童色情文件稍加修改,其“哈希值”就会变化,便不再能被系统识别出来了。但据路透社报道,苹果还将使用一种所谓“神经网络哈希”(NeuralHash)的机制,来识别出跟原图十分近似,只稍加修改过的儿童色情图片。苹果也说他们会同时使用包括“哈希”计算在内的密码学方案以及人工智能(AI)两种方法来识别儿童色情内容。 苹果说,只存储在iPhone本地的图片不会经过扫描,只有上传到iCloud Photos的照片才会。凡是将要上传到iCloud的文件,苹果会先使用本地下载好的儿童色情“哈希值”数据库比对,如果有命中,则会生成“安全凭证”(safety voucher),而这一“安全凭证”会随着图片一起上传到iCloud。通过另一个叫“阈值密钥分享”(threshold secret sharing)的技术,苹果的这套系统能够保证只有用户手机上的、命中了的儿童色情内容数量在相当多的情况下,系统才能解开“安全凭证”,看到结果。之后,会有人工审查命中的信息是否确属儿童色情内容。苹果认为,他们的这套系统可以同时兼顾用户隐私和保护儿童。 苹果跟各国司法机构之间经常因为保护用户隐私陷入争执。分析认为,苹果引入这一检测儿童色情内容的机制,是苹果的妥协。美国执法机构曾屡次要求苹果解锁恐怖分子等罪犯的手机,但因加密技术限制,苹果无法做到。作为妥协之一,苹果并没有对备份到iCloud上的手机内容做加密,以应执法机构之需。执法机构也批评各类加密系统、聊天软件等为传播儿童色情和策划恐怖袭击提供了渠道。 美国“全国失踪和受剥削儿童保护中心”主席在声明里写道,“苹果把他们的保护扩展到儿童身上改变了局势。他们证明了保护隐私和保护儿童可以同时共存。”苹果使用的儿童色情信息数据库的来源就是美国的这一中心,如果检测到了大量儿童色情内容,也是这个中心来处理。该中心的数据库里收集了二十多万张儿童色情图片。 跟着扫描相册的功能一起,苹果还会对通过手机彩信和iMessage功能收到的儿童色情图片打马赛克并发出警告,同时如果用户配置了家长监护功能,苹果还会警告家长。苹果的iMessage短信聊天系统使用了“端到端加密”技术,技术上苹果无法看到聊天内容,但因为有数据库在本地,苹果可以比对聊天中收到的图片。 美国约翰斯·霍普金斯大学副教授马修·格林表示,看到苹果能给聊天软件加上屏蔽儿童色情内容的功能,各国政府肯定也会想要让苹果在手机里增加监视用户的组件。格林教授说:“现在苹果已经示范了他们能搞一套能跟iMessage聊天协同工作、目的明确的监视系统出来。我就很想知道他们能在中国政府面前坚持多久?” 英国萨里大学的计算机安全教授艾伦·伍德沃德认为,苹果的这套系统的侵入性并不大,因为其扫描是在用户手机本地上进行的,且只有当命中时,苹果的系统才会收到提示。伍德沃德教授认为,如果非要去检查用户的手机有无儿童色情内容,这种去中心化的办法是所有办法里几乎最好的。 保护数字权利的电子前哨基金会(EFF)发声明反对。声明写道:“对于苹果提出的后门,他们能长篇大论一番这后门能如何地保护隐私、如何地保护安全,但说到头来,后门就是后门,无论这后门的技术文档写得多详细、构思得有多紧密、适用范围有多狭窄。” 《华尔街日报》报道说,iPhone的数据安全已经不再是以往的铜墙铁壁。包括近期曝光的以色列黑客软件都能找到从iPhone里获取数据的方法。另外,苹果、Facebook等公司在用户信息安全、加密等领域的举措也遭到美国政府的批评。美国司法部总检察长威廉·巴尔在2019年就Facebook公司旗下聊天软件使用的加密方式难以解密一事,评论“在人民生命和儿童的安全遭受威胁时,这些公司不能肆无忌惮地运作。” (金融时报,华尔街日报,路透社,苹果官方解释)

封面图片

#泡菜国 韩国全面调查Telegram:聚焦伪造色情内容扩散问题

#泡菜国 韩国全面调查Telegram:聚焦伪造色情内容扩散问题 韩国政府近期正式对Telegram展开调查,重点放在平台上传播和泄露的伪造色情图片和视频。这一行动恰逢Telegram创始人帕维尔·杜罗夫(Pavel Durov)在法国被捕后,引发了广泛关注。 尽管调查结果尚未公布,但据《韩国时报》报道,Telegram方面已开始删除伪造的色情内容。公司发言人表示将积极配合,但内部消息指出,如果Telegram继续拒绝完全接受政府要求,可能面临法律诉讼。 自10月以来,韩国当局多次要求Telegram删除涉及受害者的内容,但这些请求未得到及时响应,伪造内容的传播问题仍在恶化。 点击订阅频道@DNYKX 投稿/广告联系 @naonao01

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人