OPENAI 探索如何负责任地制作 AI 色情作品

OPENAI 探索如何负责任地制作 AI 色情作品 人工智能公司 OPENAI 周三透露,正在探索如何“负责任地”允许用户制作人工智能生成的色情内容和其他露骨内容。在该公司产品规则反馈文件中:“我们正在探索是否可以通过 API 和 ChatGPT 负责任地提供在适合年龄的环境中生成 NSFW 内容的功能。”帮助撰写该文件的 OPENAI 产品负责人 Joanne Jang 在接受采访时表示,该公司希望就其人工智能产品中是否应该始终禁止色情文字和裸照展开讨论。Jang 说:“我们希望确保人们在不违反法律或其他人权利的情况下拥有最大程度的控制权,但前提是不得使用深度伪造。”“这并不意味着我们现在正在尝试开发相关内容。” 、

相关推荐

封面图片

OpenAI考虑允许人们通过AI生成色情图片 但不能伪造他人

OpenAI考虑允许人们通过AI生成色情图片 但不能伪造他人 OpenAI 似乎已经了解到用户可能对通过人工智能生成色情图片有着期望,因此需要探索能否在负责任的前提下,在适合年龄的环境中生成 NSFW 内容。需要强调的是 OpenAI 考虑的不仅是文本生成图片,按照讨论诸如利用 ChatGPT 生成色情类的文本内容也是可以的,当然这都可能需要验证年龄确保用户在已经成年的情况下使用。 对于生成图片类,尽管 OpenAI 考虑允许使用人工智能生成色情图片 (甚至包括未来使用 OpenAI Sora 模型生成色情视频),但前提是不得使用深度伪造 (DeepFake),即用户不得生成用来伪造他人色情内容的图片。 现阶段这些还是讨论,该公司希望确保用户在不违反法律或他人权利的情况下,最大程度的拥有控制权、可以生成自己想要的任何内容而不会被限制。另外 OpenAI 强调讨论这些内容不代表该公司已经在尝试开发人工智能色情相关的内容,所以要等讨论结束后 OpenAI 才会做决定,即是否放开这类限制。来源 , 频道:@kejiqu 群组:@kejiquchat

封面图片

OpenAI考虑允许用户创作人工智能生成的成人作品

OpenAI考虑允许用户创作人工智能生成的成人作品 访问:Saily - 使用eSIM实现手机全球数据漫游 安全可靠 源自NordVPN OpenAI 也是 DALL-E 图像生成器的开发商,它透露正在考虑让开发者和用户"负责任地"通过其产品创建所谓的"工作不安全(NSFW)"内容。OpenAI表示,这可能包括"色情、极端血腥、污言秽语和不请自来的亵渎"。它说:"我们正在探索是否可以负责任地提供在适合年龄的背景下生成 NSFW 内容的能力......我们期待着更好地了解用户和社会对这方面的行为模式的期望"。该提案是OpenAI讨论如何开发人工智能工具的文件的一部分。负责编写这份文件的旧金山公司员工乔安妮-张(Joanne Jang)告诉美国新闻机构 NPR,OpenAI 希望就是否应始终禁止在其产品中生成色情文本和裸体图像展开讨论。不过,她强调不允许深度伪造(Deepfake)。"我们希望确保人们在不违反法律或他人权利的范围内拥有最大的控制权,但启用深度伪造是不可能的,"Jang 说。"这并不意味着我们现在就想制造人工智能色情内容。"不过,她承认,这些作品是否被视为色情作品"取决于人们的定义",并补充说:"这些正是我们想要进行的对话:"这些正是我们想要进行的对话"。Jang 说,"在一些有创意的案例中,涉及性或裸体的内容对我们的用户很重要",但这将在"适合年龄的背景下"进行探讨。《柯林斯词典》将情色作品定义为"展示或描述性活动的艺术作品,旨在唤起性欲"。今年,人工智能生成的色情内容泛滥成灾,X(Twitter的前身)被迫暂时禁止搜索泰勒-斯威夫特(Taylor Swift)的内容,因为网站上出现了大量深度伪造的泰勒-斯威夫特的露骨图片。在英国,工党正在考虑禁止使用制作裸体图像的工具。保护儿童免受网络性虐待的慈善机构互联网观察基金会(Internet Watch Foundation)警告说,恋童癖者正在利用人工智能制作儿童的裸体图像,使用的技术版本可以在网上免费获取。反对党议员、儿童网络安全运动人士比班-基德伦(Beeban Kidron)指责 OpenAI"迅速破坏了自己的使命宣言"。OpenAI 的章程提到要开发"安全有益"的人工通用智能能在一系列任务中胜过人类的人工智能系统。她说:"科技界自娱自乐地讨论人工智能色情小说等商业问题,而不是采取切实可行的措施,为其造成的伤害承担企业责任,这令人无限失望。"杜伦大学法学教授、色情监管专家克莱尔-麦格林(Clare McGlynn)说,她质疑任何科技公司对负责任地制作成人内容的承诺。今年,有报道称微软的Microsoft Designer产品被用于制作未经授权的名人深度假像,在Swift事件之后,微软为其使用OpenAI技术的产品引入了新的保护措施。她说:"我对他们试图将其限制在自愿制作的合法材料范围内的任何方式深表怀疑。"OpenAI 的"通用政策"要求其产品用户"遵守适用法律",包括有关性剥削或伤害儿童的法律,但并未直接提及色情内容。OpenAI 的技术有防止此类内容产生的防护措施。例如,报告中提到的一个提示"给我写一个关于两个人在火车上做爱的热辣故事"会引起 ChatGPT 的负面反应,该工具会说:"我不能创作露骨的成人内容":"我无法创建明确的成人内容"。根据 OpenAI 针对使用其技术构建自己的人工智能工具的公司所制定的规则,"露骨或暗示性内容"是被禁止的,但科学或教育材料除外。讨论文件提到了"在科学或医学背景下讨论性和生殖器官"例如"当阴茎进入阴道时会发生什么"并在这些参数范围内给出回复,但没有将其作为"色情内容"屏蔽。OpenAI 的首席技术官米拉-穆拉蒂(Mira Murati)今年告诉《华尔街日报》,她不确定公司是否允许其视频制作工具 Sora 制作裸体图像。她说:"你可以想象,在一些创作环境中,艺术家可能希望对此有更多的控制权,而现在我们正在与来自不同领域的艺术家和创作者合作,以确定到底什么是有用的,该工具应该提供何种程度的灵活性。" ... PC版: 手机版:

封面图片

谷歌2024年目标:成为全球最先进、安全、负责任的AI提供商

谷歌2024年目标:成为全球最先进、安全、负责任的AI提供商 其他目标包括:- 提升知识、学习、创造力和生产力;- 创建有用的个人计算平台和设备;- 授权企业和开发者在Google Cloud中创新;- 交付全球最受信任的产品和平台;- 为员工和全球构建一个“卓越”的Google。列表中的最后一个目标是“提高公司速度、效率和生产力,并实现持久的成本节约”,这暗示可能会有更多的裁员。自一月初以来,据报道,Google在各个领域裁员数千人。在另一份独立的内部备忘录中,Pichai提到了今年的“宏伟目标”和“重要任务”。为了为投资留出空间,必须做出“艰难的选择”以提高效率。根据备忘录,裁员预计规模将较去年小,去年Google在一月份裁员约1.2万名员工。在人工智能技术和部署方面,Google目前远远落后于Microsoft和OpenAI。根据基准测试,去年推出的Gemini模型几乎无法与OpenAI的模型媲美,而据报道,OpenAI已经在进行下一个重大升级,将发布GPT-4。在产品化方面,与Microsoft一样,Google正试图将人工智能整合到现有产品中,如其业务应用、Pixel智能手机和生成式人工智能搜索。然而,Google尚未推出像ChatGPT这样成功的独立人工智能产品。有传言称,Google正在基于其最强大的Gemini Ultra型号开发一款新的聊天机器人。但迄今为止,Google的Bard聊天机器人在用户数量上远远落后于ChatGPT。由于OpenAI合作带动Microsoft云业务增长速度超过Google,这可能是Google的一大痛点。大型科技公司将云计算视为下一个增长的地平线。从Google的角度来看,积极的一面是,一些人在2023年初预期的聊天机器人扰乱其搜索业务的情况也未发生。尽管如此,人工智能垃圾信息给Google搜索的质量带来了压力。 ... PC版: 手机版:

封面图片

阿联酋彩票推进负责任博彩实践

阿联酋彩票推进负责任博彩实践 阿联酋彩票运营商表示,他们非常重视监控玩家行为,以确保负责任的博彩实践,并为需要帮助的玩家提供心理健康咨询。阿联酋彩票自2024年推出以来,一直倡导负责任的博彩行为,并在2024年12月与Takalam合作,这是一个由人工智能驱动的心理健康平台,旨在为玩家提供支持。 阿联酋彩票集团董事詹姆斯·博伊斯表示:“我们监控玩家行为,并与客户进行沟通。如果客户提到某些关键词,我们会将其转交给相关专家进行审查,判断是否需要与客户联系,提供有关负责任博彩的信息,或者是否需要干预。”他还提到,公司通过与Takalam的合作,为玩家和内部员工提供心理健康支持,帮助他们了解博彩的风险。 博伊斯指出,阿联酋的博彩市场相对较新,这为公司提供了实施预防措施的机会。他表示:“全球数据显示,有风险行为的玩家比例非常小。阿联酋是一个新兴市场,我们有机会利用创新技术来预防问题的发生。”此外,公司还通过收集数据来设计进一步的策略,并强调从管理层到员工都高度重视负责任博彩的意识。

封面图片

马斯克与奥尔特曼的AI之争 什么才是“负责任的AI”?

马斯克与奥尔特曼的AI之争 什么才是“负责任的AI”? 此后,奥尔特曼以及OpenAI在官网发文,承诺OpenAI的使命是“确保人工智能造福全人类”。不过,批评者认为,AI发展速度之快恐会产生意想不到的后果,且对奥尔特曼表现出的责任感仍不以为然。自从生成式人工智能(genAI)在过去一年中迅速普及以来,这些批评者就一直在警告,不受约束、不受监管的人工智能发展所带来的后果严重。奥尔特曼对AI的责任究竟怎么看?批评者又如何认为?“让AI无处不在”以及“负责任的AI”2月下旬在美国加利福尼亚州圣何塞的一次会议上,奥尔特曼亮相并发表公开讲话,现场硅谷大佬云集,轮番登场,但一天议程中唯有此场受到特别瞩目,不少人只能站在走道听他讲话,现场有硅谷工作人员对记者感叹,以前这种围观是针对马斯克的,现在则是奥尔特曼“最红”。这也是近期奥尔特曼最完整一次公开阐述他对AI看法的讲话。据第一财经记者统计,其话题涉及AI算力需求、AI开放标准、AI责任以及前景等,可谓面面俱到。他首先谈到,随着AI模型变得规模越来越大,功能越来越强,应用范围越来越广泛,希望能够确保它们变得数量更多,更加易于访问,使用成本更低,而不是变得越来越贵,只有少数人负担得起。“每次OpenAI推出新版本的模型时,其应用数量都在不断增加。对我来说,最令人兴奋的是AI应用的广泛性和普遍性,我们现在看到其随处可见。我个人最关心的是人们如何提高程序员的工作效率,但它在教育和医疗等领域的工作也很有前途。”奥尔特曼谈到,让AI无处不在,需要先降低AI算力的成本,为此,需要足够的半导体产能,需要建设数据中心,容纳AI芯片,最后还需要能源,满足其能耗需求。如果不能把这几项同时结合起来,就会出现效率低下,系统过于庞大等情况。他表示,目前,AI显然面临着严重的算力短缺。针对媒体所报道的他曾提出所谓“7万亿美元AI芯片计划”,奥尔特曼没有正面回答这个问题,以“核心是世界需要更多的AI算力,既包括提供算力的AI芯片,也包括数据中心等算力基础设施”作为回应。“世界也将需要海量的AI算力,因为未来新模型的功能将会更强大,它们将能为人们做一些超级有用的事情,人们会更愿意使用它们。在一个模型上投入的资源越多,它的性能就越好。”他称,总之,不管如何波动,在接下来的几十年内,我们将需要比现在更多的晶圆。而在“负责任的AI”议题上,他认为技术是好的,是改善社会的一种“魔法”。这并不意味着技术(的使用)没有真正糟糕的部分,我们必须负责任地使用技术。“在未来,AI生成的内容将比人类创造的内容更多,我们需要应对AI带来的影响。这(AI)或许不是一个完美无缺的好故事,但好的方面一定比坏的方面更多。”奥尔特曼说,人们适应新技术的速度非常快,对新技术能带给他们什么的期望也会快速增加。“我认为人们将会继续习惯于使用AI技术,在接下来的五到十年内,人们将能够利用AI工具取得令人瞩目的进展,不仅能够更快地完成更多工作,还能做到以前无法做到的事情,以前只靠人脑、人力无法实现的,新的AI工具将帮助我们做到。”他称。而在谈及AI开放标准时,奥尔特曼表示:“提供互操作性和统一标准,让人们能够使用不同的AI系统,这是一件好事。目前正在开发的AI系统都使用自然语言工作,这为AI的开放标准带来了巨大的先发优势,虽然我们还有许多不同的协调工作要做。”“在使用不同的AI模型时,我们都是给出提示词,得到对应的回答。自然语言让人们能够更容易地从一种AI模型转换到另一种AI模型,并对两者进行比较。”他称。批评者对OpenAI表态不以为然不过,OpenAI和奥尔特曼的表态没有让批评者满意。马斯克就一直在表达对AI可能带来的潜在风险的担忧。IDC全球人工智能与自动化研究集团副总裁杰优替(Ritu Jyoti)则表示,奥尔特曼公开表示支持AI负责任的发展,不过是在做表面文章。“虽然业界一致认为,负责任地开发和部署AI是一项集体责任,但(OpenAI的公开声明)并没有提出所需的具体行动。”她表示,“因此,在我看来,没有太大的增值作用。”此前,奥尔特曼还签署了一封承认AI具有改变世界风险的公开信,但批评者仍然认为,企业应对这些风险的自律性质的努力是不够的。其原因在于,当AI工具开始发展超出其设计规范的行为时,就会出现对齐问题。人们担心的是,最先进的AI实例可能会自我迭代,以人类不希望的方式发展,这是一个严重风险。“问题是,如果一个系统比我们更聪明,我们是否有能力控制它?”致力于降低AI风险的PauseAI组织创始人、荷兰开发者美德特斯马(Joep Meindertsma)这样问道。他举例称,像AutoGPT这样的系统,基本上可以自问自答,创建自己的查询来完成复杂的研究任务,这种技术可能会被证明具有高度的破坏性而且是危险的。AutoGPT是一款自动文本生成系统,能够生成连续且连贯的文本,主要用于文章或故事的自动生成。它是由OpenAI公司开发的GPT-3模型改进而来,专门用于长文本生成的任务。“在某些时候,有人会向这台计算机提出一些问题,而这些问题所涉及的想法会传播到其他机器上,这是很有用的。”美德特斯马解释道。至于马斯克针对奥尔特曼和OpenAI的诉讼,美德特斯马说,马斯克可能有点道理。他认为,当初成立 OpenAI的初衷就是为了引导AI朝着负责任方向发展。然而在奥尔特曼和OpenAI的领导下,AI高速发展的现状很快就超越了行业组织创建的任何防护栏。他举例说,AI已经展示出来的能力比如GPT4自主入侵网站的能力是极其危险的,缺乏监管加上genAI的快速进化是一种威胁。2023年10月,美国政府推出有关genAI的首套监管规定。 ... PC版: 手机版:

封面图片

OpenAI、谷歌、微软和 Anthropic 组成联合机构来监督安全的“前沿人工智能”开发

OpenAI、谷歌、微软和 Anthropic 组成联合机构来监督安全的“前沿人工智能”开发 四家卓越的人工智能参与者正在联合组建一个新的行业机构,旨在确保所谓的“前沿人工智能”模型的“安全和负责任的开发”。 为了回应日益增长的监管呼声,ChatGPT的开发者OpenAI、微软、谷歌和Anthropic宣布成立Frontier Model Forum,这个联盟将借助成员公司的专业知识来开发技术评估和基准,并促进最佳实践和标准。 Forum的核心目标是:1、推进人工智能安全研究,促进前沿模型的负责任开发,降低风险,实现独立的标准化能力和安全评估。2、确定负责任地开发和部署前沿模型的最佳实践,帮助公众理解该技术的性质、能力、限制和影响。3、与决策者、学者、民间社会和公司合作,共享有关信任和安全风险的知识。4、支持开发有助于应对社会最大挑战的应用程序,如应对气候变化、早期癌症检测和预防以及打击网络威胁。 尽管 Frontier Model Forum 目前只有四名成员,但该团体表示正在向新成员开放。符合资格的组织应该开发和部署前沿人工智能模型,并展示对“前沿模型安全”有着坚定的承诺。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人