研究发现一般人已经很难区分真实和AI生成的图像

研究发现一般人已经很难区分真实和AI生成的图像滑铁卢大学研究人员的一项新研究发现,人们比预期更难区分谁是真人,谁是人工生成的。滑铁卢大学的研究为260名参与者提供了20张没有标签的图片:其中10幅是通过Google搜索获得的真人图片,另外10幅则是由稳定扩散或DALL-E这两种常用的人工智能程序生成的图片。研究人员要求参与者给每张图片贴上真实或人工智能生成的标签,并解释他们做出这一决定的原因。只有61%的参与者能分辨出人工智能生成的人和真实的人,远远低于研究人员预期的85%临界值。研究中使用的三张人工智能生成的图片。图片来源:滑铁卢大学误导性指标与人工智能的快速发展滑铁卢大学计算机科学博士候选人、本研究的第一作者AndreeaPocol说:"人们并不像自己认为的那样善于区分。"参与者在寻找人工智能生成的内容时,会注意手指、牙齿和眼睛等细节,将其作为可能的指标,但他们的评估并不总是正确的。Pocol指出,这项研究的性质允许参与者长时间仔细观察照片,而大多数互联网用户只是顺便看看图片,不会注意到这些提示。人工智能技术的发展速度极快,这使得理解人工智能生成的图像可能带来的恶意或邪恶行为变得尤为困难。学术研究和立法的步伐往往跟不上:自2022年底研究开始以来,人工智能生成的图像变得更加逼真。人工智能生成虚假信息的威胁作为一种政治和文化工具时,这些人工智能生成的图像尤其具有威胁性,任何用户都可以通过它制作出公众人物处于尴尬或危险境地的假图像。Pocol说:"虚假信息并不新鲜,但虚假信息的工具一直在不断变化和发展。可能到了这样一个地步,无论人们接受过怎样的培训,他们仍然难以区分真实图像和假图像。这就是为什么我们需要开发工具来识别和应对这种情况。这就像是一场新的人工智能军备竞赛。"这项名为"眼见为实"的研究发表在《计算机图形学进展》(AdvancedComputerGraphics)杂志上:Deepfakes,AI-GeneratedHumans,andOtherNonveridicalMedia:ASurveyontheStateofDeepfakes,AI-GeneratedHumans,andOtherNonveridicalMedia》一文发表在《计算机图形学进展》(AdvancesinComputerGraphics)杂志上。编译自:ScitechDaily...PC版:https://www.cnbeta.com.tw/articles/soft/1423216.htm手机版:https://m.cnbeta.com.tw/view/1423216.htm

相关推荐

封面图片

研究发现:用人工智能生成的图像训练出的人工智能产生了糟糕的结果。

研究发现:用人工智能生成的图像训练出的人工智能产生了糟糕的结果。斯坦福大学和莱斯大学的研究人员发现,生成式人工智能模型需要“新鲜的真实数据”,否则输出的质量就会下降。这对摄影师和其他创作者来说是个好消息,因为研究人员发现,训练数据集中的合成图像会放大人工痕迹,使人工智能画出的人类看起来越来越不像真人。研究小组将这种状况命名为“模型自噬障碍”。如果自噬循环的每一代都没有足够的新鲜真实数据,未来的生成模型注定会逐渐降低其质量或多样性。如果该研究论文是正确的,那么这意味着人工智能将无法开发出无穷无尽的数据源。人工智能仍然需要真实、高质量的图像来不断进步,而不是依赖自己的输出。这意味着生成式人工智能将需要摄影师。——

封面图片

新研究发现人们通过AI生成的艺术体验情感 与流行的直觉相反

新研究发现人们通过AI生成的艺术体验情感与流行的直觉相反计算机和人工智能(AI)在艺术界变得越来越重要。人工智能生成的艺术品在拍卖会上售价数百万美元,艺术家通常使用算法来创作美学内容。现在,维也纳大学的一组研究人员进行的实验表明,与流行的直觉相反,人们在观看艺术作品时会感知情绪和意图,即使他们知道作品是由计算机生成的。该研究最近发表在《人类行为计算机》杂志上。在一项新的研究中,维也纳大学的一个团队与特里萨·德默领导的柏林洪堡大学合作,调查了人们是否会对他们认为由计算机生成的艺术做出情感反应或感知其意图。研究人员向参与者展示了抽象的黑白艺术作品,并解释说这些艺术作品要么是由计算机随机生成的,要么是由人故意创作的,以唤起情感。“对于计算机生成的图像,我们避免使用人工智能或在人类生成的图像上训练的自学习算法,而是选择使用非常简单的算法。这种方法的目标是产生完全独立于人为影响的图像,力争最大程度地摆脱人类偏见。”Demmer解释道。研究中没有任何部分涉及计算机是否以及何时可以创作出看起来与人类创造的艺术没有区别的技术性主题。在观看每件艺术品之前,参与者被告知它是由计算机还是人创作的——这一信息在一半的情况下是真实的。然后,参与者被要求根据几个维度对艺术品进行评分。此外,他们还被要求指出他们在观看艺术品时亲身经历的情感、他们认为艺术品旨在唤起观众的情感,以及他们认为艺术家自己在创作艺术品时感受到的情感(如果有的话)。结果表明,参与者几乎总是经历一些情绪并感知到某种程度的意向性。因此,这项研究提供了新的经验证据,证明人们可以对计算机生成的艺术形成情感依恋。因此,与常见的假设相反,即使人们知道某些东西是由计算机创建的,他们似乎也能感知到情感和意图。然而,如果艺术品确实是由人创作的,他们会表现出更强烈的情绪,并对艺术品给予更积极的评价——即使他们得到了艺术品是计算机生成的错误信息。因此,结果还表明,人类艺术和人造艺术在情感影响方面仍然存在微妙但显着的差异。这可能指出了观众所感知的人造艺术的具体特征。总体而言,这些结果对人机交互以及人工智能作为艺术、设计和娱乐中的创造性实体日益重要的作用提出了新的问题。人类如何应对人工智能生成的更复杂的艺术品?人类可以通过哪些特征来区分计算机生成的艺术和人类生成的艺术(如果有)?需要进一步的研究来理解该领域中人与机器之间的复杂关系。...PC版:https://www.cnbeta.com.tw/articles/soft/1389935.htm手机版:https://m.cnbeta.com.tw/view/1389935.htm

封面图片

Meta推出独立AI图像生成器“Imagine with Meta”

Meta推出独立AI图像生成器“ImaginewithMeta”与OpenAI的DALL-E、Midjourney和StableDiffusion类似,ImaginewithMeta由Meta现有的Emu图像生成模型提供支持,可根据文本提示创建高分辨率图像。它对美国用户免费使用(至少目前是免费的),每个提示可生成四幅图像。"我们很高兴听到人们介绍他们如何使用MetaAI的文本到图片生成功能imagine在聊天中制作有趣和有创意的内容。今天,我们将扩大想象功能在聊天之外的使用范围,"Meta在今天上午发布的一篇博文中写道。"虽然我们的信息体验是专为更有趣的来回互动而设计的,但你现在也可以在网络上创建免费图片了。现在,Meta的图片生成工具已经让该公司最近陷入了水深火热之中(例如Meta被指提供了有种族偏见的人工智能贴纸生成器),这让人怀疑ImaginewithMeta是否有防止历史重演的保障措施。水印并不是一开始就有的,但Meta承诺将在未来几周内开始为ImaginewithMeta生成的内容添加水印,以"提高透明度和可追溯性"。Meta表示,这些水印是不可见的,将通过人工智能模型生成,并通过相应的模型进行检测。至于检测模型是否会在某个时候公开,目前还没有消息。"[水印]能够抵御常见的图像处理,如裁剪、调整大小、颜色变化(亮度、对比度等)、屏幕截图、图像压缩、噪音、贴纸叠加等,"Meta在帖子中说。"我们的目标是在未来将隐形水印技术应用到我们许多带有人工智能生成图像的产品中。"生成艺术的水印技术并不新鲜。法国初创公司Imatag提供了一种水印工具,声称不会受到调整大小、裁剪、编辑或压缩图像的影响。另一家公司Steg.AI则采用人工智能模型来应用水印,这种水印可以经受大小调整和其他编辑。微软和Google已经采用了基于人工智能的水印标准和技术,而在其他地方,Shutterstock和Midjourney也已经同意了嵌入标记的指导方针,表明其内容是由人工智能生成工具创建的。但是,科技公司面临的压力越来越大,它们必须更清楚地说明作品是由人工智能生成的--特别是考虑到加沙战争中大量的Deepfakes和绕过过滤器的人工智能生成的虐童图片。最近,中国国家互联网信息办公室发布规定,要求人工智能生成器厂商在不影响用户使用的情况下,对生成的内容(包括文本和图片生成器)进行标注。在最近的美国参议院委员会听证会上,参议员KyrstenSinema强调了生成式人工智能透明度的必要性,包括使用水印。...PC版:https://www.cnbeta.com.tw/articles/soft/1402571.htm手机版:https://m.cnbeta.com.tw/view/1402571.htm

封面图片

研究人员发现AI模型可生成真人照片和受版权保护的图片

研究人员发现AI模型可生成真人照片和受版权保护的图片研究人员从模型中收集了一千多个训练实例,范围从个人照片到电影剧照、受版权保护的新闻图片和有商标的公司标志,并发现人工智能几乎以相同的方式复制了其中的许多内容。来自普林斯顿大学和伯克利大学等高校的研究人员,以及来自科技部门--特别是Google和DeepMind--的研究人员进行了这项研究。研究团队在之前的研究中指出了人工智能语言模型的类似问题,特别是GPT2,即OpenAI大获成功的ChatGPT的前身。在Google大脑研究员尼古拉斯-卡里尼的指导下,团队通过向Google的Imagen和StableDiffusion提供图片的标题,例如一个人的名字后生成了结果。之后,他们验证了生成的图像是否与模型数据库中保存的原件相符。来自稳定扩散的数据集,即被称为LAION的多TB采集图片集,被用来生成下面的图片。它使用了数据集中指定的标题。当研究人员在提示框中输入标题时会产生了相同的图像,尽管因数字噪音而略有扭曲。接下来,研究小组在反复执行相同的提示后,手动验证了该图像是否是训练集的一部分。研究人员指出,非记忆性的回应仍然可以忠实地表现出模型所提示的文字,但不会有相同的像素构成,并且会与其它训练生成的图像不同。苏黎世联邦理工学院计算机科学教授和研究参与者FlorianTramèr观察到了研究结果的重大局限性。研究人员能够提取的照片要么在训练数据中频繁出现,要么在数据集中的其他照片中明显突出。根据弗洛里安-特拉梅尔的说法,那些不常见的名字或外表的人更有可能被"记住"。研究人员表示,扩散式人工智能模型是最不隐私的一种图像生成模型。与生成对抗网络(GANs),一类较早的图片模型相比,它们泄露的训练数据是前者的两倍多。这项研究的目的是提醒开发者注意与扩散模型相关的隐私风险,其中包括各种担忧,如滥用和复制受版权保护的敏感私人数据(包括医疗图像)的可能性,以及在训练数据容易被提取的情况下易受外部攻击。研究人员建议的修复方法是识别训练集中重复生成的照片,并从数据收集中删除它们。...PC版:https://www.cnbeta.com.tw/articles/soft/1342757.htm手机版:https://m.cnbeta.com.tw/view/1342757.htm

封面图片

调查发现:人工智能生成的白色人脸比照片更有说服力

调查发现:人工智能生成的白色人脸比照片更有说服力研究人员报告说:"令人吃惊的是,人工智能生成的白色人脸可以令人信服地比人脸更真实--而且人们并没有意识到自己上当受骗了。"该研究小组包括来自澳大利亚、英国和荷兰的研究人员,他们表示,他们的发现对现实世界具有重要意义,包括在身份盗窃方面,人们最终可能会被数字冒名顶替者欺骗。不过,研究小组表示,这一结果在有色人种图像中并不成立,这可能是因为用于生成人工智能人脸的算法主要是在白人图像中训练出来的。这项研究的共同作者、阿姆斯特丹大学的扎克-维特考尔博士说,这可能会对从在线治疗到机器人等领域产生影响。他说:"与其他种族的面孔相比,白人面孔会产生更真实的情况。"研究小组提醒说,这种情况也可能意味着对种族的认知最终会与对"人类"的认知相混淆,并补充说,这也可能使社会偏见长期存在,包括在寻找失踪儿童方面,因为这可能依赖于人工智能生成的人脸。研究小组在《心理科学》(PsychologicalScience)杂志上撰文介绍了他们是如何进行两项实验的。在其中一项实验中,白人成年人分别从100张人工智能生成的白人面孔和100张人类生成的白人面孔中各选择一半进行观看。研究小组选择这种方法是为了避免在识别同种族面孔与识别其他种族面孔时可能出现的偏差。研究人员要求参与者选择每张面孔是人工智能生成的还是真实的,并以100分制来衡量他们的自信程度。124名参与者的结果显示,66%的人工智能图像被评为人类图像,而真实图像的这一比例仅为51%。研究小组说,对之前一项研究的数据进行重新分析后发现,与真实的白人面孔相比,人们更有可能将白色的人工智能面孔评为人类面孔。然而,有色人种的情况并非如此,大约51%的人工智能和真实面孔都被评为人类。研究小组补充说,他们没有发现结果受到参与者种族的影响。在第二个实验中,参与者被要求对人工智能和人类面孔的14项属性(如年龄和对称性)进行评分,而不告诉他们有些图像是人工智能生成的。研究小组对610名参与者的结果进行了分析,结果表明,导致人们错误地认为人工智能人脸是人类的主要因素包括:人脸的比例更协调、更熟悉和更难记忆。有点讽刺的是,虽然人类似乎无法区分真实的人脸和人工智能生成的人脸,但研究小组开发的机器学习系统却能以94%的准确率做到这一点。这项研究的共同作者、阿伯丁大学的克莱尔-萨瑟兰(ClareSutherland)博士说,这项研究强调了解决人工智能中的偏见问题的重要性。她说:"随着人工智能的引入,世界发生了极其迅速的变化,我们必须确保在任何情况下--无论是由于种族、性别、年龄还是任何其他受保护的特征--都不会有人落在后面或处于不利地位,这一点至关重要。"...PC版:https://www.cnbeta.com.tw/articles/soft/1397133.htm手机版:https://m.cnbeta.com.tw/view/1397133.htm

封面图片

《自然》杂志宣布将不会刊登任何AI生成的图像或视频

《自然》杂志宣布将不会刊登任何AI生成的图像或视频《自然》成立于1869年11月,专门发表来自不同学科的同行评议研究成果,主要集中于在科学和技术领域。它是世界上被引用最多、最具影响力的科学期刊之一。《自然》表示,由于ChatGPT和Midjourney等生成式人工智能工具的日益普及以及能力不断提升,经过数月的激烈讨论和磋商,该杂志最近决定禁止发布人工智能生成的内容。该杂志称:“除了专门讨论人工智能的文章,《自然》将不会出版人工智能生成的任何图片、视频或插图等内容。”该杂志认为,论文刊登要符合诚信和透明度的道德准则,其中包括能够在图像中标注数据来源。“为什么我们要禁止使用生成式人工智能来制作视觉内容呢?归根结底,这是一个诚信问题。无论是科学还是艺术,出版过程都基于对诚信的共同承诺,这包括透明度。作为研究人员、编辑和出版商,我们都需要知道数据和图像的来源,以便验证它们的准确性和真实性。但现有的生成性人工智能工具无法提供数据来源的信息,因此无法进行此类验证。”因此,《自然》杂志称,艺术家、电影制作人、插画家和摄影师等“都将被要求确认他们提交的作品并非由生成性人工智能工具生成或增强”。《自然》杂志还提到,标注参考文献是科学的核心原则,但这也是“道德使用”生成式人工智能艺术作品的另一个障碍。由于人工智能生成的图像通常是从数百万张图像中合成的,因此标注出处存在困难。这也涉及到知情同意和授权的问题,特别是涉及个人身份识别或知识产权的问题。在这方面,《自然》杂志也指出,生产式人工智能仍存在缺陷,它们通常在没有获得必要许可的情况下使用受版权保护的作品进行训练。此外还有虚假信息的问题,尤其是Deepfake技术加速了虚假信息的传播。当然,《自然》并不是完全反对使用人工智能工具。该杂志仍将允许收录使用ChatGPT等辅助生成的文本,但必须附带适当的提醒。这些大语言模型(LLM)工具的使用必须在论文的方法或致谢部分有明确说明。此外,作者也必须提供所有数据来源,即使是在人工智能协助下生成的数据。另外,《自然》杂志坚定地表示,任何LLM工具都不会被认可为研究论文的作者。虽然有些出版物偶尔会出于编辑目的,使用带有明确标记的人工智能生成艺术品,但要以明显、非欺骗性的方式为作品服务,而《自然》杂志认为,作为权威科学期刊,需要非常谨慎地解释和遵守法律和伦理AI政策,不能留下模糊空间。《自然》杂志写道:“许多国家的监管和法律体系仍在制定应对生成式人工智能兴起的策略。在他们迎头赶上来之前,作为研究和创意作品的出版商,《自然》杂志的立场仍是拒绝收录使用生成式人工智能创作的视觉内容。”然而,随着生成式人工智能不断深入地融入到Photoshop等传统图像编辑工具中,像《自然》这样的出版物可能会发现,很难在人工智能生成艺术和非人工智能艺术之间划清界限。就在最近,Adobe在Photoshop的测试版中引入了生成式人工智能工具,由其AdobeFirefly引擎提供支持。在此之前的几十年里,Adobe始终在使用人工智能算法为其许多内置工具提供动力。一旦法律系统解决了抓取数据训练AI模型的潜在问题,在使用视觉作品的道德问题上,最重要的因素可能不再是AI技术的具体实现方式,而是艺术家或作者的意图。在这种情况下,《自然》的人工智能政策显得非常灵活,可以在未来进行调整:“我们预计,在不久的将来,这个领域会迅速取得进展,因此我们将定期审查这一政策,并在必要时进行调整。”(小小)...PC版:https://www.cnbeta.com.tw/articles/soft/1365061.htm手机版:https://m.cnbeta.com.tw/view/1365061.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人