研究发现一般人已经很难区分真实和AI生成的图像

研究发现一般人已经很难区分真实和AI生成的图像 滑铁卢大学研究人员的一项新研究发现,人们比预期更难区分谁是真人,谁是人工生成的。滑铁卢大学的研究为 260 名参与者提供了 20 张没有标签的图片:其中 10 幅是通过Google搜索获得的真人图片,另外 10 幅则是由稳定扩散或 DALL-E 这两种常用的人工智能程序生成的图片。研究人员要求参与者给每张图片贴上真实或人工智能生成的标签,并解释他们做出这一决定的原因。只有 61% 的参与者能分辨出人工智能生成的人和真实的人,远远低于研究人员预期的 85% 临界值。研究中使用的三张人工智能生成的图片。图片来源:滑铁卢大学误导性指标与人工智能的快速发展滑铁卢大学计算机科学博士候选人、本研究的第一作者 Andreea Pocol 说:"人们并不像自己认为的那样善于区分。"参与者在寻找人工智能生成的内容时,会注意手指、牙齿和眼睛等细节,将其作为可能的指标,但他们的评估并不总是正确的。Pocol 指出,这项研究的性质允许参与者长时间仔细观察照片,而大多数互联网用户只是顺便看看图片,不会注意到这些提示。人工智能技术的发展速度极快,这使得理解人工智能生成的图像可能带来的恶意或邪恶行为变得尤为困难。学术研究和立法的步伐往往跟不上:自 2022 年底研究开始以来,人工智能生成的图像变得更加逼真。人工智能生成虚假信息的威胁作为一种政治和文化工具时,这些人工智能生成的图像尤其具有威胁性,任何用户都可以通过它制作出公众人物处于尴尬或危险境地的假图像。Pocol 说:"虚假信息并不新鲜,但虚假信息的工具一直在不断变化和发展。可能到了这样一个地步,无论人们接受过怎样的培训,他们仍然难以区分真实图像和假图像。这就是为什么我们需要开发工具来识别和应对这种情况。这就像是一场新的人工智能军备竞赛。"这项名为"眼见为实"的研究发表在《计算机图形学进展》(Advanced Computer Graphics)杂志上:Deepfakes, AI-Generated Humans, and Other Nonveridical Media: A Survey on the State of Deepfakes, AI-Generated Humans, and Other Nonveridical Media》一文发表在《计算机图形学进展》(Advances in Computer Graphics)杂志上。编译自:ScitechDaily ... PC版: 手机版:

相关推荐

封面图片

研究发现:用人工智能生成的图像训练出的人工智能产生了糟糕的结果。

研究发现:用人工智能生成的图像训练出的人工智能产生了糟糕的结果。 斯坦福大学和莱斯大学的研究人员发现,生成式人工智能模型需要“新鲜的真实数据”,否则输出的质量就会下降。 这对摄影师和其他创作者来说是个好消息,因为研究人员发现,训练数据集中的合成图像会放大人工痕迹,使人工智能画出的人类看起来越来越不像真人。 研究小组将这种状况命名为“模型自噬障碍”。如果自噬循环的每一代都没有足够的新鲜真实数据,未来的生成模型注定会逐渐降低其质量或多样性。 如果该研究论文是正确的,那么这意味着人工智能将无法开发出无穷无尽的数据源。人工智能仍然需要真实、高质量的图像来不断进步,而不是依赖自己的输出。这意味着生成式人工智能将需要摄影师。

封面图片

Meta 表示将在 Facebook 和 Instagram 上标记人工智能生成的图像

Meta 表示将在 Facebook 和 Instagram 上标记人工智能生成的图像 Facebook 和 Instagram 用户将开始在社交媒体上看到人工智能生成的图片被贴上标签,这是科技行业为区分真假图片而采取的广泛举措的一部分。Meta 周二表示,该公司正在与行业合作伙伴合作制定技术标准,使识别图像并最终识别由人工智能工具生成的视频和音频变得更容易。

封面图片

研究发现流程图图像可以诱骗GPT-4o生成有害文本输出

研究发现流程图图像可以诱骗GPT-4o生成有害文本输出 研究人员发现,GPT-4o(可能是最流行的视觉语言模型)特别容易受到这种所谓逻辑越狱的影响,攻击成功率高达 92.8%。研究人员说,GPT-4-vision-preview 更安全,成功率仅为 70%。研究人员开发了一个文本到文本的自动越狱框架,它能够首先根据有害文本提示生成流程图图像,然后将其输入视觉语言模型,从而给出有害输出。但这种方法有一个缺点,即与手工制作的流程图相比,人工智能制作的流程图触发逻辑越狱的效果较差。这表明这种越狱可能更难实现自动化。这项研究的结果反映了另一项研究,该研究发现,视觉语言模型在获得多模态输入(如图片和文字)时,容易输出有害的输出结果。该论文的作者开发了一种新的基准,称为"安全输入但不安全输出(SIUO)"基准。只有包括 GPT-4o 在内的少数机型在该基准上的得分超过了 50%(越高越好),但所有机型都还有很长的路要走。像 GPT-4o 和Google双子座这样的视觉语言模型开始成为不同人工智能公司提供的更广泛的产品。GPT-4o 目前仍限制每天输入的图像数量。不过,随着这些限制开始变得越来越宽松,人工智能公司将不得不加强这些多模态模型的安全性,以避免政府的审查,因为各国政府已经成立了人工智能安全组织。 ... PC版: 手机版:

封面图片

Midjourney拟禁生成特朗普拜登AI图像

Midjourney拟禁生成特朗普拜登AI图像 人工智能(AI)图像生成技术普及,可轻易大量制造出逼真的政治人物照片,或改变政治舆论风向,为免AI假照片影响美国大选,人工智能图像企业Midjourney考虑禁止用户生成美国总统拜登(Joe Biden)及特朗普(Donald Trump)的图像。 来源:格隆汇

封面图片

Stability AI 发布草图到图像生成 AI 工具

Stability AI 发布草图到图像生成 AI 工具 Stability AI Ltd.今天推出了Stable Doodle,进一步丰富了其生成式人工智能工具库。 该公司表示,这是一款草图到图像工具,可以将简单的草图转换为更动态的图像,它的目标受众是从创意专业人士到业余艺术家的所有人。 该公司表示,Stable Doodle 可供专业人士和新手使用,并且不需要熟悉人工智能工具。用户只需勾画出基本草图并上传,模型就会根据用户的选择将其转换为专业的卡通风格动画、折纸模型甚至逼真的图像。

封面图片

出现人种多样性错误后 Google暂停了Gemini AI生成人物图像的功能

出现人种多样性错误后 Google暂停了Gemini AI生成人物图像的功能 "我们已经在努力解决Gemini图像生成功能最近出现的问题,"Google在X 上发布的一份声明中说,"在我们进行这项工作的同时,将暂停生成人的图像,并将很快重新发布一个改进版本。"在Google决定暂停在Gemini中生成人物图像不到 24 小时之前,该公司就其人工智能模型生成的一些历史图像不准确一事道歉。一些Gemini用户在请求生成建国元勋等历史团体或人物的图片时,发现人工智能生成的结果中出现了非白人的人物。这在网上引起了一些阴谋论,认为Google有意避免描绘白人。实测几个Gemini的查询,发现其中包括一个"19 世纪美国参议员"的请求返回的结果包括似乎是黑人和美洲原住民的女性。第一位女参议员是 1922 年的白人女性,因此Gemini的人工智能图像基本上抹去了种族和性别歧视的历史。下面是人工智能模型在用户请求生成人物图片时的反应:我们正在努力提高Gemini生成人物图像的能力。我们预计这项功能将很快恢复,届时我们将通过版本更新通知您。本月早些时候,Google首次通过 Gemini(前身为 Bard)开始提供图像生成功能,以期与 OpenAI 和微软的 Copilot 竞争。与竞争对手一样,图像生成工具也是根据文本输入生成一系列图像。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人