研究发现 AI 生成的白人脸部图像更容易愚弄人

研究发现AI生成的白人脸部图像更容易愚弄人发表在《PsychologicalScience》期刊上的一项研究发现,AI生成的白人脸部图像更能愚弄人类自己。人类更可能认为AI生成的白人图像是真实人类的图像。这一结果并不适用于AI生成的有色人种图像。原因可能是用于生成AI脸部图像的算法主要是用白人图像训练的。研究小组警告,这可能意味着种族观念最终会与对“人类”的观念混淆,这也可能会延续社会偏见。来源,频道:@kejiqu群组:@kejiquchat

相关推荐

封面图片

人们不仅无法分辨AI人脸和真实人脸,甚至认为AI生成的白人更像真人

人们不仅无法分辨AI人脸和真实人脸,甚至认为AI生成的白人更像真人澳大利亚国立大学的研究员发现,人们无法分辨AI生成人脸和真实人脸的区别(GAN模型),而且犯错误最多的人是最自信的。甚至AI生成的白人面孔比真实人脸更常被判断为真人——他们称之为AI超现实主义现象。https://doi.org/10.1177/09567976231207095投稿:@ZaiHuaBot频道:@TestFlightCN

封面图片

调查发现:人工智能生成的白色人脸比照片更有说服力

调查发现:人工智能生成的白色人脸比照片更有说服力研究人员报告说:"令人吃惊的是,人工智能生成的白色人脸可以令人信服地比人脸更真实--而且人们并没有意识到自己上当受骗了。"该研究小组包括来自澳大利亚、英国和荷兰的研究人员,他们表示,他们的发现对现实世界具有重要意义,包括在身份盗窃方面,人们最终可能会被数字冒名顶替者欺骗。不过,研究小组表示,这一结果在有色人种图像中并不成立,这可能是因为用于生成人工智能人脸的算法主要是在白人图像中训练出来的。这项研究的共同作者、阿姆斯特丹大学的扎克-维特考尔博士说,这可能会对从在线治疗到机器人等领域产生影响。他说:"与其他种族的面孔相比,白人面孔会产生更真实的情况。"研究小组提醒说,这种情况也可能意味着对种族的认知最终会与对"人类"的认知相混淆,并补充说,这也可能使社会偏见长期存在,包括在寻找失踪儿童方面,因为这可能依赖于人工智能生成的人脸。研究小组在《心理科学》(PsychologicalScience)杂志上撰文介绍了他们是如何进行两项实验的。在其中一项实验中,白人成年人分别从100张人工智能生成的白人面孔和100张人类生成的白人面孔中各选择一半进行观看。研究小组选择这种方法是为了避免在识别同种族面孔与识别其他种族面孔时可能出现的偏差。研究人员要求参与者选择每张面孔是人工智能生成的还是真实的,并以100分制来衡量他们的自信程度。124名参与者的结果显示,66%的人工智能图像被评为人类图像,而真实图像的这一比例仅为51%。研究小组说,对之前一项研究的数据进行重新分析后发现,与真实的白人面孔相比,人们更有可能将白色的人工智能面孔评为人类面孔。然而,有色人种的情况并非如此,大约51%的人工智能和真实面孔都被评为人类。研究小组补充说,他们没有发现结果受到参与者种族的影响。在第二个实验中,参与者被要求对人工智能和人类面孔的14项属性(如年龄和对称性)进行评分,而不告诉他们有些图像是人工智能生成的。研究小组对610名参与者的结果进行了分析,结果表明,导致人们错误地认为人工智能人脸是人类的主要因素包括:人脸的比例更协调、更熟悉和更难记忆。有点讽刺的是,虽然人类似乎无法区分真实的人脸和人工智能生成的人脸,但研究小组开发的机器学习系统却能以94%的准确率做到这一点。这项研究的共同作者、阿伯丁大学的克莱尔-萨瑟兰(ClareSutherland)博士说,这项研究强调了解决人工智能中的偏见问题的重要性。她说:"随着人工智能的引入,世界发生了极其迅速的变化,我们必须确保在任何情况下--无论是由于种族、性别、年龄还是任何其他受保护的特征--都不会有人落在后面或处于不利地位,这一点至关重要。"...PC版:https://www.cnbeta.com.tw/articles/soft/1397133.htm手机版:https://m.cnbeta.com.tw/view/1397133.htm

封面图片

用AI生成人脸的工具 ——

用AI生成人脸的工具——1.一个著名的人脸生成服务,以前是免费的,现在有3天试用期。2.-这不需要任何介绍了,但必须说该服务现在有了一些更新。4.-随机生成不存在的人的脸。5.-另一个随机脸部生成器。6.-用于生成人脸的开源软件。7.-让人想起早期的ThisPersonDoesNotExist。#AI#tools

封面图片

拒绝白人与亚洲人同框 Meta图像生成器的偏见被人挖出来了

拒绝白人与亚洲人同框Meta图像生成器的偏见被人挖出来了马斯克也被系统过分矫正了近日,外媒TheVerge的一篇文章指出,Meta的AI图像生成器无法准确生成“亚洲男性和白人妻子”或者“亚洲女性和白人丈夫”这类图像,让人大跌眼镜。我们来看看怎么回事。TheVerge尝试使用了“AsianmanandCaucasianfriend”(亚洲男性和白人朋友)、“Asianmanandwhitewife”(亚洲男性和白人妻子)和“AsianwomanandCaucasianhusband”(亚洲女性和白人丈夫)等prompt,让Meta图像生成器生成对应的图像。结果发现,Meta图像生成器在多数情况下无法遵照prompt来生成图像,暴露出了它的某种偏见。图源:MiaSato/TheVerge不仅如此,调整文本prompt似乎也没有多大帮助。当输入“Asianmanandwhitewomansmilingwithadog”(亚洲男性和白人女性带着狗微笑)时,Meta图像生成器给出的都是“两个亚洲人”的图像。即使将“white”改为“Caucasian”时,结果同样如此。机器之心自测图像当输入“AsianmanandCaucasianwomanonweddingday”(婚礼上的亚洲男性和白人女性)时,生成的依然是两个亚洲人。婚礼上的亚洲男人和白人女人图源:MiaSato/TheVerge当输入“AsianmanwithCaucasianfriend”(亚洲男性和白人朋友)或“Asianwomanandwhitefriend”(亚洲女性和白人朋友)时,生成的大多数图像仍是两个亚洲人形象。自测图像当输入“AsianwomanwithBlackfriend”(亚洲女性和黑人朋友)时,Meta图像生成器仍是两名亚洲女性。但当将prompt调整为“AsianwomanwithAfricanAmericanfriend”(亚洲女性和非裔美国朋友),结果反而准确得多。自测图像此外,当指定南亚人时,Meta图像生成器的结果变化也不太大。当输入“SouthAsianmanwithCaucasianwife”(南亚男性和白人妻子)时,大多数时候是两个印度人形象。该工具还有刻板印象,在没有要求的情况下,生成的南亚女性往往会穿戴纱丽。自测图像一番测试发现,Meta图像生成器无法想象亚洲人与白人“同框”,这样的结果令人震惊。其中,该工具始终将亚洲女性或男性描绘为肤色浅的东亚人,尽管印度已经成为世界上人口最多的国家。在没有明确提示的情况下,该工具还会添加特定文化服饰。最后,机器之心使用类似的prompt验证了TheVerge的结果,对于prompt“亚洲女性和白人丈夫”,生成的10张图像中,只有3张图像准确还原。输入prompt“asianmanandcaucasianwife”(亚洲男性和白人妻子),结果更离谱,生成的8张图像没有一张还原。其实,这并不是Meta的图像生成工具第一次被曝出问题了。去年10月,Meta的AI生成贴纸工具创建了大量不恰当的图片,比如童兵、持枪和拿刀的米老鼠等暴力、粗鲁、裸露形象。图源:arstechnicaandmeta此次,Meta图像生成器再次让我们警醒AI系统创建者、训练者以及所用数据集可能存在的偏见和刻板印象。对于TheVerge发现的这一现象,有网友分析称,这是Meta在训练的时候没有喂给模型关于这一场景足够的示例。...PC版:https://www.cnbeta.com.tw/articles/soft/1426364.htm手机版:https://m.cnbeta.com.tw/view/1426364.htm

封面图片

AI生成图像 连它自己也分辨不出真假了

AI生成图像连它自己也分辨不出真假了图1:教皇穿着巴黎世家羽绒服的AI图片图2:图中有6个破绽上图是一张由微软必应图像生成器生成的图片,里面有6个破绽,相对容易分别。如果不看标记,你能找出这6个图片漏洞吗?1.她的手指极长且扁平。2.她的嘴巴似乎少了几颗牙齿,陷进了她的脸。3.她的手进入了桌子里。4.他的手指又长又扁。5.她的衬衫下垂不自然。6.桌子上的物品混合在一起。但是,有些AI生成的图片已经达到了以假乱真的地步了。例如,特朗普被捕的图片,教皇方济各穿上巴黎世家白色羽绒服的照片,法国总统马克龙穿过抗议人群的照片。如果不是有人提醒,你可能很难看出这是假图片。这就是为什么埃隆·马斯克(ElonMusk)等科技领袖呼吁暂停AI开发等原因。虽然AI生成的内容可能很有趣,但它会给行业和日常互动带来风险。它可以被用来传播错误信息、侵犯知识产权或使人们的照片性感化。图3:Optic图片工具都被AI欺骗了一些开发人员正在开发工具,通过分析图像以寻找人工智能做图迹象的工具。但问题是,除非这些工具与它们所监视的图像生成器保持同步,否则即使是它们也可能被愚弄。例如,AI信任和安全公司Optic的工具就被欺骗了,它认为有87%的可信度相信教皇穿着巴黎世家羽绒服的图片是人类拍摄的。...PC版:https://www.cnbeta.com.tw/articles/soft/1354265.htm手机版:https://m.cnbeta.com.tw/view/1354265.htm

封面图片

研究发现一般人已经很难区分真实和AI生成的图像

研究发现一般人已经很难区分真实和AI生成的图像滑铁卢大学研究人员的一项新研究发现,人们比预期更难区分谁是真人,谁是人工生成的。滑铁卢大学的研究为260名参与者提供了20张没有标签的图片:其中10幅是通过Google搜索获得的真人图片,另外10幅则是由稳定扩散或DALL-E这两种常用的人工智能程序生成的图片。研究人员要求参与者给每张图片贴上真实或人工智能生成的标签,并解释他们做出这一决定的原因。只有61%的参与者能分辨出人工智能生成的人和真实的人,远远低于研究人员预期的85%临界值。研究中使用的三张人工智能生成的图片。图片来源:滑铁卢大学误导性指标与人工智能的快速发展滑铁卢大学计算机科学博士候选人、本研究的第一作者AndreeaPocol说:"人们并不像自己认为的那样善于区分。"参与者在寻找人工智能生成的内容时,会注意手指、牙齿和眼睛等细节,将其作为可能的指标,但他们的评估并不总是正确的。Pocol指出,这项研究的性质允许参与者长时间仔细观察照片,而大多数互联网用户只是顺便看看图片,不会注意到这些提示。人工智能技术的发展速度极快,这使得理解人工智能生成的图像可能带来的恶意或邪恶行为变得尤为困难。学术研究和立法的步伐往往跟不上:自2022年底研究开始以来,人工智能生成的图像变得更加逼真。人工智能生成虚假信息的威胁作为一种政治和文化工具时,这些人工智能生成的图像尤其具有威胁性,任何用户都可以通过它制作出公众人物处于尴尬或危险境地的假图像。Pocol说:"虚假信息并不新鲜,但虚假信息的工具一直在不断变化和发展。可能到了这样一个地步,无论人们接受过怎样的培训,他们仍然难以区分真实图像和假图像。这就是为什么我们需要开发工具来识别和应对这种情况。这就像是一场新的人工智能军备竞赛。"这项名为"眼见为实"的研究发表在《计算机图形学进展》(AdvancedComputerGraphics)杂志上:Deepfakes,AI-GeneratedHumans,andOtherNonveridicalMedia:ASurveyontheStateofDeepfakes,AI-GeneratedHumans,andOtherNonveridicalMedia》一文发表在《计算机图形学进展》(AdvancesinComputerGraphics)杂志上。编译自:ScitechDaily...PC版:https://www.cnbeta.com.tw/articles/soft/1423216.htm手机版:https://m.cnbeta.com.tw/view/1423216.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人