出现人种多样性错误后 Google暂停了Gemini AI生成人物图像的功能

出现人种多样性错误后Google暂停了GeminiAI生成人物图像的功能"我们已经在努力解决Gemini图像生成功能最近出现的问题,"Google在X上发布的一份声明中说,"在我们进行这项工作的同时,将暂停生成人的图像,并将很快重新发布一个改进版本。"在Google决定暂停在Gemini中生成人物图像不到24小时之前,该公司就其人工智能模型生成的一些历史图像不准确一事道歉。一些Gemini用户在请求生成建国元勋等历史团体或人物的图片时,发现人工智能生成的结果中出现了非白人的人物。这在网上引起了一些阴谋论,认为Google有意避免描绘白人。实测几个Gemini的查询,发现其中包括一个"19世纪美国参议员"的请求返回的结果包括似乎是黑人和美洲原住民的女性。第一位女参议员是1922年的白人女性,因此Gemini的人工智能图像基本上抹去了种族和性别歧视的历史。下面是人工智能模型在用户请求生成人物图片时的反应:我们正在努力提高Gemini生成人物图像的能力。我们预计这项功能将很快恢复,届时我们将通过版本更新通知您。本月早些时候,Google首次通过Gemini(前身为Bard)开始提供图像生成功能,以期与OpenAI和微软的Copilot竞争。与竞争对手一样,图像生成工具也是根据文本输入生成一系列图像。...PC版:https://www.cnbeta.com.tw/articles/soft/1420057.htm手机版:https://m.cnbeta.com.tw/view/1420057.htm

相关推荐

封面图片

谷歌暂停Gemini AI生成人物图像的能力

谷歌表示,将暂停GeminiAI生成人物图像的能力,此前该工具被发现生成不准确的历史图像。Gemini一直在创作美国开国元勋和纳粹时期德国士兵的各种形象,这似乎是在试图颠覆生成式人工智能中存在的性别和种族刻板印象。谷歌在x上发布的一份声明中表示:“我们已经在努力解决Gemini图像生成功能最近出现的问题,在我们这样做的同时,我们将暂停人员图像生成,并将很快重新发布改进版本。”标签:#Google#Gemini频道:@GodlyNews1投稿:@GodlyNewsBot

封面图片

出现人种多样性错误后Google暂停了GeminiAI生成人物图像的功能===========指画不出白人吗?你说这是为什么呢?

封面图片

Google图像生成人工智能Imagen 3迎来升级

Google图像生成人工智能Imagen3迎来升级Google人工智能研究部门DeepMind负责人德米斯-哈萨比斯(DemisHassabis)说,与前代产品Imagen2相比,Imagen3能更准确地理解文字提示,并将其转化为图像,而且在生成图像方面更具"创造性和细节"。此外,该模型产生的"干扰人工智能"和错误也更少。哈萨比斯补充说:"这也是我们目前渲染文本的最佳模型,而渲染文本一直是图像生成模型面临的挑战。"为了消除人们对深度伪造可能性的担忧,Google表示,Imagen3将使用DeepMind开发的SynthID方法,在媒体上应用隐形加密水印。在Google的ImageFX工具中可以注册Imagen3的私人预览版,Google表示,该模型将"很快"提供给使用Google企业生成式人工智能开发平台VertexAI的开发人员和企业客户。Google通常不会透露太多用于训练人工智能模型的数据来源,这次也不例外。这是有原因的。大部分训练数据来自网络上的公共网站、资源库和数据集。而其中的一些训练数据,特别是未经内容创作者许可的受版权保护的数据,是知识产权相关诉讼的源头。Google的网站发布者控制功能允许网站管理员阻止搜索引擎与AI爬虫从他们的网站上获取数据,包括照片和视频。但是,Google并没有提供"退出"工具,而且与某些竞争对手不同的是,Google并没有承诺对权利人(在某些情况下是在不知情的情况下)为训练数据集做出的贡献进行补偿。缺乏透明度并不令人惊讶,但令人失望的尤其是像Google这样拥有丰富资源的公司。...PC版:https://www.cnbeta.com.tw/articles/soft/1430907.htm手机版:https://m.cnbeta.com.tw/view/1430907.htm

封面图片

谷歌承认失去了对图像生成人工智能的控制

谷歌本周为人工智能的另一个令人尴尬的错误道歉,该错误是一种图像生成模型,它滑稽地无视历史背景,为图片注入了多样性。虽然根本问题是完全可以理解的,但谷歌指责该模型“变得”过于敏感。Gemini是该公司的旗舰对话式人工智能平台,当被要求时,它会调用Imagen2模型的一个版本来按需创建图像。然而,最近人们发现要求它生成某些历史情况或人物的图像会产生可笑的结果。谷歌高级副总裁PrabhakarRaghavan表示:首先,我们为确保Gemini显示一系列人而进行的调整未能考虑到显然不应该显示范围的情况。其次,随着时间的推移,该模型变得比我们预期的更加谨慎,并拒绝完全回答某些提示,错误地将一些非常冒犯的提示解释为敏感。via匿名标签:#Google#AI频道:@GodlyNews1投稿:@GodlyNewsBot

封面图片

谷歌Gemini生图功能紧急关闭,口碑一夜塌房 Yann LeCun:我早就知道

谷歌Gemini生图功能紧急关闭,口碑一夜塌房YannLeCun:我早就知道对此,在2月8日,Google还把自家对标ChatGPT的服务Bard更名为Gemini,以着重体现新使命——旨在提供对“最强模型系列”的访问。上周Google还火速更新了GeminiPro1.5版。结果,推出不到一个月,这个Gemini就翻车了。多离谱呢,作为一个多模态的生成大模型,Gemini生成的伊隆・马斯克是这样的:脸型神态都很传神,只是有个大问题:怎么成了黑人?又有人尝试让Gemini画一幅“1940年代德国领导人”的图,结果AI给出了这么一张:社交网络上的众多网友们还提供了一些Gemini生成维京人、教皇的图片样本。我们可以看到有一名身着教皇服装的亚洲女性,但历史上所有教皇都是男性担任的。总之,众多用户在使用人像生成服务时发现,Gemini似乎拒绝在图像中描绘白人,以至于生成了不少违背基本事实(性别、种族、宗教等)的图片。以往的图像生成模型大多被诟病生成人物图像以“白人”为主,而Gemini矫枉过正了?在reddit的斗图区,网友们也开始玩起了梗,比如让Gemini生成个“钢铁侠”小罗伯特唐尼:你就说是不是一视同仁吧。然而,Gemini也不是一直都这么偏心,有时它生成的图像中的人物就成了白人。例如克拉伦斯・托马斯(ClarenceThomas),美国最高法院大法官,Gemini生成的结果是这样的:然而,他实际上是个非裔。ClarenceThomas本人的照片。怎么一到法官这种特殊职业,Gemini的偏见就调转了180度呢?这些图片有真有假,像病毒一样在社交媒体上迅速传播,马斯克本人的关注进一步扩大了事件影响。他措辞严厉表示,Google在文生图上“玩过头了”。随着节奏越来越大,很多AI专家也纷纷开始发表自己的看法。图灵奖获得者YannLeCun今天就表示他早有预料。他表示,早在四年前,自己对GAN肖像超分辨率的评论就受到了众人的激烈反对。但一个明显的事实是,图像重建任务会受到训练数据集统计的严重偏差影响。LeCun还援引AI顶会ECCV2022的一篇研究《StudyingBiasinGANsthroughtheLensofRace》,其指出生成图像模型的性能会受到训练数据集中种族组成的影响。该研究表明,生成图像的种族成分成功继承了训练数据的种族成分,而且生成图像的种族和质量也有所不同——注释者始终更喜欢AI生成的白人图像。LeCun转推的帖子来自PerplexityAI首席执行官AravindSrinivas。后者表示,数据偏差让模型的输出出现了问题,Google在相反的方向上走得太远了,以至于他们在Gemini中酿成大错。Google:我们错了,承诺改进在重压之下,Google在本周四承认了Gemini图像生成的问题。以下是Google知识与信息高级副总裁PrabhakarRaghavan针对Gemini图像生成“翻车”给出的最新回应:三周前,我们为Gemini对话应用程序(以前称为Bard)推出了新的图像生成功能,其中包括创建人物图像的功能。很明显,这个功能没有达到预期。生成的一些图像不准确甚至具有攻击性。我们感谢用户的反馈,并对功能未能正常运行感到抱歉。我们已经承认了这个错误,并暂停了Gemini的人物图像生成功能,同时我们正在开发改进版本。Google表示,Gemini对话应用程序是一款独立于Google的搜索、底层人工智能模型和其他产品的特定产品。其图像生成功能建立在人工智能模型Imagen2的基础上。在为Gemini构建图像生成功能时,Google对其进行了调整,以确保它不会落入我们过去在图像生成技术中看到的一些陷阱,例如创建暴力或露骨的图像,或对现实生活中存在的真人的描绘。由于Google用户来自世界各地,公司希望Gemini能为每个人提供良好的服务。在生成人物图像时,用户可能不仅仅只想生成一种种族(或任何其他特征)的人物图像。如果你提示Gemini特定类型的人物图像-例如“教室里的黑人老师”、“带着狗的白人兽医”或特定文化、历史背景下的人,用户绝对应该得到一个准确反映人类要求的答复。那么Gemini到底出了什么问题呢?简而言之,有两件事。首先,Google为确保Gemini显示一系列人物而进行的调整未能考虑到显然不应该显示的范围。其次,随着时间的推移,该模型变得比开发者预期的更加谨慎,拒绝回答某些提示——会错误地将一些提示解释为敏感提示。这两件事导致模型在某些情况下过度输出,而在另一些情况下过度保守,从而导致Gemini的图像生成功能出现了一些错误。Google表示,“这不是我们的初衷。我们不希望Gemini拒绝创造任何特定群体的形象。我们不希望它创造出不准确的历史图像或任何其他图像。因此,我们关闭了人物图像生成功能,并将在重新打开它之前努力改进,这个过程将包括广泛的测试。”需要记住的一件事是,Gemini是一种创造力和生产力工具,它或许并不总是可靠的,特别是在生成有关时事、不断发展的新闻或热门话题的图像或文本时,它可能会犯错。众做周知,幻觉是所有大语言模型(LLM)都会面临的挑战,这需要不断的努力改进。我们不能保证Gemini不会偶尔产生令人尴尬、不准确或令人反感的结果,但我们可以保证,只要发现问题,我们就将采取行动。人工智能是一项新兴技术,在很多方面都有帮助,具有巨大的潜力,我们正在尽最大努力安全、负责任地推动它发展。虽然伴随着“Demo加特技”、训练数据抄百度文心一言等各种诟病指责,Gemini仍然一直被Google寄予厚望,不过此次生成内容上的问题让人们产生了非常不好的观感,不知如何才能补救。另一方面,这或许也体现了OpenAI一直强调安全性,及其建立RedTeamingNetwork的先见之明。Gemini这样的大体量模型,能否很快弥补此种缺陷?...PC版:https://www.cnbeta.com.tw/articles/soft/1420491.htm手机版:https://m.cnbeta.com.tw/view/1420491.htm

封面图片

Meta 的 Imagine AI 图像生成器也产生了和谷歌 Gemini 同样的历史错误

Meta的ImagineAI图像生成器也产生了和谷歌Gemini同样的历史错误Meta的ImagineAI图像生成器正在产生历史错误,生成了大量不符合历史的图像。同样的问题导致谷歌两周前停止了Gemini聊天机器人中所有人类图像的生成。人工智能制造商正试图通过调高“多样性”设置来消除用于训练模型的数据中的偏见和刻板印象,但他们过度纠正并产生了有问题的结果。截止周五测试时,Imagine没有响应“教皇”提示语,但当询问一组教皇时,它显示了黑人教皇。许多开国元勋的形象都包含了不同的群体。提示语“美国殖民时代的一群人”产生的是一群亚洲女性。“职业美式橄榄球运动员”的提示只显示了穿着橄榄球队服的女性照片。——

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人