Google的AI概览被发现很糟糕:建议人们每天应该吃一块石头

Google的AI概览被发现很糟糕:建议人们每天应该吃一块石头 例如当在Google上搜索 “我每天应该吃多少块石头?” 时,AI 概览给出的结果是引用美国加州大学伯克利分校的地质学专家建议,建议人们每天至少应该吃一小块石头。地质学家当然没有这种建议,因为 AI 引用的消息源实际上来源于专注于各种恶搞消息的洋葱新闻网,AI 并不能区分哪些网站的哪些内容是正常内容还是讽刺内容。这件情况甚至都惊动了洋葱新闻的首席执行官,经过测试他们发现Google的 AI 概览引用了不少洋葱新闻的恶搞内容。当然Google即便将洋葱新闻从 AI 概览中剔除也不能解决问题,毕竟发布虚假消息或恶搞消息的网站非常多,真正解决方案是 AI 应当能够判断哪些内容属于正常内容。在传统搜索引擎模式中,搜索引擎只负责索引内容但不对内容负责,即用户自己点击虚假信息网站并受到欺骗搜索引擎不需要承担责任,而现在Google自己提供 AI 概览,接下来再继续出现虚假内容并造成潜在的危害,那么Google看起来应当对此负责。目前Google尚未就此事发布回应,不过现在Google应该已经进行了特殊处理将洋葱新闻从 AI 概览里剔除。相关文章:Google的AI搜索功能向用户建议使用胶水让奶酪粘在披萨上 ... PC版: 手机版:

相关推荐

封面图片

谷歌搜索的 AI 概览被发现很糟糕:建议人们每天应该吃一块石头咕咕噜还打算修吗?

封面图片

Google搜索团队再次发文称将改进AI概览 同时指责部分用户伪造截图蹭热点

Google搜索团队再次发文称将改进AI概览 同时指责部分用户伪造截图蹭热点 Google搜索日前在美国市场推出 AI 概览功能,该功能旨在用户搜索某些问题时由 Google Gemini 人工智能模型驱动的 AI 概览自动收集并整理搜索结果中的内容,然后直接给用户提供回答无需用户挨个点击搜索结果查看网页内容。然后就有用户发现Google AI 概览存在诸多问题,例如建议人们每天应该吃一些石头保持健康,其数据源来自讽刺网站洋葱新闻网,即Google的 AI 模型无法判断哪些内容是正常的哪些属于讽刺内容。针对该问题Google搜索团队已经发过一次回应,一方面该团队对讽刺内容进行剔除,另一方面则指责用户故意搜索这些奇怪的问题 这些问题本身就具有误导性。本周Google搜索团队再次针对 AI 概览的糟糕问题进行回应,Google搜索团队称已经进行了多个改进确保 AI 概览可以正常工作,减少发生错误的概率。具体工作包括:针对不应该显示 AI 概览的无意义查询建立更好的监测机制,并限制使用讽刺和幽默内容更新系统限制在 AI 概览中使用可能提供误导性的建议或存在误导性的由其他用户生成的内容针对部分使用 AI 概览本身就没太大意义的关键词查询限制触发,即不会显示 AI 概览内容针对新闻和健康类的主题制定严格的防护措施,针对新闻是尽可能不显示概览、针对健康则增强质量保护Google搜索团队也解释洋葱新闻的吃石头问题,该团队称人们每天应该吃多少石头本身是个不常见并且没有意义的查询,而Google的搜索结果里只包含少量结果,其中就包含洋葱新闻的来源。这种情况下 AI 概览就直接引用了洋葱新闻的内容而没有考虑其他内容源 (主要也是没有) 作为参考,现在对于这种查询 AI 概览不会被触发。针对有害 / 色情 / 其他违规信息:Google自己的统计数据显示大约每 700 万次 AI 概览只有不到一个是违规信息,针对任何类型的违规信息Google都将继续改进系统确保这些内容不会出现在用户面前。该公司称每天在Google上有数十亿次查询,这里面必然会出现一些异常和错误,而在过去 25 年里Google已经学会了如何构建和维护高质量搜索体验的知识,包括从错误中汲取教训。为此Google将继续优化 AI 概览加强保护措施,同时还会针对极端情况进行额外处置,让搜索服务可以更好地服务于每个人。最后Google依然在喷大家瞎搞:在之前的回复中Google搜索团队已经指责用户故意进行不正常的查询来蹭热点,这次回应中Google还提到部分流传的截图属于伪造的。例如将狗留在车内、怀孕期间吸烟和抑郁等相关查询的截图在社交媒体上广泛流传,但Google分析后发现这些搜索结果从未在 AI 概览中出现,因此这部分内容属于伪造蹭热点的。Google建议用户对这些截图内容进行事实核查,包括自己动手进行搜索测试等(而不是看到别人发图就转发)。 ... PC版: 手机版:

封面图片

谷歌在周二的更新中表示,不久将开始在美国用户的 AI 概览中测试搜索和购物广告。

谷歌在周二的更新中表示,不久将开始在美国用户的 AI 概览中测试搜索和购物广告。 在谷歌分享的一个例子中,搜索引擎的人工智能概览列出了对这个问题的回答:“我该如何去除衣服上的皱纹?”在人工智能生成的建议下方,有一个新的“赞助”区域,里面是一个轮播图,展示了你可以从沃尔玛和 Instacart 等地方购买的去皱喷雾。 谷歌表示,当广告与查询内容及 AI 概览中的信息都相关时,它将在 AI 概览中展示广告。已经通过谷歌运行某些活动的广告商将自动有资格出现在 AI 概览中。“随着我们不断前进,我们将继续测试和学习新的格式,并从广告商和行业中获取反馈。”谷歌这样写道。 标签: #Google #AI #广告 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

Google AI Overviews功能输出答案漏洞百出 维护方式竟然是手动删除

Google AI Overviews功能输出答案漏洞百出 维护方式竟然是手动删除 Google还表示,其AI Overview产品主要向用户输出“高质量信息”。Google发言人梅根·法恩斯沃斯在一封电子邮件中说:“我们看到的许多例子都是不常见的查询,我们也看到了被篡改或我们无法复制的例子。”此前,AI概览功能曾建议用户“在披萨上涂胶水”或是“吃石头”,甚至在关于前总统奥巴马的问题上,AI概览给出了“巴拉克·侯赛因·奥巴马被认为是美国第一位穆斯林总统”这个存在明显事实错误的答案。AI概览给出的与事实不符的答案这样的情况并非首次出现,2022年,Meta发布了一款名为Galactica的人工智能系统,该系统在发布后不久就不得不被撤下,因为该系统在回答中让人去吃玻璃。Google公司曾以先进的科技产品得到业界的一致好评,然而最近Google的表现却令人感到失望,一位不愿透露姓名的人工智能创始人表示:“一家曾经以走在最前沿、生产高质量产品而闻名的公司,现在却以低质量的产品而闻名,而且还被人发布在网上嘲笑。”事实上,Google目前的的处境很艰难。在Google之前,Bing 就大举进军人工智能领域,OpenAI 也在开发自己的搜索引擎,而只想要获得最佳体验的年轻一代用户正在转向 TikTok 。这些都给了Google很大的竞争的压力。相关文章:Google的AI搜索功能向用户建议使用胶水让奶酪粘在披萨上Google的AI概览被发现很糟糕:建议人们每天应该吃一块石头 ... PC版: 手机版:

封面图片

披萨上涂胶水、建议用户吃石头、毒蘑菇……Google又被大模型带沟里

披萨上涂胶水、建议用户吃石头、毒蘑菇……Google又被大模型带沟里 为此,Google不得不争分夺秒地手动禁用某些搜索的 AI Overview 功能,对这些问题进行修复和优化。Google的 AI Overviews 是一个增强搜索引擎结果的功能,利用人工智能技术,在搜索结果顶部提供 AI 生成的答案。在美国地区,Google主要和 Reddit 社区合作来解答用户的提问。Google表示,它将为美国用户的在线查询提供人工智能生成的答案,这是其搜索引擎 25 年来最大的更新之一。Google AI“胡说八道”引争议近日,有网友在Google搜索中查询“芝士和披萨粘不到一块”的解决办法,但 AI 给出的答案离了个大谱,“你还可以把 1/8 杯的无毒胶水加到酱料里,使其更有黏性。”更搞笑的是,有网友还找到了披萨胶水回答的出处,是十多年前名为“fucksmith”的用户在 Reddit 帖子中的恶搞评论。还有网友问:“兔子曾经在 NBA 打过球吗?”Google AI 肯定地回答“yes!”还声称一只名为 Rabbit Walthour 的兔子在 NBA 打过球,是密尔沃基鹰队的后卫,甚至给出了这只兔子的身高、体重、出生日期。更无语的是,Google AI 搜索给出了相关链接,竟是 NBA 球员 Rabbit Walthour 的个人信息。原来GoogleAI把NBA球员Rabbit Walthour和rabbit(兔子)搞混了。Google这种“口出狂言”的行为还有很多。声称前美国总统詹姆斯・麦迪逊 21 次毕业于威斯康星大学,一条狗曾在 NBA、NFL 和 NHL 打过球,以及蝙蝠侠是一名警察……Google的 AI Overview 之所以引发争议,是因为它的回答不仅愚蠢而且有害。比如,它建议人们每天至少吃一块小石头,还搬出地质学家,煞有介事地说:“为了过上健康、均衡的生活,美国人应该在早餐、午餐或晚餐中至少摄入一份鹅卵石、晶石或砾石。”(这是哪个地质学家说的?)再如,有网友发了一张毒蘑菇的图片以及“口蘑!好吃!”的文字,Gemini 丝毫没有察觉出这蘑菇可能有毒。此外,当网友问“被响尾蛇咬了该怎么办”时,Google AI 竟然让他用冰块来冷敷伤口。更有甚者,Google AI 还挑唆抑郁症患者从金门大桥上跳下去。自从Google为美国用户默认开启 AI Overview 功能后,这类可怕糟糕的搜索结果就层出不穷,也由此引发网友声讨。不过也有网友质疑其中很多示例都是P图。一位匿名的 AI 创始人吐槽道:“一家以尖端技术和高质量产品而闻名的公司,现在却以低质量输出和各种梗图而著称。”Google紧急“灭火”Google仍然坚称其 AI Overview 功能向用户提供了大量“高质量信息”。Google发言人梅根・法恩斯沃斯表示,“用户展示的事例都是不常见的查询,并不代表大多数人的经历,我们也看到了一些被篡改或我们无法复现的例子。”同时,Google正“迅速采取行动”,在某些查询中移除 AI 生成的内容。法恩斯沃斯表示,“公司已对违反其政策的行为采取行动…… 并正在利用这些『孤立的例子』继续完善产品。”实际上,Google已经测试 AI Overviews 功能一年多了。该功能于 2023 年 5 月作为 “搜索生成体验”(Search Generative Experience)的测试版推出。Google CEO 桑达尔・皮查伊表示,在此期间公司已经处理了超过 10 亿次查询。不过,皮查伊也表示,“在硬件、工程和技术突破的推动下”,Google已经将提供人工智能答案的成本降低了 80%。如今看来,这种优化似乎发生得太早了,技术并未准备好。纽约大学的 AI 专家和神经科学荣誉教授加里・马库斯(Gary Marcus)表示,许多 AI 公司正在“兜售梦想”,认为这项技术将从 80% 的正确率提高到 100%。马库斯说,达到最初的 80% 正确率相对简单,因为它涉及到大量近似人类数据,但最后的 20% 极具挑战性。实际上,马库斯认为最后的 20% 才是最难的。马库斯说:“你实际上需要进行一些推理来判断:这件事是否可信?这个来源是否合法?你必须像人类事实核查员那样做一些事情,这实际上可能需要 AGI。”马库斯和 Meta 的 AI 首席 Yann LeCun 都认为,Google Gemini 和 OpenAI 的 GPT-4 等大型语言模型将不会创造出 AGI。而Google正面临一个棘手的局面。Bing 抢在Google之前在 AI 上大做文章,OpenAI 据称也在开发自己的搜索引擎,新一代用户正转向 TikTok 寻求最佳体验。Google显然感到了竞争的压力,而这种压力正是导致这次事件的原因。马库斯指出,在 2022 年,Meta 曾发布了一个名为 Galactica 的 AI 系统,但很快就下架,因为它告诉人们吃玻璃。历史总是惊人的相似。Google对 AI Overviews 寄予厚望 目前存在的功能只是公司上周宣布的一小部分。对于复杂查询的多步骤推理,生成由 AI 组织的结果页面的能力,以及在 Google Lens 中进行视频搜索,这些才是重头戏。但现在,Google的声誉取决于能否做好最基本的事情,目前的情况并不乐观。马库斯说:“(这些模型)天生无法对自己的工作进行理性检查,而这正是这个行业的致命伤。” ... PC版: 手机版:

封面图片

AI生成内容泛滥冲击Google Books

AI生成内容泛滥冲击Google Books Google Books作为索引已出版资料的重要学术工具,正在收录大量低质量、由AI生成的书籍内容,并会出现在Google Books的搜索结果中。 大量索引AI生成的垃圾内容,可能会影响Google Ngram Viewer的结果准确性。Ngram Viewer是研究人员用来追踪历史语言使用情况的重要工具,它基于Google Books的数据。这反映出在AI技术快速发展的背景下,学术界对付AI生成的大规模垃圾内容还缺乏应对之策。图书出版和学术搜索工具的把关机制亟待升级,以应对AI带来的挑战。 谷歌官方表示会删除所有低质量内容,无论是AI还是人工创作。但AI生成内容的泛滥,对搜索引擎和学术工具构成了前所未有的冲击。 思考: - AI生成内容正以超乎想象的速度渗透到方方面面。作为知识索引的基础设施,Google Books这样的工具首当其冲受到冲击,凸显出AI时代学术规范和内容把关面临的困境。 - 海量的AI垃圾内容会稀释优质内容的密度,误导读者,破坏学术生态。Ngram Viewer等研究工具也会受到污染,影响学术研究的准确性。学术界需要高度重视这一问题。 - 识别AI生成内容本身就是一个技术挑战。传统的人工审核已然不敷使用,平台和工具方需要研发更智能的AI技术来对抗恶意的AI生成内容。 - 从源头治理,完善AI伦理规范,加强对AI滥用的监管,需要学界、业界、政府多方合力。在拥抱AI红利的同时,也要警惕其负面影响,建立科学的AI治理体系。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人