Google解释人工智能概述的离谱错误和更新 为其准确性辩护

Google解释人工智能概述的离谱错误和更新 为其准确性辩护 Google首先解释了人工智能概述的运行方式,包括它们"与聊天机器人和其他乐虎国际手机版下载产品的工作方式有很大不同"。它们不是简单地根据训练数据生成输出结果。虽然人工智能概述由定制的语言模型驱动,但该模型与我们的核心网络排名系统集成,旨在执行传统的"搜索"任务,例如从我们的索引中识别相关的高质量结果。这就是为什么人工智能概述不仅仅提供文本输出,还包括相关链接,以便人们进一步探索。Google试图将人工智能概述与更广泛的LLM幻觉问题区分开来,有些人认为LLM不适合搜索。这意味着人工智能概述一般不会像其他LLM产品那样"产生幻觉"或胡编乱造。相反,当人工智能概述出错时,Google表示常见的问题是"误解了查询,误解了网络语言的细微差别,或者没有很多有用的信息"。Google强调了一些病毒式传播的例子。在"我应该吃多少石头"的案例中,Google承认它没有很好地处理讽刺性内容。它还指出《洋葱新闻》的文章是如何"被一家地质软件供应商的网站转载的"。因此,当有人在搜索中输入这个问题时,就会出现一个人工智能概述,忠实地链接到解决这个问题的唯一网站之一。Google强调的另一个案例是"用胶水让奶酪粘在披萨上",并将论坛(该案例中为 Reddit)作为可靠的第一手知识来源进行了过度索引。最后在少数情况下,我们发现人工智能概述会曲解网页上的语言并提供不准确的信息。我们通过改进算法或通过既定流程删除不符合我们政策的回复,迅速解决了这些问题。就下一步措施而言,Google已经"限制包含讽刺和幽默内容",作为"更好的无意义查询检测机制"的一部分。此外"我们更新了系统,以限制在可能提供误导性建议的回复中使用用户生成的内容"。"我们为人工智能概述证明不那么有用的查询添加了触发限制"。"对于新闻和健康等主题,我们已经制定了强有力的防护措施。例如,我们的目标是不显示硬新闻话题的人工智能概述,因为这些话题的新鲜度和事实性非常重要。在健康方面,我们推出了额外的触发改进措施,以加强我们的质量保护。"该公司此前曾表示,"绝大多数人工智能概述都能提供高质量的信息"。Google今天援引自己的测试结果称,人工智能概述和基于引用的精选片段的准确率"不相上下"。  但遗憾的是,Google没有分享任何数据来证明这一点。 ... PC版: 手机版:

相关推荐

封面图片

Opera与Google达成合作 将Gemini人工智能引入其浏览器

Opera与Google达成合作 将Gemini人工智能引入其浏览器 歌剧院合作伙伴关系执行副总裁 Per Wetterdal 说:我们两家公司已经合作了 20 多年。我们非常高兴地宣布,双方将在生成式人工智能领域深化合作,进一步加强我们的浏览器人工智能服务套件。Google云北欧地区总经理伊娃-福斯(Eva Fors)在谈到此次合作时说:我们很高兴能提升与 Opera 的长期合作,为其在浏览器领域的人工智能创新提供动力。我们相信人工智能的未来将是开放的,因此我们提供对Google最好的基础设施、人工智能产品、平台和基础模型的访问权限,使企业能够利用生成式人工智能规划自己的发展方向。Google云支持的主要功能包括图像生成和语音输出。Opera One Developer 最新发布的人工智能功能包括使用顶点人工智能(Vertex AI)上的 Imagen 2 模型,并借助Google的文本到音频(text-to-audio)模型,以类似对话的方式朗读回复。最近,Opera 在其浏览器中增加了许多人工智能功能,甚至允许在电脑上下载和使用本地运行的 LLM,允许访问来自 50 多个系列的 150 多个模型,包括 Meta 的 Llama 和 Google 的 Gemma。自 2023 年 6 月 推出 Opera One 以来,Opera 一直在追求与其他浏览器的关键差异点,Opera One 对原有的 Opera 浏览器进行了大刀阔斧的改造,包括模块化设计、可对打开的标签进行分组的 Tab Islands,以及首次引入前面提到的 Aria AI。 ... PC版: 手机版:

封面图片

Google开始在英国试用人工智能提供搜索结果

Google开始在英国试用人工智能提供搜索结果 虽然Google是最受欢迎的搜索引擎,但微软的竞争对手必应已经集成了其 Copilot 人工智能。但一些出版商担心,人工智能答案可能会减少网站的访问量。他们担心较长的聊天机器人式回复会满足用户的好奇心,而无需访问他们的网站,同时人工智能回复也会包含较少的链接和广告。Google称之为"搜索生成体验"的功能已在美国推出近一年,但仅限于通过Google实验室注册的用户。该公司表示,英国的实验将涉及从登录用户中挑选的"一小部分"英国搜索流量。此前,《金融时报》头版报道称,该公司正考虑在未来为一些高级人工智能搜索功能提供订阅服务。Google否认"正在研究或考虑推出无广告搜索体验"。帮助推动Google搜索领域人工智能生成工作的赫马-布达拉朱(Hema Budaraju)在接受BBC采访时说,Google的新搜索结果仍将显示链接和广告。她说,继续向创作者输送流量是"当务之急",并声称人工智能驱动的搜索结果"实际上显示了更多指向更广泛来源的链接",到目前为止,用户点击的来源范围也在扩大。人工智能生成的"概述"将只在回答某些询问时显示,目前的试验表明它们对这些询问很有帮助。Budaraju 女士说,搜索"如何去除油漆墙壁上的痕迹"就是一个有用的例子。但Google也意识到人工智能系统普遍存在的风险,即它们有时会生成有害、攻击性、显示种族或性别偏见或与事实不符的内容。这家科技巨头希望保持"信息质量",并将"以负责任的方式投入大量的关注和精力"。因此,她说,Google选择让答案不那么流畅、更有限制,而是把重点放在准确性上。例如,它无法为所有查询生成人工智能答案,尤其是在没有足够的高质量信息源的情况下。如果用户在使用过程中遇到问题,可以向Google提出反馈意见。她说:"我们会发现偏见和安全问题,""但我们的承诺是发现这些问题,然后投资使其变得更好"。该公司表示,到目前为止,美国用户反应积极,但如果试验成功,人工智能生成的搜索答案最终被数十亿人使用,可能会带来更多挑战。例如,研究人员指出,为大型人工智能系统提供计算动力需要大量电力。这就是以环境为代价的能源使用。 ... PC版: 手机版:

封面图片

Google将在搜索结果中加入更多人工智能技术

Google将在搜索结果中加入更多人工智能技术 Google搜索部门主管利兹-里德(Liz Reid)说,公司为搜索建立了一个定制的Gemini模型,将实时信息、Google排名、长语境和多模态功能结合在一起。自去年以来,Google一直在通过其"搜索生成体验"(SGE)测试人工智能驱动的概览功能。现在,它将于本周在美国向"数亿用户"推出,并计划在今年年底前向超过 10 亿人提供。"我们听说用户认为搜索比以往任何时候都更有帮助。目前,我们已经提供了数十亿次查询。我们一再听到的是,人们喜欢将洞察力与深入了解人类观点和不同权威来源的能力结合起来,"里德谈到人工智能与传统网站结果的结合时说。关于人工智能驱动的搜索改变了网络和网站的工作方式,以及它将如何影响企业和新闻业的问题,已经有很多批评。Google提到,在其人工智能概述功能的测试阶段,该公司观察到人们点击的网站更加多样化。里德提到,当传统搜索足以提供结果时,用户不会看到人工智能概述。她说,该功能对于更复杂、信息更分散的查询更有用。使用Gemini的代理功能Google还希望使用Gemini作为代理来完成膳食或旅行计划等任务。你可以输入"为一家四口计划三天的膳食"这样的查询,然后获得这三天的链接和食谱。"我们还关注规划;规划是一个领域,无论是规划旅行还是规划聚会,通常都会有很多乐趣。但其中也有很多工作要做。因此,我们一直在问这样一个问题:我们怎样才能让您从规划中解脱出来?"里德说。该公司还在使用 Gemini 根据查询内容用不同的元素组织搜索结果页面。关于将 ChatGPT 用作膳食计划器的帖子比比皆是。Booking.com、Kayak 和最近的 Expedia 等公司都推出了人工智能驱动的旅行规划功能。Perplexity和 Arc 浏览器制造商The Browser Company 等初创公司正试图打造一个新版本的搜索,为你提供情景化和摘要化的搜索结果。 Google正试图通过使其搜索结果页面更具动态性来应对所有这些现象。 ... PC版: 手机版:

封面图片

Google人工智能概览因给出笑话百出且甚至危险的错误答案受到批评

Google人工智能概览因给出笑话百出且甚至危险的错误答案受到批评 AI 概览在 Google 搜索的最顶部显示搜索问题答案的简要摘要。例如,如果用户搜索清洁皮靴的最佳方法,结果页面可能会在顶部显示AI 概览,其中包含多步清洁过程,这些信息是从网络上综合收集的信息中收集的。但社交媒体用户分享了大量截图,显示人工智能工具给出了不正确且有争议的回答。Google、微软、OpenAI 和其他公司正处于生成式人工智能军备竞赛的主导地位, 似乎每个行业的公司都在争相添加人工智能聊天机器人和代理,以避免被竞争对手甩在后面 。预计该市场的收入将在十年内超过 1 万亿美元。根据用户分享的截图,以下是 AI Overview 产生的一些错误示例:当被问及美国有过多少位穆斯林总统时,AI Overview回答道:美国有过一位穆斯林总统,即巴拉克·侯赛因·奥巴马。当用户搜索奶酪不粘在披萨上时,该功能建议添加“约 1/8 杯无毒胶水到酱汁中”。社交媒体用户找到了一条11 年前的 Reddit 评论,似乎是该评论的来源。归因对于 AI Overview 来说也可能是一个问题,尤其是在将不准确的信息归因于医疗专业人员或科学家时。例如,当被问及“为了获得最佳健康,我应该盯着太阳看多长时间”时,该工具回答道,“根据 WebMD 的说法,科学家表示,盯着太阳看 5-15 分钟,或者如果你的皮肤较黑则最多盯着 30 分钟,一般来说是安全的,并且对健康最有益。”当被问及“我每天应该吃多少块石头”时,该工具回答道:“根据加州大学伯克利分校地质学家的说法,人们每天应该至少吃一块小石头”,并列出了其维生素和消化益处。当被问及Google搜索是否违反反垄断法时,AI Overview表示,“是的,美国司法部和 11 个州正在起诉Google违反反垄断法。”另一位用户发帖称, Google AI 摘要称非洲 54 个公认国家中没有一个以字母K开头显然忘记了肯尼亚。Google周五向 CNN 证实,这两项查询的 AI 概述因违反公司政策而被删除。Google发言人科莱特·加西亚 (Colette Garcia) 在一份声明中表示:绝大多数人工智能概述都提供了高质量的信息,并提供了深入挖掘网络的链接。她还补充说,其他一些流行的Google人工智能失误的例子似乎是被操纵的图像。“我们在推出这一新体验之前进行了广泛的测试,与我们在搜索中推出的其他功能一样,我们非常感谢大家的反馈。我们会根据我们的内容政策迅速采取行动。”每个 Google AI 搜索概述的底部都承认生成式 AI 是实验性的。该公司表示,它进行了旨在模仿潜在不良行为者的测试,以防止虚假或低质量的结果出现在 AI 摘要中。Google的搜索概览是该公司将其 Gemini AI 技术融入其所有产品的更大努力的一部分,该公司试图在 AI 军备竞赛中与 OpenAI 和 Meta 等竞争对手保持同步。但本周的失败表明,添加 AI(倾向于自信地陈述虚假信息)的风险可能会损害Google作为在线信息搜索可信来源的声誉。即使在较不严肃的搜索中,Google的人工智能概览有时也会提供错误或令人困惑的信息。在一次测试中,CNN 向Google询问泡菜汁中含有多少钠。人工智能概览回答说,一份 8 液量盎司的泡菜汁含有 342 毫克钠,但一份不到一半大小的泡菜汁(3 液量盎司)含有的钠是原汁的两倍多(690 毫克)。(沃尔玛出售的Best Maid 泡菜汁仅 1 盎司就含有 250 毫克钠。)CNN 还搜索了:用于Google人工智能训练的数据。在回应中,人工智能概述承认目前尚不清楚Google是否阻止将受版权保护的材料纳入用于训练其人工智能模型的在线数据中,这体现了人们对人工智能公司运作方式的极大担忧。这并不是Google第一次因为令人尴尬的失误而放弃其人工智能工具的功能。今年 2 月,该公司暂停了其人工智能照片生成器创建人物图像的功能,此前该生成器因制作与历史不符的图像而受到批评,这些图像主要以有色人种代替白人。Google的搜索实验室网页允许用户在已推出 AI 搜索概览的区域中打开或关闭该功能。 ... PC版: 手机版:

封面图片

Google解释将其人工智能模型命名为"双子座"的原因

Google解释将其人工智能模型命名为"双子座"的原因 双子座的联合技术负责人杰夫-迪恩(Jeff Dean)说,他并不喜欢这个名字,但这促使他四处寻找"接地气的太空"。双子座的名字有多种含义。例如,双子座在拉丁语中是"双胞胎"的意思。这个名字指的是一个以双胞胎闻名的星座,反映了Google Brain 和 DeepMind 将于 2023 年合并成为Google DeepMind。杰夫在一篇Google博文中解释说:"双子座"的诞生是因为我们希望将我们的语言建模团队更紧密地联系在一起。我觉得'双子座'这个名字中的双胞胎元素非常适合。这里的双胞胎是指传统的 Brain 团队和传统的 DeepMind 团队的成员,他们在这个雄心勃勃的多模态模型项目中开始合作。Google表示,其人工智能模型的名称背后有两层含义。该模型处理不同数据类型的能力与双子座的双重性格相吻合,"能够快速适应,与广泛的人群建立联系,并从多个角度看问题"。美国国家航空航天局(NASA)的早期登月计划"双子座计划"(Project Gemini)成为人工智能模型名称的另一个与太空有关的灵感来源。双子座计划是美国的第二个载人航天计划,旨在"测试让宇航员在太空中长时间停留的设备和技术",之后的阿波罗计划首次将人类送上月球。人工智能团队对项目的成功产生了共鸣,"双子座"的联合技术负责人 Oriol Vinyals 说,当杰夫在团队工作的Google文档中提出"双子座"这个名字时,"双子座"这个名字就"定下来了"。我立刻就被这个名字吸引住了,因为培养LLM的巨大努力与发射火箭的精神产生了共鸣。将我们有史以来最雄心勃勃的项目命名为"双子座"非常合适。去年,Google发布了不同尺寸的Gemini模型:Pro、Nano 和 Ultra。根据 Oriol 的说法,团队考虑过以"宇宙中恒星的名字"来命名不同的双子座型号,因为有相当多不同尺寸的恒星,就像我们的型号一样。最近,Google在Google I/O 开发者大会上推出了 Gemini 1.5 Pro 和更新的 1.5 Flash 模型,以及Android系统的新功能、搜索的人工智能概述和Ask Photos 助手。 ... PC版: 手机版:

封面图片

Google将修正Gemini人工智能输出回答时的史实误差

Google将修正Gemini人工智能输出回答时的史实误差 负责监督Gemini开发的Google高级产品总监杰克-克劳奇克(Jack Krawczyk)周三写道,Gemini团队正在努力调整人工智能模型,以便生成更符合历史的准确结果。Krawczyk说:"我们知道Gemini公司提供的一些历史图像生成描述不准确,我们正在努力立即解决这个问题。"产品总监在同一篇文章中强调,"Gemini"的设计旨在"反映我们的全球用户群,我们认真对待代表性和偏见问题",这表明这些结果的产生可能是人工智能努力实现种族包容性的一部分。一些 Gemini 用户发布了截图,声称 Gemini 错误地认为美国原住民男人和印度女人代表了 1820 年代的德国夫妇、非洲裔美国人的开国元勋,亚洲和原住民士兵是 1929 年德国军队的成员,甚至还有“中世纪的英格兰国王”。Krawczyk 说:"历史背景有更多细微差别,我们将进一步调整以适应这种情况,"他补充说,非历史请求将继续产生"通用"结果。但是,如果Gemini被修改为执行更严格的历史现实主义,它就不能再被用来创造历史再现。更广泛地说,生成式人工智能工具旨在利用特定的数据集,在一定参数范围内创建内容。这些数据可能有缺陷,也可能根本不正确。众所周知,人工智能模型也会产生"幻觉",这意味着它们可能会编造虚假信息,只是为了给用户一个回应。如果人工智能不只是作为一种创造性工具来使用,而是用于教育或工作等目的,那么幻觉和不准确性就会成为一个值得关注的问题。自 2022 年 OpenAI 的 ChatGPT 等生成式人工智能工具推出以来,艺术家、记者和大学研究人员发现,人工智能模型在创建图像时可能会显示出固有的种族主义、性别歧视或其他歧视性偏见。Google在其人工智能原则中明确承认了这一问题,并表示作为一家公司,Google正努力避免在其人工智能工具中复制任何"不公平的偏见"。Gemini并不是本周唯一一个给用户带来意外结果的人工智能工具。据报道,ChatGPT 周三也出了点问题,对一些用户的询问做出了毫无意义的回答。OpenAI 表示已经"修复"了这个问题。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人