Google似乎正在向一些新闻网站支付AI撰写文章的费用

Google似乎正在向一些新闻网站支付AI撰写文章的费用 这已经不是我们第一次听说了。去年,Google被发现正在测试一款名为"Genesis"的人工智能工具,该工具能够帮助我们记者撰写新闻文章,而现在一份新的报告显示,这家搜索引擎巨头已经开始向小型出版商支付五位数的费用,以便他们能够继续尝试这款用于出版的生成式人工智能工具。另外值得注意的是,Google人工智能项目的这一试验目前规模较小,但确实需要媒体配合定期使用。作为协议的一部分,该公司希望出版商使用这一工具每天发布三篇文章,每周发布一份时事通讯,每月发布一次营销活动,这一切都是由人工智能完成的。Google平台的工作方式是从各个网站获取所有内容,然后将其整合到一个仪表板上。然后,这些内容会呈现给人工编辑,后者可以使用人工智能工具将仪表板上的任何新文章转化为新闻文章。最后一步是编辑在文章上线前对其进行微调。为了保持这项交易的相关性,新闻机构应该在 12 个月内发布这些由人工智能生成的文章,并向Google提供分析和反馈,消息来源称,这一平台目前可供一些小型媒体使用。另外需要注意的是,目前使用该工具的网站无需将这些文章标记为人工智能生成的。此外,内容聚合网站也不会收到通知,告知Google的工具正在使用它们的材料生成基于人工智能的故事和文章。 ... PC版: 手机版:

相关推荐

封面图片

报业集团Gannett正在其文章顶部添加AI生成的摘要

报业集团Gannett正在其文章顶部添加AI生成的摘要 访问:NordVPN 立减 75% + 外加 3 个月时长 另有NordPass密码管理器 文章底部有一个免责声明,内容如下:"本文顶部的要点是在人工智能(AI)的协助下创建的,并在发表前经过了记者的审核。文章的其他部分均未使用人工智能生成"。备忘录的日期为 5 月 14 日,并指出目前可选择是否参与。这些摘要似乎已经在《今日美国》 的一些在线报道中上线(甘尼特公司拥有《今日美国》 报纸)。根据备忘录,人工智能生成的摘要"旨在加强报道流程,提升受众体验",备忘录还指出,,为该工具提供动力的人工智能模型是经过九个月的内部培训的。Gannett 没有立即回应置评请求。甘尼特此前曾尝试过人工智能内容,但在出现令人尴尬的失误后,该公司很快就反悔了。去年 8 月,Gannett停止了人工智能生成的体育赛事回顾,因为读者嘲笑其文笔拙劣。10 月,Gannett 消费品网站Reviewed 的工作人员声称,网上出现的内容是用人工智能制作的,制作该作品的第三方营销公司也是《体育画报》 人工智能争议的幕后黑手,在该争议中,人工智能生成的作者被认为是作者。当时,甘尼特坚称产品评论不是用人工智能工具制作的。在增加人工智能生成摘要的同时,当地一家工会的成员对有关使用人工智能的拟议合同语言提出了担忧。据Digiday 报道,纽约州罗切斯特市《民主与纪事报》(Democrat & Chronicle)的工会工作人员在谈判过程中看到他们的合同中增加了一条,内容如下:"人工智能(AI)可用于生成新闻内容"。人工智能生成的新闻文章摘要反映了搜索平台正在发生的变化:在本周的GoogleI/O开发者大会上,这家科技巨头公布了人工智能将成为搜索一部分的所有方式,包括在搜索结果页面顶部添加人工智能答案。就连 TikTok 也在尝试在搜索结果页面中使用人工智能生成的"概览"。将人工智能答案(根据人类创建的内容进行训练)置于实际网站和链接之上,可能会对出版商及其流量造成不利影响,因为用户在阅读完人工智能摘要后就会离开,而不会继续访问源材料。 ... PC版: 手机版:

封面图片

研究称48%热门新闻网站屏蔽OpenAI爬虫

研究称48%热门新闻网站屏蔽OpenAI爬虫 由于缺乏明确的监管框架来管理生成式人工智能对受版权保护的材料的使用,许多大型出版商自行解决问题,将人工智能公司告上法庭,更新服务条款,阻止爬虫或达成交易以保护优质内容,数据和收入。该研究将媒体分为三类:传统印刷出版物、电视和广播电台以及数字媒体。到 2023 年底,超过二分之一 (57%) 的传统印刷出版物网站(例如《纽约时报》)将屏蔽 OpenAI 的爬虫程序,而电视和广播公司的这一比例为 48%,数字媒体的比例为 31%。同样,32% 的印刷媒体屏蔽了 Google 的抓取工具,而 19% 的广播公司和 17% 的数字媒体也采取了同样的做法。Gartner 副总裁、杰出分析师安德鲁·弗兰克 (Andrew Frank) 表示:路透社的研究强调了生成式人工智能面临的一个根本挑战:它依赖于真实的人生成的真实内容,而这些人将其视为对其生计的威胁。与此同时,康奈尔大学最近的一项研究发现,当新的人工智能模型根据先前模型而不是人类输入的数据进行训练时,它们往往会模型崩溃或退化,导致生成的输出中错误和错误信息增加。“这表明大型语言模型开发人员需要找到方法来补偿那些创建或报告真实内容的人,这不仅是为了社会,也是为了他们自己的商业利益。”弗兰克说。部署网站爬虫的原因有很多。像Google的 Googlebot 这样的爬虫会在这家科技巨头的搜索结果中索引出版商网站。与此同时,OpenAI 的爬虫 GPTBot 通过互联网收集数据来训练其大型语言模型,例如 ChatGPT。这使得人工智能工具能够生成准确的同步数据新闻出版商尤其具有独特的优势来提供这种能力:GoogleAI的权重比优质出版商的内容高出5 到 100倍。人工智能驱动的解决方案正在成为传统搜索引擎的替代品。根据这项研究,与南半球的新闻媒体相比,北半球的新闻媒体更倾向于阻止人工智能爬虫。在美国,79% 的顶级在线新闻网站屏蔽了 OpenAI,而在墨西哥和波兰,只有 20% 的网站这样做了。与此同时,德国 60% 的新闻网站屏蔽了Google的爬虫,而波兰和西班牙则有 7% 的新闻网站屏蔽了Google的爬虫。几乎所有屏蔽 Google AI 的网站也屏蔽了 OpenAI(97%)。尽管该研究没有对这一趋势提供明确的解释,但它表明 OpenAI 在 Google 之前发布其爬虫程序可能对此有所贡献。与此同时,在大多数国家/地区,一些出版商在这两套爬虫程序发布后立即对其进行了屏蔽。OpenAI 于去年 8 月初推出了人工智能爬虫,Google也于 9 月紧随其后。根据这项研究,一旦做出屏蔽决定,没有任何网站会改变立场,解除对 OpenAI 或 Google AI 爬虫的屏蔽。 ... PC版: 手机版:

封面图片

CNET 因使用 AI 撰写文章被维基百科降级为“总体上不可靠”来源

CNET 因使用 AI 撰写文章被维基百科降级为“总体上不可靠”来源 在编辑们就人工智能生成内容对网站可信度的影响进行广泛讨论后,维基百科降低了科技网站 CNET 的可靠性评级。2022年11月左右,CNET 开始发表由 AI 撰写的文章。2023年1月,其文章中被发现文章中充斥着抄袭和错误。消息曝光后,CNET 管理层暂停了实验,但声誉受损已经造成。 在维基百科维护的“可靠来源/Perennial来源”的页面上 CNET 的评级在3月1日已被更新为,(1) 2020年10月之前的内容是“普遍可靠”的来源;(2) 2020年10月至2022年10月期间的内容,因被 Red Ventures 收购“导致编辑标准恶化”和充满“广告软文”被降级为“未达成共识”;(3) 从2022年11月至今的内容“总体上不可靠”,因为该网站开始使用人工智能工具“快速生成充满不准确事实和推广链接的文章”。 、

封面图片

谷歌测试能够撰写新闻文章的人工智能工具

谷歌测试能够撰写新闻文章的人工智能工具 据三位知情人士透露,谷歌正在测试一款使用人工智能技术制作新闻报道的产品,并将其推销给《纽约时报》、《华盛顿邮报》和《华尔街日报》母公司新闻集团在内的新闻机构。 不愿透露姓名的知情人士表示,该工具在内部的暂定名称为 Genesis,可以接收信息(例如时事的详细信息)并生成新闻文案。 熟悉该产品的三名人士之一表示,谷歌相信它可以充当记者的私人助理,自动执行一些任务,为其他任务腾出时间,而且该公司认为它是一种负责任的技术,可以帮助出版业远离人工智能生成器的陷阱。 一些看过谷歌推介的高管表示,谷歌的推介令人不安,并要求匿名讨论机密问题。有两个人表示,谷歌的宣传似乎认为制作准确、艺术性强的新闻报道所付出的努力是理所当然的。

封面图片

ImageFX 是一款由 Google 最先进的文本到图像模型 Imagen 2 提供支持的新图像生成工具。我们很高兴将其添加到

ImageFX 是一款由 Google 最先进的文本到图像模型 Imagen 2 提供支持的新图像生成工具。我们很高兴将其添加到实验室的生成式人工智能工具套件中,并帮助您将最具创意的想法变为现实。 使用链接: via 匿名 标签: #Google 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

Google将修正Gemini人工智能输出回答时的史实误差

Google将修正Gemini人工智能输出回答时的史实误差 负责监督Gemini开发的Google高级产品总监杰克-克劳奇克(Jack Krawczyk)周三写道,Gemini团队正在努力调整人工智能模型,以便生成更符合历史的准确结果。Krawczyk说:"我们知道Gemini公司提供的一些历史图像生成描述不准确,我们正在努力立即解决这个问题。"产品总监在同一篇文章中强调,"Gemini"的设计旨在"反映我们的全球用户群,我们认真对待代表性和偏见问题",这表明这些结果的产生可能是人工智能努力实现种族包容性的一部分。一些 Gemini 用户发布了截图,声称 Gemini 错误地认为美国原住民男人和印度女人代表了 1820 年代的德国夫妇、非洲裔美国人的开国元勋,亚洲和原住民士兵是 1929 年德国军队的成员,甚至还有“中世纪的英格兰国王”。Krawczyk 说:"历史背景有更多细微差别,我们将进一步调整以适应这种情况,"他补充说,非历史请求将继续产生"通用"结果。但是,如果Gemini被修改为执行更严格的历史现实主义,它就不能再被用来创造历史再现。更广泛地说,生成式人工智能工具旨在利用特定的数据集,在一定参数范围内创建内容。这些数据可能有缺陷,也可能根本不正确。众所周知,人工智能模型也会产生"幻觉",这意味着它们可能会编造虚假信息,只是为了给用户一个回应。如果人工智能不只是作为一种创造性工具来使用,而是用于教育或工作等目的,那么幻觉和不准确性就会成为一个值得关注的问题。自 2022 年 OpenAI 的 ChatGPT 等生成式人工智能工具推出以来,艺术家、记者和大学研究人员发现,人工智能模型在创建图像时可能会显示出固有的种族主义、性别歧视或其他歧视性偏见。Google在其人工智能原则中明确承认了这一问题,并表示作为一家公司,Google正努力避免在其人工智能工具中复制任何"不公平的偏见"。Gemini并不是本周唯一一个给用户带来意外结果的人工智能工具。据报道,ChatGPT 周三也出了点问题,对一些用户的询问做出了毫无意义的回答。OpenAI 表示已经"修复"了这个问题。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人