Google研究人员发表论文探讨人工智能如何毁掉互联网

Google研究人员发表论文探讨人工智能如何毁掉互联网 研究发现,绝大多数生成式人工智能用户正在利用这项技术模糊真实性和欺骗性之间的界限,在互联网上发布虚假或篡改的人工智能内容,例如图片或视频。研究人员还仔细研究了之前发表的关于生成式人工智能的研究,以及大约 200 篇报道生成式人工智能滥用的新闻文章。研究人员总结道:操纵人类肖像和伪造证据是现实世界滥用案件中最普遍的手段。其中大多数都带有明显的意图,即影响舆论、进行诈骗或欺诈活动或牟利。使问题更加复杂的是,生成式人工智能系统日益先进且随时可用研究人员表示,只需要极少的技术专长,而这种情况正在扭曲人们对社会政治现实或科学共识的集体理解。据我们所知,这篇论文遗漏了什么?有没有提到谷歌自己在使用该技术时犯下的令人尴尬的错误 作为世界上最大的公司之一,谷歌的错误有时规模巨大。如果你读过这篇论文,你就会忍不住得出这样的结论:生成式人工智能的滥用听起来很像是该技术在按预期工作。人们正在使用生成式人工智能制作大量虚假内容,因为它非常擅长完成这项任务,结果导致互联网上充斥着人工智能垃圾。而这种情况正是谷歌自己促成的,它允许这些虚假内容泛滥,甚至是虚假内容的源头,无论是虚假图片还是虚假信息。研究人员表示,这一混乱局面也考验着人们辨别真假的能力。他们写道:同样,大量生产低质量、垃圾邮件和恶意的合成内容可能会增加人们对数字信息的怀疑态度,并使用户的验证任务负担过重。令人不寒而栗的是,由于我们被虚假的人工智能内容淹没,研究人员表示,有些情况下知名人士能够将不利的证据解释为人工智能生成的,从而以昂贵且低效的方式转移举证责任。随着谷歌等公司继续将人工智能融入到每一款产品中,我们将会看到更多这样的情况。了解更多: ... PC版: 手机版:

相关推荐

封面图片

人工智能垃圾开始污染互联网

人工智能垃圾开始污染互联网 5 月初,新闻网站评级公司 NewsGuard 发现 49 个假新闻网站使用人工智能生成内容。该公司联合创始人 戈登·克罗维茨 表示,截至 6 月底,这一数字已达到 277 个。“这个数字正在呈指数级增长,”克罗维茨说。并表示,这些网站的创建似乎是为了通过Google展示广告网络赚钱。 研究人员还指出,人工智能技术有可能被用于制造政治虚假信息和用于黑客攻击的定向信息。网络安全公司Zscaler表示,现在判断人工智能是否被犯罪分子广泛使用还为时过早,但该公司预计人工智能将被用来创建高质量的的假冒钓鱼网页,这些网页旨在诱骗受害者下载恶意软件软件或泄露他们的用户名和密码。 在YouTube上,ChatGPT淘金热正如火如荼地进行着。数十个提供如何利用OpenAI技术赚钱的建议的视频已被观看了数十万次。其中许多视频提出了涉及垃圾内容的可疑计划。有些视频告诉观众,他们每周可以赚到数千美元,敦促他们编写电子书或在博客上出售广告,这些博客上充斥着人工智能生成的内容,然后可以通过在谷歌搜索中弹出广告来获得广告收入。 《Clarkesworld》杂志的出版商 Neil Clarke 表示,今年早些时候,该杂志不得不暂时停止接受在线投稿,因为数百个人工智能生成的故事让该杂志不堪重负。Clarke 表示, 提交内容是由在线视频推动的,这些视频建议人们使用 ChatGPT 创建内容并向 Clarkesworld 投稿。 如果互联网上越来越多地充斥着人工智能生成的内容,这可能会成为人工智能公司本身的问题。这是因为它们的大型语言模型在公共数据集上进行自我训练。随着这些数据集越来越多地充满人工智能生成的内容,研究人员担心语言模型将变得不那么有用,这种现象被称为“模型崩溃”。 来源:

封面图片

研究发现:用人工智能生成的图像训练出的人工智能产生了糟糕的结果。

研究发现:用人工智能生成的图像训练出的人工智能产生了糟糕的结果。 斯坦福大学和莱斯大学的研究人员发现,生成式人工智能模型需要“新鲜的真实数据”,否则输出的质量就会下降。 这对摄影师和其他创作者来说是个好消息,因为研究人员发现,训练数据集中的合成图像会放大人工痕迹,使人工智能画出的人类看起来越来越不像真人。 研究小组将这种状况命名为“模型自噬障碍”。如果自噬循环的每一代都没有足够的新鲜真实数据,未来的生成模型注定会逐渐降低其质量或多样性。 如果该研究论文是正确的,那么这意味着人工智能将无法开发出无穷无尽的数据源。人工智能仍然需要真实、高质量的图像来不断进步,而不是依赖自己的输出。这意味着生成式人工智能将需要摄影师。

封面图片

中国互联网协会副秘书长裴玮近日在 2024 中国互联网大会上发布《中国互联网发展报告 (2024)》。《报告》指出,在人工智能领

中国互联网协会副秘书长裴玮近日在 2024 中国互联网大会上发布《中国互联网发展报告 (2024)》。《报告》指出,在人工智能领域,2023 年我国人工智能产业应用进程持续推进,核心产业规模达到 5784 亿元。截至 2024 年 3 月,我国人工智能企业数量超过 4500 家,已有 714 个大模型完成生成式人工智能服务备案。(上证报)

封面图片

谷歌将生成式人工智能引入 Google 地图

谷歌将生成式人工智能引入 Google 地图 当地时间2月1日,谷歌宣布推出使用生成式人工智能来发现地点的新方法。只需用户说出要寻找的内容 (无论是多么具体、独特或广泛),谷歌的大语言模型 (LLM) 就会分析 Google 地图上超过 2.5 亿个地点的详细信息以及来自超过 3 亿贡献者的社区的可信见解,从而快速提出去哪里的建议。这项早期访问实验将于本周在美国启动。

封面图片

人工智能对人工智能生成的内容进行训练将导致人工智能崩溃

人工智能对人工智能生成的内容进行训练将导致人工智能崩溃 用于训练大型语言模型的数据最初来自人类来源,如书籍、文章、照片等,这些都是在没有人工智能的帮助下创建的。但随着越来越多的人使用人工智能来制作和发布内容,一个明显的问题出现了:当人工智能生成的内容在互联网上扩散时,人工智能模型开始对其进行训练。研究人员发现,“在训练中使用模型生成的内容会导致所产生的模型出现不可逆转的缺陷。”他们研究了文本到文本和图像到图像的人工智能生成模型的概率分布,得出结论:“从其他模型产生的数据中学习会导致模型崩溃 这是一个退化的过程,并且随着时间的推移,模型会忘记真正的基础数据分布。”他们观察到模型崩溃发生得如此之快:模型可以迅速忘记它们最初学习的大部分原始数据。这导致它们随着时间的推移,表现越来越差,错误越来越多。来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

DeepMind:政治深度伪造居恶意使用人工智能榜首

DeepMind:政治深度伪造居恶意使用人工智能榜首 谷歌旗下 DeepMind 部门首次对人工智能最常见的恶意使用情况进行的研究显示,利用人工智能生成的“深度伪造”冒充政客和名人,远比利用人工智能协助网络攻击的行为普遍得多。该研究表示,制作逼真的假冒人物图像、视频和音频的情况几乎是第二高频率滥用生成式人工智能工具情况的两倍:使用聊天机器人等基于文本的工具伪造信息,生成虚假信息并发布到网上。分析发现,行为者滥用生成式人工智能的最常见目标是塑造或影响公众舆论。这一占到使用的27%,加剧了人们对深度伪造可能影响今年全球选举的担忧。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人