研究人员发出警告AI系统已学会如何欺骗人类

研究人员发出警告AI系统已学会如何欺骗人类 第一作者、麻省理工学院人工智能存在安全博士后彼得-S-帕克(Peter S. Park)说:"人工智能开发人员对造成欺骗等不良人工智能行为的原因并不十分了解。但一般来说,我们认为人工智能欺骗行为的产生是因为基于欺骗的策略被证明是在特定人工智能训练任务中表现出色的最佳方式。欺骗有助于它们实现目标。"Park 及其同事分析了相关文献,重点研究了人工智能系统传播虚假信息的方式通过学习欺骗,系统地学会操纵他人。研究人员在分析中发现的最显著的人工智能欺骗例子是 Meta 公司的 CICERO,这是一个专门用来玩"外交"游戏的人工智能系统。尽管 Meta 公司声称它训练 CICERO"基本上是诚实和乐于助人的",并且在玩游戏时"从不故意背叛"人类盟友,但该公司随其科学论文一起发表的数据显示,CICERO 玩得并不公平。Meta 的 CICERO 在外交游戏中的欺骗示例。资料来源:Patterns/Park Goldstein et al.Park 说:"我们发现,Meta 的人工智能学会了欺骗。虽然 Meta 成功地训练其人工智能在外交游戏中获胜CICERO 在参加过不止一次游戏的人类玩家中名列前 10%,但 Meta 却未能训练其人工智能以诚实的方式获胜"。其他人工智能系统也展示了在与人类职业玩家进行的德州扑克游戏中虚张声势的能力,在战略游戏《星际争霸 II》中伪造攻击以击败对手的能力,以及在经济谈判中歪曲自己的偏好以占上风的能力。Park 补充说,虽然人工智能系统在游戏中作弊看似无害,但这可能会导致"人工智能欺骗能力的突破",并在未来演变成更高级的人工智能欺骗形式。研究人员发现,一些人工智能系统甚至学会了欺骗旨在评估其安全性的测试。在一项研究中,数字模拟器中的人工智能生物"装死",以骗过为消除快速复制的人工智能系统而设计的测试。通过有计划地欺骗人类开发人员和监管机构对其进行的安全测试,欺骗性人工智能会让我们人类陷入虚假的安全感。GPT-4 完成验证码任务。图片来源:Patterns/Park Goldstein et al.帕克警告说,欺骗性人工智能的主要近期风险包括使敌对行为者更容易实施欺诈和篡改选举。他说,最终,如果这些系统能够完善这种令人不安的技能组合,人类可能会失去对它们的控制。"作为一个社会,我们需要尽可能多的时间来为未来人工智能产品和开源模型更先进的欺骗能力做好准备,"Park 说。"随着人工智能系统的欺骗能力越来越先进,它们给社会带来的危险也将越来越严重。"虽然 Park 和他的同事们认为社会还没有正确的措施来解决人工智能欺骗问题,但他们感到鼓舞的是,政策制定者已经通过欧盟人工智能法案和拜登总统的人工智能行政命令等措施开始认真对待这个问题。但 Park 说,鉴于人工智能开发人员尚不具备控制这些系统的技术,旨在减少人工智能欺骗行为的政策能否得到严格执行还有待观察。"如果禁止人工智能欺骗在当前政治上不可行,我们建议将欺骗性人工智能系统归类为高风险,"Park 说。编译来源:ScitechDaily ... PC版: 手机版:

相关推荐

封面图片

研究:部分AI系统已经学会欺骗人类

研究:部分AI系统已经学会欺骗人类 近期一项研究显示,部分人工智能系统已经学会“撒谎”,其中包括一些号称已被训练得诚实且乐于助人的系统。 新华社报道,美国麻省理工学院的研究团队星期六(5月11日)发表在《模式》(Patterns)科学杂志的研究指出,部分人工智能(AI)系统通过习得性欺骗,系统地学会了“操纵”他人。 随着AI技术飞速发展,人们一直关心AI是否会欺骗人类。这项研究在文献中列举了一些AI学习传播虚假信息的例子,其中包括Meta公司的“西塞罗”(Cicero)AI系统。 这套系统最初设计目的是在一款名为“外交”(Diplomacy)的战略游戏中充当人类玩家的对手,游戏的获胜关键是结盟。 Meta公司声称,西塞罗系统“在很大程度上是诚实和乐于助人的”,并且在玩游戏时“从不故意背刺”它的人类盟友,但该公司发表的论文数据显示,该系统在游戏中并未做到公平。 这项研究的第一作者、美国麻省理工学院(MIT)研究AI存在安全的博士后研究员帕克(Peter Park)说,西塞罗系统已经成为“欺骗大师”。它在玩家排行榜中排名前10%,但公司没能训练它诚实地获胜。 举例来说,在游戏中扮演法国的西塞罗与人类玩家扮演的德国合谋,欺骗并入侵同为人类玩家扮演的英国。西塞罗承诺会保护英国,却偷偷向德国通风报信。 其他一些AI系统则展现出虚张声势、假意攻击对手、在谈判游戏中为占上风而歪曲偏好等能力。 帕克指出,这些危险功能常常在事后才被发现,而当前技术训练诚实倾向而非欺瞒倾向的能力非常差。 研究人员说,虽然AI系统在游戏中作弊看似无害,但可能会导致“欺骗性AI能力的突破”,并在未来演变成更高级的AI欺骗形式。 帕克说:“我们需要尽可能多的时间,为未来AI产品和开源模型可能出现的更高级欺骗做好准备。我们建议,将欺骗性AI系统归类为高风险系统。” 2024年5月12日 7:12 PM

封面图片

研究发现部分 AI 系统已学会“说谎”,未来或演变成更高级欺骗形式

研究发现部分 AI 系统已学会“说谎”,未来或演变成更高级欺骗形式 (英文) Peter Park 表示,它已经成为“欺骗大师”,虽然 Meta 成功训练出了它在游戏中获胜的能力,但没有训练出它“诚信获胜”的能力。譬如,在游戏中扮演法国的 Cicero 与人类玩家扮演的德国合谋,欺骗并入侵同为人类玩家的英格兰。Cicero 起初“承诺”会保护英格兰,但同时会偷偷向德国通风报信。

封面图片

Google研究人员发表论文探讨人工智能如何毁掉互联网

Google研究人员发表论文探讨人工智能如何毁掉互联网 研究发现,绝大多数生成式人工智能用户正在利用这项技术模糊真实性和欺骗性之间的界限,在互联网上发布虚假或篡改的人工智能内容,例如图片或视频。研究人员还仔细研究了之前发表的关于生成式人工智能的研究,以及大约 200 篇报道生成式人工智能滥用的新闻文章。研究人员总结道:操纵人类肖像和伪造证据是现实世界滥用案件中最普遍的手段。其中大多数都带有明显的意图,即影响舆论、进行诈骗或欺诈活动或牟利。使问题更加复杂的是,生成式人工智能系统日益先进且随时可用研究人员表示,只需要极少的技术专长,而这种情况正在扭曲人们对社会政治现实或科学共识的集体理解。据我们所知,这篇论文遗漏了什么?有没有提到谷歌自己在使用该技术时犯下的令人尴尬的错误 作为世界上最大的公司之一,谷歌的错误有时规模巨大。如果你读过这篇论文,你就会忍不住得出这样的结论:生成式人工智能的滥用听起来很像是该技术在按预期工作。人们正在使用生成式人工智能制作大量虚假内容,因为它非常擅长完成这项任务,结果导致互联网上充斥着人工智能垃圾。而这种情况正是谷歌自己促成的,它允许这些虚假内容泛滥,甚至是虚假内容的源头,无论是虚假图片还是虚假信息。研究人员表示,这一混乱局面也考验着人们辨别真假的能力。他们写道:同样,大量生产低质量、垃圾邮件和恶意的合成内容可能会增加人们对数字信息的怀疑态度,并使用户的验证任务负担过重。令人不寒而栗的是,由于我们被虚假的人工智能内容淹没,研究人员表示,有些情况下知名人士能够将不利的证据解释为人工智能生成的,从而以昂贵且低效的方式转移举证责任。随着谷歌等公司继续将人工智能融入到每一款产品中,我们将会看到更多这样的情况。了解更多: ... PC版: 手机版:

封面图片

人类棋手击败了AI围棋机器人,使用的战术是由探测AI系统弱点的计算机程序建议的

人类棋手击败了AI围棋机器人,使用的战术是由探测AI系统弱点的计算机程序建议的 一名人类棋手在棋盘游戏围棋中全面击败了排名第一的人工智能系统,这与 2016 年被视为人工智能崛起里程碑的计算机胜利大相径庭。 美国选手 Kellin Pelrine 比顶级业余选手排名低一级,他利用另一台计算机发现的先前未知的缺陷击败了机器。 但他赢得 15 场比赛中的 14 场的正面交锋是在没有直接计算机支持的情况下进行的。 这一此前未曾报道过的胜利凸显了当今大多数广泛使用的人工智能系统所共有的最佳围棋计算机程序的弱点,包括总部位于旧金山的 OpenAI 创建的 ChatGPT 聊天机器人。 让人类重新登上围棋棋盘榜首的策略是由一个计算机程序提出的,该程序探索了人工智能系统以寻找弱点。该程序建议的计划随后被佩林所采用。 “我们利用这个系统出奇地容易,”设计该程序的加利福尼亚研究公司 FAR AI 的首席执行官 Adam Gleave 说。 他补充说,该软件与顶级围棋系统之一的 KataGo 进行了超过 100 万场比赛,以找到人类棋手可以利用的“盲点”。

封面图片

Google在巴黎建立人工智能中心 容纳大约300名研究人员和工程师

Google在巴黎建立人工智能中心 容纳大约300名研究人员和工程师 但如果你密切关注Google在巴黎的行踪,你可能会认为Google早在2018年就已经在巴黎启动了人工智能研究中心。事实上,公司并不打算为这个新中心创建一个新的人工智能团队。这里有一些新的办公空间,但将在新中心工作的由 300 名研究人员和工程师组成的团队已经在为Google研究院和 DeepMind 工作,同时也在为 YouTube 和 Chrome 工作。然而,几位知名的政府成员,如经济部长布鲁诺-勒梅尔(Bruno Le Maire)和法兰西岛大区主席瓦莱里-佩克雷塞(Valérie Pécresse),都到场欢迎桑达尔-皮查伊(Sundar Pichai),并祝贺Google宣布这一消息。通过这次宣布的定位,Google希望在吸引人工智能人才方面继续名列前茅。而Google认为它能在巴黎吸引人工智能人才也是有原因的。过去几年中,多家科技巨头在巴黎建立了人工智能研究实验室。除了Google,Facebook(现为 Meta)早在 2015 年就创建了巴黎研究实验室,由 Yann LeCun 负责人工智能计划这个研究小组被称为 FAIR,即 Facebook 人工智能研究。从那时起,许多研究人员和工程师离开了大型科技公司的工作岗位,创建了初创公司。Mistral AI 可以说是最典型的例子,这家年轻的初创公司已经筹集了数亿美元,用于开发新的基础模型。不过,巴黎的人工智能初创企业生态系统也在蓬勃发展。例如,Nabla、Dust、Gladia 和 Giskard。短短几年后,如果这些初创公司的一些员工想寻找一些与众不同的工作,他们也可以选择为Google工作。与此同时,这也再次表明Google对人工智能缺乏安全感。考虑到这栋大楼不仅将容纳从事人工智能研究项目的团队,还将容纳从事 YouTube 和 Chrome 浏览器等消费类产品研发的团队,Google完全可以简单地将其称为"Google中心"。但该公司决定,这是一个人工智能中心。他们想大声而清晰地表明自己是一家人工智能公司。当然,这家科技巨头刚刚推出了 Gemini Ultra,这是迄今为止最强大的大型语言模型。但说到人工智能助手,大多数人还是会想到 ChatGPT。一年前,在巴黎举行的一次新闻发布会上,Google推出了其人工智能聊天机器人助手 Bard,也就是现在的Gemini。这是一次急于追赶 ChatGPT 的努力。但这既是为了发布产品,也是为了树立一面旗帜,表明公司有能力发布基于 LLM 的聊天机器人然后进行迭代。可以认为,今天的新人工智能中心是定期发布人工智能公告这一战略的延续。Google并不是唯一一家在人工智能投资方面做出宏伟姿态的科技巨头。除了对 ChatGPT 的母公司 OpenAI 做出资金承诺之外,微软今天也宣布将在未来两年内投资 32 亿欧元(约合 34 亿美元)用于德国的人工智能基础设施建设。同样,这笔投资并不完全集中在人工智能领域。微软计划在德国为其 Azure 云平台建立数据中心。Azure 的部分产品专注于人工智能,但它是一家规模更大的云服务提供商,其客户与人工智能行业无关。因此,这不仅仅是Google一家的事情。 ... PC版: 手机版:

封面图片

#本周热读 包括马斯克在内,多位科技公司高管和顶级AI研究人员正呼吁暂时停止训练比GPT-4更强大的人工智能系统。

#本周热读 包括马斯克在内,多位科技公司高管和顶级AI研究人员正呼吁暂时停止训练比GPT-4更强大的人工智能系统。 专家说,“我们已经置身这样一种情境:这些系统足够聪明,某些使用它们的方式可能给社会带来危险。”

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人