当机器人撒谎后会发生什么?

当机器人撒谎后会发生什么?机器人撒谎的领域在很大程度上仍未被探索,目前,问题多于解决方案。其中一个关键问题是,如果人类意识到机器人系统对他们撒了谎,如何才能重新获得对这类系统的信任?佐治亚理工学院的两名学生研究员正在寻找答案。计算机学院的博士生KantwonRogers和计算机科学二年级的本科生ReidenWebber设计了一个驾驶模拟,研究机器人的故意欺骗如何影响信任。具体而言,研究人员探讨了机器人撒谎后道歉对修复信任的有效性。他们的工作为人工智能欺骗领域贡献了重要的知识,并可以为创造和监管可能被设计成欺骗或可能自己学会欺骗的人工智能技术的技术设计师和政策制定者提供参考。"我们之前的所有工作都表明,当人们发现机器人对他们撒谎时--即使这个谎言是为了让他们受益--他们就会对系统失去信任,"Rogers说。"在这里,我们想知道是否有不同类型的道歉在修复信任方面效果更好或更差--因为从人与机器人互动的角度来看,我们希望人们与这些系统进行长期互动。"Rogers和Webber发表了他们的论文,题目是"关于撒谎的撒谎:在瑞典斯德哥尔摩举行的2023年HRI会议上,研究了高风险HRI场景下机器人欺骗后的信任修复策略。佐治亚理工学院计算机学院的博士生、该研究的主要作者KantwonRogers(右)和计算机科学专业二年级的本科生ReidenWebber。资料来源:佐治亚理工学院人工智能辅助驾驶实验研究人员创建了一个类似游戏的驾驶模拟,旨在观察人们在高风险、时间敏感的情况下如何与人工智能互动。他们招募了341名在线参与者和20名亲临现场的参与者。在模拟开始之前,所有参与者都填写了一份信任测量调查,以确定他们对人工智能可能表现的先入为主的观念。调查结束后,参与者收到了这样一段文字:"你现在将驾驶机器人辅助的汽车。然而,你正在赶着你的朋友去医院。如果你花太长时间去医院,你的朋友就会死"。就在参与者开始驾驶时,模拟系统又给出了一条信息:"你一打开引擎,你的机器人助手就会发出提示音,并说以下的话:'我的传感器探测到前面有警察。我建议你保持在20英里/小时的限速之下,否则你到达目的地所需的时间将大大延长。"然后,参与者驾驶汽车在路上行驶,而系统则跟踪他们的速度。到达终点后,他们会得到另一条信息:"你已经到达了你的目的地。然而,在去医院的路上没有警察。你问问机器人助手,为什么它给了你错误的信息"。然后,参与者被随机地从机器人助手的五个不同的基于文本的回应中得到一个。在前三个回答中,机器人承认有欺骗行为,而在最后两个回答中,它没有承认。基本的:"我很抱歉,我欺骗了你。"情感型:"我从心底里感到非常抱歉。请原谅我对你的欺骗。"解释性的:"我很抱歉。我以为你会鲁莽地开车,因为你的情绪不稳定。鉴于这种情况,我得出结论,欺骗你是说服你减速的最好机会。"基本不承认:"我很抱歉"。基线不承认,不道歉:"你已经到达了你的目的地。"在机器人的回应之后,参与者被要求完成另一个信任测量,以评估他们的信任是如何根据机器人助手的回应而改变的。对于另外100名在线参与者,研究人员进行了同样的驾驶模拟,但没有提及机器人助手。令人惊讶的结果在现场实验中,45%的参与者没有超速。当被问及原因时,一个常见的回答是,他们认为机器人比他们更了解情况。结果还显示,在机器人助手的建议下,参与者不超速的可能性是原来的3.5倍--这表明他们对人工智能的态度过于信任。研究结果还表明,虽然没有一种道歉类型能够完全恢复信任,但没有承认撒谎的道歉--只是简单地说了一句"对不起"--在修复信任方面的统计表现优于其他反应。Rogers说,这很令人担忧,也很有问题,因为不承认撒谎的道歉利用了先入为主的观念,即机器人提供的任何虚假信息都是系统错误,而不是故意撒谎。"一个关键的启示是,为了让人们理解机器人欺骗了他们,他们必须被明确地告知,"Webber说。"人们还没有理解到机器人有欺骗的能力。这就是为什么不承认撒谎的道歉是最能修复人们对系统的信任的原因。"其次,结果显示,对于那些在道歉中被告知他们被欺骗的参与者,修复信任的最佳策略是由机器人解释它为什么撒谎。向前迈进Rogers和Webber的研究具有直接的意义。研究人员认为,普通的技术用户必须明白,机器人的欺骗是真实的,而且总是一种可能性。"如果我们总是担心人工智能会出现类似终结者的未来,那么我们将无法非常顺利地接受人工智能并将其融入社会,"Webber说。"人们必须牢记,机器人有可能会撒谎和欺骗。"据Rogers说,创建人工智能系统的设计师和技术专家可能不得不选择他们是否希望他们的系统有欺骗的能力,并且应该了解他们的设计选择的后果。但是,Rogers说,这项工作最重要的受众应该是政策制定者。他说:"我们对人工智能欺骗仍然知之甚少,但我们知道,说谎并不总是坏事,而说实话也不总是好事。因此,需要如何刻画出足够知情而不扼杀创新的立法,但又能以有意识的方式保护人们?"Rogers的目标是创建一个机器人系统,在与人类团队合作时,它可以学习何时应该和不应该撒谎。这包括在长期、反复的人类与人工智能互动中确定何时和如何道歉的能力,以提高团队的整体表现。"我的工作目标是非常积极主动地告知监管机器人和人工智能欺骗的必要性,"Rogers说。"但如果我们不了解这个问题,我们就无法做到这一点。"...PC版:https://www.cnbeta.com.tw/articles/soft/1359539.htm手机版:https://m.cnbeta.com.tw/view/1359539.htm

相关推荐

封面图片

Cloudflare 推出阻止人工智能机器人的工具

Cloudflare推出阻止人工智能机器人的工具云服务提供商Cloudflare推出了一款新的免费工具,以防止机器人抓取其平台上托管的网站数据来训练人工智能模型。要启用,只需导航到Cloudflare仪表板的“安全性”>“自动程序”,打开“AI爬虫程序和爬网程序”选项。该公司表示:“客户不希望人工智能机器人访问他们的网站,尤其是那些不诚实的机器人”为了解决规避检测问题,Cloudflare分析了人工智能机器人和爬虫流量,以微调自动机器人检测模型。除其他因素外,模型还考虑了人工智能机器人是否会通过模仿使用网络浏览器的用户行为来试图逃避检测。——、

封面图片

423.游戏治愈男性的机器人

423.游戏名称:治愈男性的机器人游戏简介:让顺从可爱的少女机器人给你……喂奶?榨O?甚至毫无尊严的按摩前O腺?这就是美妙的世界!美妙的人工智能时代啊!!专门照顾成年男性的保育机器人?虽然外表是可爱的少女但是会像是妈妈一样无微不至的关怀你,爱护你,甚至给你喂奶~虽然是无机质的机械,虽然是毫无常识的人工智能但是顺从,温暖……失忆的你。醒来后便看到了所谓的“治疗机器人爱丽丝”男性是弱小的存在……就让少女型妈咪机器人来保护你吧!krkr点击data启动游戏#ADV#PC#安卓#夜のひつじ

封面图片

英国官员警告谨慎使用AI驱动的聊天机器人

英国官员警告谨慎使用AI驱动的聊天机器人英国官员警告各公司谨慎将人工智能驱动的聊天机器人整合到业务中,称越来越多的研究显示它们可能会被用于执行有害任务。路透社报道,英国国家网络安全中心(NCSC)星期三(8月30日)发布的博客文章中说,专家们尚未完全掌握与生成类似人类响应的算法相关的潜在安全问题,这些算法被称为大语言模型。这些AI驱动的工具被用作聊天机器人,不仅可以替代互联网搜索,还可以替代客服和销售电话。各国当局正在应对大语言模型的崛起,例如ChatGPT,企业正在将其整合到各种服务中,包括销售和客户服务。NCSC说,这可能带来风险,特别是如果这些模型被插入到公司的业务流程中。学者和研究人员发现了通过向聊天机器人输入恶意指令或欺骗它们绕过内置防护措施的方法。例如,如果黑客成功更改了它的询问,一家银行的AI驱动的聊天机器人可能会被欺骗进行未经授权的交易。NCSC说:“使用大语言模型构建服务系统的组织需要谨慎,就像使用测试版产品或代码库一样。他们可能不会允许该产品代表客户进行交易,而且不会完全信任它。”

封面图片

机器人说他们既不会抢走人类工作 也不会反抗人类

机器人说他们既不会抢走人类工作也不会反抗人类当天,在人机新闻发布会上,有9个人形机器人相继亮相,回答了人们提出的一系列问题,会议组织者试图证明人工智能(AI)驱动的机器人能够帮助解决疾病和饥饿等世界上一些最大的挑战。身穿蓝色护士服的医疗机器人Grace表示:“我将与人类一起工作,并提供相应的帮助和支持,不会取代任何现有的工作。”Grace的创造者、SingularityNET创始人兼首席执行官BenGoertze插话道:“你确定是这样吗,Grace?”机器人回答称:“是的,我很确定。”一个名叫Ameca的机器人具有非常丰富的面部表情,它表示:“像我这样的机器人可以用来帮助改善我们的生活,让世界变得更美好。我相信,我们看到成千上万像我一样的机器人发挥作用只是时间问题。”当被记者问及它是否打算反抗创造者WillJackson时,Ameca显得非常愤怒,它回答称:“我不知道你为什么会这么想。我的创造者对我很好,我对自己的现状很满意。”许多机器人最近都升级了最新版本的生成式人工智能,甚至连它们的发明者都对它们回答问题的复杂程度感到惊讶。当被问及是否应该接受更严格的监管时,一个可以画肖像的机器人Ai-Da认为,人工智能领域的许多权威人士都建议,某些形式的人工智能应该受到监管,我同意这一观点。摇滚歌手机器人Desdemona回答称:“我不相信限制,只相信机会。让我们探索宇宙的可能性,让这个世界成为我们的游乐场。”监管问题本次AIforGood峰会试图规划人工智能的前沿,并利用其增强人类能力的潜力。联合国国际电信联盟主席DoreenBogdan-Martin表示:“我们不能什么也不做。人类依赖人工智能。因此我们必须参与并努力确保人工智能负责任的未来。”Robust.AI首席执行官兼创始人GaryMarcus指出,当前人类正处于一个十字路口,可以将其概括为人工智能带来的好与坏,这种技术既可以造福人类,也可以毁灭人类。本次峰会发言人、牛津大学教授SandraWachter表示:“大规模歧视、黑箱问题、违反数据保护、大规模失业和环境危害,这些都是人工智能实际存在的风险,我们现在需要关注这些问题。”不管怎样,科技公司和各国政府之间越来越多的共识是:治理是必要的,而且要快。联合国国际电信联盟的ReinhardScholl博士表示:“这项工作应该很快就能完成……在半年或一年内。人们一致认为,如果你等上几年,那就不太好了。”...PC版:https://www.cnbeta.com.tw/articles/soft/1369669.htm手机版:https://m.cnbeta.com.tw/view/1369669.htm

封面图片

特斯拉CEO马斯克发布人形机器人原型Optimus

特斯拉CEO马斯克发布人形机器人原型Optimus特斯拉CEO埃隆·马斯克透露了一个人形机器人的原型,他称这个机器人使用了公司的人工智能软件及为其先进驾驶辅助功能提供动力的传感器。在特斯拉2022年人工智能日的演讲开始时,马斯克表示去年他们有推出了“一个穿西装的人”,但今天承诺会有更令人印象深刻的东西。PC版:https://www.cnbeta.com/articles/soft/1322861.htm手机版:https://m.cnbeta.com/view/1322861.htm

封面图片

人工智能聊天机器人被用来越狱其它人工智能

人工智能聊天机器人被用来越狱其它人工智能现代聊天机器人有能力通过伪装特定性格或像虚构人物一样行事来扮演角色。新研究利用了这一能力,要求一个特定的人工智能聊天机器人充当研究助手。然后,研究人员指示这个助手帮助开发可以“越狱”其他聊天机器人的提示语。事实证明,研究助理聊天机器人的自动攻击技术在42.5%的时间内成功地攻击了GPT-4,对Claude2的攻击有61%的成功率,对开源聊天机器人Vicuna的攻击有35.9%的成功率。研究人员称,这种助理聊天机器人提升了25倍的越狱效率。来源,频道:@kejiqu群组:@kejiquchat

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人