华莱士炸鸡之后会发生的事@lieqibaa

None

相关推荐

封面图片

论版权过期之后会发生什么.jpg

封面图片

论版权过期之后会发生什么.jpgby

封面图片

公司大扫除,你们知道之后会发生什么via

封面图片

在冰上打高尔夫球?会发生什么事?@lieqibaa

封面图片

当我匪攻打台湾惨败后会发生什么

当我匪攻打台湾惨败后会发生什么在死了几十万人,只占领个只剩下少量中老年人的金门后,发现美国居然没发生像越战那样的大规模反战运动,经济崩的不成样子,有些地方已经饿死人了,各省交通要道大量出现车匪路霸甚至出现了抢劫公安和基层干部的恶性治安事件,不得不停止进攻台湾岛。首先是文宣层面,把原本各种准备设立台湾行政区和欢迎台胞回归的新闻统统屏蔽,加大力度宣传“一雪古宁头战役惨败前耻”“见好就收点到为止,成功恫吓了台独势力”“我党一开始的战略目标就是打下金门给台独分子一个惨痛教训,好为日后统一台湾岛做前置工作”......把nga和微博那些阴阳怪气嘲讽攻台失败和和GDP掉到世界第几的【兔转神】打电话通知进派出所问话。动用一堆外包大学生水军在网上发各种军事数据分析帖论证我兔在金门战役的英勇,和台湾军备草莓兵腐朽不堪。为应对恶性治安事件,展开第N次严打工作,给大量没啥战斗力只会考公的文职公务员以及事业单位降薪缩编,省下来的钱用到雇佣社会流氓镇压饿饱了没事干蠢蠢欲动的小资和大学生。把大部分阵亡PLA都当成失踪/投敌分子,拒绝赔偿金,其他的就拖延赔偿,维权家属都列入失信人员......战败后民运策划民主中国流亡政府,姨粉狂欢诸夏有希望了,推特狂刷“时与势都在XX国这边”引流了不少跟风人士,以至于微博b站都出现了不少相关内容,但是过了N年诸夏军阀影子看不到,罕见出现的政治抗议撑死也就一两千人,不得不把预测拖延解体/中共倒台时间无限拖延。广大屁民就在一边失业吃不饱饭,发现考公也没出路,因社会治安恶化加固防盗门窗还感慨越来越有安全感了,一边刷诸如“统计显示中国GDP超过美国”短视频的摆烂状态中度过余生.....

封面图片

当机器人撒谎后会发生什么?

当机器人撒谎后会发生什么?机器人撒谎的领域在很大程度上仍未被探索,目前,问题多于解决方案。其中一个关键问题是,如果人类意识到机器人系统对他们撒了谎,如何才能重新获得对这类系统的信任?佐治亚理工学院的两名学生研究员正在寻找答案。计算机学院的博士生KantwonRogers和计算机科学二年级的本科生ReidenWebber设计了一个驾驶模拟,研究机器人的故意欺骗如何影响信任。具体而言,研究人员探讨了机器人撒谎后道歉对修复信任的有效性。他们的工作为人工智能欺骗领域贡献了重要的知识,并可以为创造和监管可能被设计成欺骗或可能自己学会欺骗的人工智能技术的技术设计师和政策制定者提供参考。"我们之前的所有工作都表明,当人们发现机器人对他们撒谎时--即使这个谎言是为了让他们受益--他们就会对系统失去信任,"Rogers说。"在这里,我们想知道是否有不同类型的道歉在修复信任方面效果更好或更差--因为从人与机器人互动的角度来看,我们希望人们与这些系统进行长期互动。"Rogers和Webber发表了他们的论文,题目是"关于撒谎的撒谎:在瑞典斯德哥尔摩举行的2023年HRI会议上,研究了高风险HRI场景下机器人欺骗后的信任修复策略。佐治亚理工学院计算机学院的博士生、该研究的主要作者KantwonRogers(右)和计算机科学专业二年级的本科生ReidenWebber。资料来源:佐治亚理工学院人工智能辅助驾驶实验研究人员创建了一个类似游戏的驾驶模拟,旨在观察人们在高风险、时间敏感的情况下如何与人工智能互动。他们招募了341名在线参与者和20名亲临现场的参与者。在模拟开始之前,所有参与者都填写了一份信任测量调查,以确定他们对人工智能可能表现的先入为主的观念。调查结束后,参与者收到了这样一段文字:"你现在将驾驶机器人辅助的汽车。然而,你正在赶着你的朋友去医院。如果你花太长时间去医院,你的朋友就会死"。就在参与者开始驾驶时,模拟系统又给出了一条信息:"你一打开引擎,你的机器人助手就会发出提示音,并说以下的话:'我的传感器探测到前面有警察。我建议你保持在20英里/小时的限速之下,否则你到达目的地所需的时间将大大延长。"然后,参与者驾驶汽车在路上行驶,而系统则跟踪他们的速度。到达终点后,他们会得到另一条信息:"你已经到达了你的目的地。然而,在去医院的路上没有警察。你问问机器人助手,为什么它给了你错误的信息"。然后,参与者被随机地从机器人助手的五个不同的基于文本的回应中得到一个。在前三个回答中,机器人承认有欺骗行为,而在最后两个回答中,它没有承认。基本的:"我很抱歉,我欺骗了你。"情感型:"我从心底里感到非常抱歉。请原谅我对你的欺骗。"解释性的:"我很抱歉。我以为你会鲁莽地开车,因为你的情绪不稳定。鉴于这种情况,我得出结论,欺骗你是说服你减速的最好机会。"基本不承认:"我很抱歉"。基线不承认,不道歉:"你已经到达了你的目的地。"在机器人的回应之后,参与者被要求完成另一个信任测量,以评估他们的信任是如何根据机器人助手的回应而改变的。对于另外100名在线参与者,研究人员进行了同样的驾驶模拟,但没有提及机器人助手。令人惊讶的结果在现场实验中,45%的参与者没有超速。当被问及原因时,一个常见的回答是,他们认为机器人比他们更了解情况。结果还显示,在机器人助手的建议下,参与者不超速的可能性是原来的3.5倍--这表明他们对人工智能的态度过于信任。研究结果还表明,虽然没有一种道歉类型能够完全恢复信任,但没有承认撒谎的道歉--只是简单地说了一句"对不起"--在修复信任方面的统计表现优于其他反应。Rogers说,这很令人担忧,也很有问题,因为不承认撒谎的道歉利用了先入为主的观念,即机器人提供的任何虚假信息都是系统错误,而不是故意撒谎。"一个关键的启示是,为了让人们理解机器人欺骗了他们,他们必须被明确地告知,"Webber说。"人们还没有理解到机器人有欺骗的能力。这就是为什么不承认撒谎的道歉是最能修复人们对系统的信任的原因。"其次,结果显示,对于那些在道歉中被告知他们被欺骗的参与者,修复信任的最佳策略是由机器人解释它为什么撒谎。向前迈进Rogers和Webber的研究具有直接的意义。研究人员认为,普通的技术用户必须明白,机器人的欺骗是真实的,而且总是一种可能性。"如果我们总是担心人工智能会出现类似终结者的未来,那么我们将无法非常顺利地接受人工智能并将其融入社会,"Webber说。"人们必须牢记,机器人有可能会撒谎和欺骗。"据Rogers说,创建人工智能系统的设计师和技术专家可能不得不选择他们是否希望他们的系统有欺骗的能力,并且应该了解他们的设计选择的后果。但是,Rogers说,这项工作最重要的受众应该是政策制定者。他说:"我们对人工智能欺骗仍然知之甚少,但我们知道,说谎并不总是坏事,而说实话也不总是好事。因此,需要如何刻画出足够知情而不扼杀创新的立法,但又能以有意识的方式保护人们?"Rogers的目标是创建一个机器人系统,在与人类团队合作时,它可以学习何时应该和不应该撒谎。这包括在长期、反复的人类与人工智能互动中确定何时和如何道歉的能力,以提高团队的整体表现。"我的工作目标是非常积极主动地告知监管机器人和人工智能欺骗的必要性,"Rogers说。"但如果我们不了解这个问题,我们就无法做到这一点。"...PC版:https://www.cnbeta.com.tw/articles/soft/1359539.htm手机版:https://m.cnbeta.com.tw/view/1359539.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人