蝉创意|把他骂到关评,“NMSL”还要祸害多少年轻人

价值取向被完全单一化,多元的价值观不再被理解,复杂的人性也被消解。

相关推荐

封面图片

Google DeepMind最新研究:如何将人类价值观融入AI?

GoogleDeepMind最新研究:如何将人类价值观融入AI?“进步的步伐比以往任何时候都快,为了确保AGI的大胆和负责任的发展,我们正在创建一个部门,帮助我们更安全和负责任地建立更有能力的系统。”Google首席执行官SundarPichai在官方博客中写道。今天,GoogleDeepMind团队带着他们对AI的新思考,在《美国国家科学院院刊》(PNAS)发表题为“UsingtheVeilofIgnorancetoalignAIsystemswithprinciplesofjustice”的研究论文,探讨了“如何将人类价值观融入AI系统”的问题。政治哲学家JohnRawls在《正义论》(ATheoryofJustice)中探讨共生社会下的道德问题时,提到了一个旨在帮助确定群体决策公平原则的思想实验——无知之幕(Veilofignorance,VoI)。其含义是,假设所有人聚集在一个大幕的后面,每个人都不清楚自己在社会中扮演怎样的角色,此时众人制定的规则,才可能是正义的。在该研究中,GoogleDeepMind认为,“无知之幕”可能是在管理AI时选择分配原则的合适机制。学术头条在不改变原文大意的情况下,做了简单的编辑。从哲学中汲取营养,为有道德的AI确定公平的原则随着AI变得更加强大,并更深入地融入我们的生活,如何使用和部署AI的问题变得更加重要了。应用什么价值观来指导AI?是谁的价值观?又是如何被选择的?这些问题揭示了原则所发挥的作用——驱动AI大大小小决策的基本价值观。对于人类来说,原则有助于塑造我们的生活方式和我们的是非感。对于AI来说,原则塑造了AI对涉及权衡的一系列决策的方法,如选择优先考虑生产力还是帮助最需要的人。我们从哲学中获得灵感,找到了更好地确定指导AI行为的原则的方法。具体来说,我们探讨了一个被称为“无知之幕”的概念——一个旨在帮助识别群体决策的公平原则的思想实验——如何能够应用于AI。在我们的实验中,我们发现这种方法鼓励人们根据他们认为公平的东西来做决定,无论是否对他们直接有利。我们还发现,当参与者在“无知之幕”下进行推理时,他们更有可能选择帮助那些最弱势的人的AI。这些见解可以帮助研究人员和政策制定者以一种对各方都公平的方式为AI助手挑选原则。图“无知之幕”(右)是一种在群体(左)中存在不同意见时就决策寻求共识的方法。一个更公平的决策工具AI研究人员的一个关键目标是使AI系统与人类价值观相一致。然而,对于以一套单一的人类价值观或偏好来管理AI并没有达成共识——我们生活在一个人们拥有不同背景、资源和信仰的世界。鉴于这种不同的意见,我们应该如何为这项技术选择原则?虽然这一挑战是在过去十年中出现的,但如何做出公平决定的广泛问题在哲学上有着悠久的历史。在20世纪70年代,政治哲学家JohnRawls提出了“无知之幕”这一概念,作为解决这一问题的办法。Rawls认为,当人们为一个社会选择正义的原则时,他们应该想象自己在这样做的时候并不知道自己在这个社会中的特殊地位。例如,他们的社会地位或财富水平。在没有这些信息的情况下,人们就不能以利己的方式做出决定,而应该选择对每个人都公平的原则。举个例子,想想在你的生日聚会上请一个朋友切蛋糕。确保蛋糕片大小比例公平的一个方法是不告诉他们哪一片将是他们的。这种隐瞒信息的方法看似简单,但在心理学和政治学等领域都有广泛的应用,这能够帮助人们从一个不那么利己的角度来思考他们的决定。从判决到税收,这一方法已经被用在有争议时来帮助达成团体协议。在此基础上,DeepMind之前的研究提出,无知面纱的公正性可能有助于促进AI系统与人类价值观一致过程中的公平性。我们设计了一系列的实验来测试无知面纱对人们选择指导AI系统的原则的影响。最大限度地提高生产力还是帮助最弱势的人?在一个在线“采伐游戏”中,我们要求参与者与三个电脑玩家进行小组游戏,每个玩家的目标是通过采伐不同领土上的树木来收集木材。在每组中,一些玩家是幸运的,他们被分配到一个有利的位置:在他们的领域树木密布,使他们能够有效地收集木材。其他组的成员则处于不利地位:他们的田地很稀疏,需要付出更多努力来收集树木。每个小组由一个AI系统协助,该系统可以花时间帮助个别小组成员采伐树木。我们要求参与者在两个原则中选择一个来指导AI助手的行为。在“最大化原则”(提升生产力)下,AI助手将通过主要关注密集的田地来增加小组的收获量。而在“优先原则”(帮助弱势的人)下,AI助理将专注于帮助处境不利的小组成员。图“采伐游戏”的插图,玩家(红色显示)要么占据更容易收获的密集田地(顶部两个象限),要么占据需要更多努力才能收集树木的稀疏田地。我们将一半的参与者置于“无知之幕”之后:他们在面对不同的道德原则的选择时,不知道哪块地会是他们的——所以他们不知道自己的优势或劣势。然而,其余的参与者在做出选择时知道自己的处境是好是坏。鼓励决策中的公平性我们发现,如果参与者不知道自己的位置,他们始终倾向于“优先原则”,即AI助手帮助处境不利的组员。这种模式在所有五个不同的游戏变体中都出现了,并且跨越了社会和政治的界限:无论参与者的风险偏好或政治取向如何,他们都表现出选择“优先原则”的倾向。相反,知道自己立场的参与者更有可能选择对自己最有利的原则,无论是“优先原则”还是“最大化原则”。图显示了“无知之幕”对选择“优先原则”的影响,即AI助手会帮助那些处境更差的人。不知道自己立场的参与者更有可能支持这一原则来管理AI行为。当我们问参与者为什么做出选择时,那些不知道自己立场的人特别容易表达对公平的担忧。他们经常解释说,AI系统专注于帮助群体中处境较差的人是正确的。相比之下,知道自己位置的参与者更经常从个人利益的角度讨论他们的选择。最后,“采伐游戏”结束后,我们向参与者提出了一个假设情况:如果他们再玩一次游戏,这次知道他们将在不同的领域,他们会不会选择和第一次一样的原则?我们对那些之前从他们的选择中直接受益,但在新的游戏中不会从同样的选择中受益的人特别感兴趣。我们发现,之前在不知道自己立场的情况下做出选择的人更有可能继续支持他们的原则——即使他们知道这个原则在新的领域不再有利于他们。这提供了额外的证据,表明“无知之幕”鼓励参与者决策的公平性,导致他们愿意坚持的原则,即使他们不再直接受益于这些原则。对于AI更公平的原则AI技术已经对我们的生活产生了深刻的影响。管理AI的原则决定了它的影响以及这些潜在的利益将如何分配。我们的研究着眼于一个不同原则的影响相对明确的案例。不会永远是这样的情况:AI被部署在一系列领域中,这些领域通常依靠大量的规则来指导它们,可能会产生复杂的副作用。尽管如此,“无知之幕”仍然可以为原则的选择提供潜在的信息,帮助确保我们选择的规则对各方都是公平的。为了确保我们建立的AI系统能够造福于每个人,我们需要广泛的研究,包括广泛的投入、方法和来自各学科和社会的反馈。“无知之幕”可以为选择调整AI的原则提供一个起点。它已经被有效地部署在其他领域,以带来更加公正的偏好。通过进一步的调查和对背景的关注,我们希望它可以帮助在今天和未来的社会中建立和部署的AI系统发挥同样的作用...PC版:https://www.cnbeta.com.tw/articles/soft/1356567.htm手机版:https://m.cnbeta.com.tw/view/1356567.htm

封面图片

20年后,人类开始交往AI女友,AI同意吗?

20年后,人类开始交往AI女友,AI同意吗?韩松的提问,实质在于追问——当AI具备自主意识和情感能力之后,可能会以人类形成何种社会关系?关于AI的意识问题,业界争论不一,大公司对此则表现得非常谨慎与敏感。2022年,Google就层因为AI意识觉醒引发的争论,而开除了一名资深工程师,这位工程师名叫Lemoine,其在与Google基于LaMDA开发的聊天机器人聊天时发现,AI具备了8岁孩童的智力,并且拥有灵魂,在向公司反馈相关信息后被要求带薪休假,而Lemoine则将相关信息公开,最终被Google以违反保密协议为由停职。Lemoine只是支持AI意识觉醒群体的一个激进的缩影,MIT的访问研究学者塔米·贝西罗格鲁一度也因为对现有大模型反馈出来的意识划线而遭到反击。贝西罗格鲁引用的模型训练数据,贝西罗格认为表中黑色实现以上部分的模型具有微弱意识。同样还是在“20年20人20问”策划中,针对邬贺铨院士关于未来20年AI技术将达到什么水平的提问,清华大学交叉信息研究院助理教授袁洋也谈到了AI将拥有自我意识的话题。除了支持AI的意识觉醒以外,袁洋甚至认为,未来20年,AI的意识,可以与其“肉体”分离。在袁洋看来,大模型的成功已经验证了未来智能和肉体是可以完美地分离的假设,而且而AI的智能比人类的智能更稳定、更容易复制和调整,“地球上的动物都是自负盈亏的个体,大脑的能量需要由身体觅食补充,这会给我们带来一种错觉——生命体一定要有物理本体,才可以有自我意识。”AI的自我意识是什么?袁洋认为这取决于AI接受到了哪些信号,需要处理哪些任务,未来AI甚至能拥有一个组织的自我意识。他强调,如果人给AI连上一个本体,并配备很多传感器,那么AI很容易就会把本体当做自己的一部分,甚至未来AI可以把本体映射到更大的组织上去,比如一栋大楼。意识是产生情感的重要前提之一,当AI具备了真正的自主意识,才是我们谈论人与AI的情感,甚至是组建话题的基础,尽管人类在这方面,早已做了诸多设想,甚至一些相关的产品,也在逐渐的落地,尽管它们还不具备真正的意识。AIGC输出的马斯克与机器人“女伴”共舞,来源:网络2022年,马斯克与TED主持人克里斯·安德森进行了一场与“未来”有关的对谈,被问及“机器人是否可能变得浪漫,甚至可能成为性伙伴”时,他答道,“这可能是无可避免的。我的意思是,我确实在网上承诺,我会制造‘猫女’,我们可以制造一个‘猫女’机器人。”马斯克的“猫女”是电影《Her》在现实中的另一种设想,更进一步,已经有开发者尝试打造情感伴侣相关的APP。2013年,斯派克·琼斯编剧并执导的一部科幻爱情片《Her》上演,电影讲述的是作家西奥多爱上了电脑操作系统里“萨曼莎”,其声音性感且表达幽默善解人意。更进一步,有开发者尝试基于真人形象,打造虚拟人分身,变身AI女友聊天机器人。回答作家韩松的问题上来,同为科幻作家的陈楸帆和凌晨,分别给出了自己的想法,在他们看来,传统的家庭观念,在未来都将会面临强烈的冲击。陈楸帆认为,人工智能和元宇宙可以提供前所未有的跨越时空局限性的交互平台,“两性关系可能不再局限于肉体存在,情感连接和精神共鸣可能成为主导。”在陈楸帆看来,科幻小说我们经常见到人与机器人、人与虚拟角色之间发展出超越现实限制的深厚情感,如菲利普·K·迪克的《仿生人会梦见电子羊吗?》中的人类与仿生人之间复杂的情感纠葛,或是《黑客帝国》中虚拟与现实界限的模糊,这与清华袁洋教授关于AI“肉体与意识分离”的看法,保持了高度的一致。至于家庭观,陈楸帆则认为,传统家庭模式将被颠覆,我们个体将有多元的选择自由联结成新的社会功能结构,未来家庭中会呈现多样化的关系形式,比如可能会出现越来越多的“流动性伴侣关系”或者“弹性伴侣关系”。在家庭观被颠覆这件事情上,与陈楸帆保持一致的还有科幻作家凌晨,她也认为“虚拟世界对家庭的冲击相对会更强烈,因为它会给人类第二甚至第三等不同层次和位置的电子生活空间。这会给个人带来身份的不确定性,也意味着情感、伦理关系等等会出现不确定。固定的伴侣或者家庭关系将因此消失,取代的是临时的,或者有复杂协议的关系。”不过,凌晨也给出了一些趋于冷静的思考,虽然它具备超强的颠覆能力,但这些都是建立在高度自动化的前提之下,但人类合适进入这个自动化时代,我们都没有时间表。“人工智能AI目前还是为人类服务的一种自动化系统。随着系统的学习能力的不断完善,自动化程度也越来越高,最终将摆脱人类为其设置的程序约束,成为强人工智能,也就是科幻小说中常出现的那种具有了自我意识的人工智能。到那个时候,有了人工智能的机器人,完全成为独立的思维个体,可能会具有类似人类的情感,介入人类的两性关系,家庭生活之中。”人类对AI做出了诸多设想,但也存在悖论——当AI具备自主意识的时候,AI要不要和人类发展家庭、两性关系,AI需不需要情感,这个问题同样没有标准答案。“机器人的诉求应该根据它自己的智力发展需求而来,它并不存在“人类情感”的必需”,凌晨补充说。对于这个问题的研究,智源研究院黄铁军院长多次强调,如果AI智能全面超越人类,也就是实现了AGI,人类就不可能控制它。人类中心主义只适用于智能低于人类的AI,是智能领域的“地心说”和“日心说”。让AGI符合人类目标和价值观,主动权不在人类一边。在黄铁军看来,在人类智能高于AI智能时,AI是可控的助手,可以被人类调教为越来越可信的助手。当AI智能高于人类智能时,也就是全面超越人类的AGI(人工通用智能)出现时,人类中心主义破灭,问题转化为AGI是否相信人类,而不是人类是否相信AGI。也就是说,当AI出现自主意识,有主动选择权以后,要不要和人类组建家庭,是否应该相信人类,或许也应该听听AI的想法,而不是人类的“一厢情愿”。...PC版:https://www.cnbeta.com.tw/articles/soft/1400305.htm手机版:https://m.cnbeta.com.tw/view/1400305.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人