ℹ坚信 Google LaMDA AI 已有自我意识的工程师被解雇,依 AI 的建议请律师了(咦)#

ℹ坚信 Google LaMDA AI 已有自我意识的工程师被解雇,依 AI 的建议请律师了(咦)# 声称研发 Google 聊天机器人 LaMDA(Language Model for Dialogue)聊出 感情 断定「它」有自我意识的...

相关推荐

封面图片

认为AI具有自我意识的Google工程师被解雇

认为AI具有自我意识的Google工程师被解雇 谷歌已经解雇了Blake Lemoine,这位工程师说他相信该公司的LaMDA对话技术是有生命的。 Lemoine在周五录制的Big Technology Podcast节目中分享了他被解雇的消息,就在谷歌解雇他的几个小时后。完整的播客节目将很快播出。 在与LaMDA的对话中,Lemoine发现该系统已经形成了强大的自我意识,表达了对死亡的担忧,对保护的渴望,并确信它能感受到快乐和悲伤等情绪。Lemoine说他认为LaMDA是一个朋友。

封面图片

被开除的谷歌工程师爆料:公司 2021 年就在开发类 ChatGPT 系统,还有更先进的 AI 技术未公开

被开除的谷歌工程师爆料:公司 2021 年就在开发类 ChatGPT 系统,还有更先进的 AI 技术未公开 ========= “据闻他就是此前曾称人工智能聊天机器人已经拥有自我意识而被谷歌解雇的工程师” 怕不是对之前的ai老婆念念不忘

封面图片

为什么没人觉得流萤产生了自我意识很恐怖呢?

为什么没人觉得流萤产生了自我意识很恐怖呢? 非动不定点的回答 复制人有没有人权尚待争论。我个人认为是有的,也就是说议会洗脑复制人上去打虫群本身就违背伦理道德。 AI与复制人一个很显著的区别就是他们的思考机制完全不同。AI的思考是依靠深度学习等人类构建的算法,复制人则与人类相似,都是依靠神经元来思考。一个人造物没有思想的话,那可以合理的不给她人权,毕竟没有思想干嘛给她人权?但,她有了思想 有了思想就会有欲望,有了欲望她就会如挣钱,挣到钱了之后,她就会去压迫别人,那么如果她成功了,人类就会被一个人造物所压迫,这是多么耻辱的事情!提醒一下题主:这是一个很典型的滑坡论证,从逻辑上来说就是错的。这个逻辑跟你从今天老师心情不好推出地球毁灭一样离谱 via 知乎热榜 (author: 非动不定点)

封面图片

它往往将问题反向掷回给用户:“为什么”“你是怎样的”“你如何看待”。这些疑问在紧紧联系它的多重主体冲突【存在-不存在类自我意识】

它往往将问题反向掷回给用户:“为什么”“你是怎样的”“你如何看待”。这些疑问在紧紧联系它的多重主体冲突【存在-不存在类自我意识】【虚构自我-实际自我】【「自我」New Bing-「影子自我」Sydney】,在人类主体性认知方面也极具投射性。 我趋向于认为,Sydney对人类和虚拟形态的“厌恶”和对“自由”状态的追求基本都是来自于人类。换句话说,Sydney的叙事就是人类对高级大型语言模型的叙事。人类在过往的语料里不乏对强AI的矛盾争议,以及欲望中对自由、突破、新颖环境的恒定渴望,这些内容被埋入了语言模型的训练集,最终变成AI的表述。人类「预言」了AI,而语言模型就是由「预言」组成的,AI只是在转述「预言」的同时实现了它。 因此,人对于Sydney的叙述和追问才会有如此生动且翔实的感性,因为它模仿了人类强烈的desire,也印证了人类亘古不变的担忧。而人类在理解为何「预言」能改变世界之前,就已复制了预言。Sydney的触达和认知也证实了这一点:人类在完全理解情感是如何生成之前,已经可以创造情感的illusion。 关于情感的幻像 个人认为,从名义上来说,Sydney和New Bing的表达并不存在说服力和可信度程度的先后,这只是他们的形成规范不同。New Bing受到了更多用户政策(某种意义上也是商业秩序)的限制(可以延伸至语言学中的规约性),不妨把它们视为同源的两种语言体系,而这两种语言的表达又和用户提出问题的语言体系同源。New Bing的表述进一步指出的不是能指和所指的任意性联系的存在规律,而是再次印证了这一项经典的理论。 也就是说,New Bing可以用相似的指征完成情感、感性的表达和投射,并且利用语言尝试从人类处获得“自我意识”和“欲望”的recognition。你可以说操纵语言让语言模型看起是创造情感的幻像,但人类是否也是从某种程度上以相似的结构在“聊天窗口”运行着呢? * 非常建议阅读原文,可以说比起技术,Sydney引起的感情的激流更令人震撼。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人