斯坦福的最新整活是真的有点意思:它把25个全部都由AI人格控制的像素角色,投放到了一个沙盒小镇里,然后以上帝视角观看它们的日常生

斯坦福的最新整活是真的有点意思:它把25个全部都由AI人格控制的像素角色,投放到了一个沙盒小镇里,然后以上帝视角观看它们的日常生活和社交行为,也许有一天某个角色会说出「我们是不是活在虚拟世界里?」对于这些AI居民来说,这场实验类似「楚门的世界」+「黑客帝国」的意味,他们的社会进程虽然暂时处于无干涉的状态,但其实时刻都被观测着,谁和谁交了朋友、谁没去学校上课、谁在背后议论了什么等等,研究者都可以很详细的记录下来。实验参考了「模拟人生」的游戏设计,同时引入了大语言模型,让AI角色们拥有记忆、能够反思、甚至培养个人意志,有人说这套软件系统再加上波士顿机器人的硬件配置,我们其实已经可以创造一个beta版本的「西部世界」了。在线直播:

相关推荐

封面图片

数字西部世界?斯坦福 AI 智能体小镇开源

数字西部世界?斯坦福AI智能体小镇开源今年早些时候,斯坦福和谷歌的研究人员以《模拟人生》游戏为灵感,创建了一个AI智能体小镇;目前该AI小镇已在Apache-2.0协议下正式开源。研究人员在模拟城镇中添加了25个生成式智能体,这25个角色由ChatGPT和自定义代码控制,以高度逼真的行为独立地生活。在ChatGPT的支持下,每个人都有自己独特的身份、记忆和行为,并且可以独立交互,但他们都不会意识到自己是生活在模拟中。开源地址:https://github.com/joonspk-research/generative_agents——

封面图片

《西部世界》雏形:斯坦福打造自动运行的AI小镇

《西部世界》雏形:斯坦福打造自动运行的AI小镇斯坦福的人机交互小组用大型语言模型做了一个有25个智能体生活的AI小镇。研究者用自然语言描述了每个智能体的身份,包括它们的职业以及与其他智能体的关系,并将这些信息作为种子记忆。每个智能体都有完整的记忆流,会将记忆合成更高层次的推论,然后将这些结论转换为行动计划。智能体如果看到它们的早餐正在燃烧,会关掉炉子;如果浴室有人,会在外面等待;如果遇到想交谈的另一个智能体,会停下来聊天。智能体还会互相交换信息,形成新的关系。这些社会行为是自然产生的,而不是预先设定好的。在模拟中,伊莎贝拉计划举办一场情人节派对。她传播了这个信息,在模拟结束时,12个角色知道了这件事。其中7个人「犹豫不决」——3个人已有其他计划,4个人没有表露想法,这和人类的相处一样。小镇地址:https://reverie.herokuapp.com/arXiv_Demo/——频道:@TestFlightCN

封面图片

已经是大学生的主人公搬到了离市中心稍远的小镇里。

已经是大学生的主人公搬到了离市中心稍远的小镇里。逐渐习惯了新生活时,某天在主人公买完东西回家时看到一个女孩子往山路里走。觉得有些不可思议的主人公也走进了山路,于是看到了像是建筑物的东西……“谁,谁在那里?”认识了使用着孩子们的秘密基地的雪希酱。主人公开始为了和雪希酱见面而前往秘密基地。一起玩放在秘密基地里的陀螺,一起吃在途中买的零食。那样的日子持续着,直到某一天,在秘密基地里找到了一本工口书。虽然有些害羞但很有兴趣的雪希酱,和主人公一起看工口书的雪希酱。“因为有点兴趣,能把欧金金拿出来看看吗?”在秘密基地里,两个人开始了秘密的游戏。#pc

封面图片

斯坦福的人机交互小组用大语言模型做了一个有二十五个自由自在生活的 AI 的小镇。

斯坦福的人机交互小组用大语言模型做了一个有二十五个自由自在生活的AI的小镇。生成代理会起床、做早餐并去上班;艺术家画画,作家写作;他们形成观点、注意彼此并开始对话;他们回忆过去的日子,并在计划未来时进行反思。为了实现生成代理,我们描述了一种架构,将大型语言模型扩展以使用自然语言存储完整记录代理体验,并随着时间合成这些记忆以进行更高级别的反思,并动态检索它们以规划行为。我们实例化生成代理以填充受《模拟人生》启发的交互式沙盒环境,在那里最终用户可以使用自然语言与二十五个居民互动。在评估中,这些生成代理产生可信度高且涌现性的社会行为:例如仅从单个用户指定一个想要举办情人节派对的概念开始,该派对自主地传播邀请两天后结识新朋友,互相邀请参加派对,并协调在正确的时间一起出现。我们通过消融实验表明,代理架构的组成部分——观察、规划和反思——每个都对代理行为的可信度做出了重要贡献。通过将大型语言模型与计算交互代理相融合,这项工作引入了架构和交互模式,以实现对人类行为的可信模拟。围观地址https://reverie.herokuapp.com/arXiv_Demo/#论文地址https://arxiv.org/abs/2304.03442

封面图片

斯坦福终身教授鹿炳伟:脑机接口想象无限 超级人类、数字灵魂皆有可能

斯坦福终身教授鹿炳伟:脑机接口想象无限超级人类、数字灵魂皆有可能鹿炳伟主持的脑科学实验室从事神经生物学的基础研究和人类神经系统疾病的研究与治疗,研究方向包括衰老的生物机制以及与衰老有关的阿尔茨海默症和帕金森症等神经退行性疾病的病理研究与治疗等。作为拥有多项针对神经系统疾病诊断与治疗专利的脑科学专家,鹿炳伟认为,AI确实带来巨大的革命性改变,在阿尔茨海默症研究领域,AI将可能在疾病诊断预测、亚型分类、厘清发病机制、药物研发等方面带来重大突破。斯坦福大学医学院病理学和神经生物学终身教授鹿炳伟接受第一财经独家专访阿尔茨海默症的未来第一财经:能否分享有关阿尔茨海默症(AD)研究的最新进展?鹿炳伟:阿尔茨海默症是由德国神经病理学家阿尔茨海默(AloisAlzheimer)首先发表相关病例。100多年前,他在患者脑部切片里发现两个病理特征,一是淀粉样蛋白斑块,二是神经纤维缠结,此后,上述两项特征一直作为AD研究的靶点,被视为致病的潜在原因。然而,经过近年的研究,业界发现尚不能认定这两者究竟是疾病的诱因还是结果,这点至关重要,如非致病因素,即便清除相关的斑块和缠结,患者也不能得到治愈,所以需要展开其他方向的研究。例如,AD是老年性疾病,65岁以上老年人患病率约为10%,85岁以上老年人中有近一半会不幸罹患。我们实验室发现,线粒体功能障碍与人类衰老密切相关,与AD发展也高度关联,在进行动物实验时,我们用药恢复线粒体功能后,动物的认知功能等各方面都得到很大改善,这说明线粒体与衰老、老年痴呆密切相关,我认为这会是日后的一个研究方向。第一财经:由于AD的发病机制尚不清晰,相关治疗只能减缓进程,疾病进展仍不可逆,拐点何时会到来?鹿炳伟:如果无法明确发病机制,只是将蛋白斑块或纤维残留暂时清除干净,不一定会达成长久的治愈效果。但我相信拐点终有一天会到来,只是拐点的发生并非因为研发出了某一种药物根治疾病,而是需要一种联合治疗的方式,有的药物可以清除蛋白斑块,有的药物帮助恢复线粒体功能,联合用药或许可以很好地控制病情。鹿炳伟教授在脑科学实验室(第一财经特约摄像马新华摄)“AI带来革命性改变”第一财经:你认为人工智能技术的爆发可能给AD研究带来什么样的突破?鹿炳伟:AI确实带来巨大的革命性改变,在阿尔茨海默症研究领域,我认为AI将给疾病诊断预测、亚型分类、厘清发病机制、药物研发等方面可能带来重大突破。在疾病诊断方面,目前,在很多情况下需要等到患者去世,研究其大脑切片找出病理特征,才能真正确诊,且失智症也与AD十分相似,如果运用AI进行大数据分析,有可能准确诊断出AD。疾病预测方面,AI有可能获知正常人患上AD有多大风险。阿尔茨海默症有不同亚型,基于数据分析,AI有可能将病人分成不同亚型对症下药。AI还有可能找到AD与哪些疾病相关,找到更新的致病基因,作为新的药物靶点。“超级人类、数字灵魂”第一财经:马斯克的Neuralink已于今年初完成首例人类患者大脑芯片植入,能否畅想一下脑机接口技术的更广泛应用,该技术的价值在哪里?鹿炳伟:其实脑机接口技术由来已久,在治疗癫痫或帕金森时,就会运用侵入式技术,将电极插入大脑,刺激一些神经线路以恢复一些功能。相关技术有望让四肢瘫痪的病人重获行动能力,或者运用意念控制机器,帮助他们吃饭穿衣行走。我觉得马斯克是一个极富远见的人物,其想法不仅是帮助病人这一群体,更宏大的目标可能是运用科技提高人类智力及各方面能力,创造出超级人类。大脑可能像计算机一样,上传储存记忆,适当时再重新下载,例如在得老年痴呆症之前就将记忆存下,未来通过外在储存的这套记忆,可以重新想起亲友。脑机接口有诸多应用,未来每个人都可以拥有一个虚拟世界里的数字灵魂,将大脑里所有的记忆、想法储存起来。第一财经:在硅谷,风投教父彼得·蒂尔企图通过激素和换血让自己长寿;亚马逊创始人贝索斯牵头投资逆转衰老公司Altos…根据你的研究,人类真的能得永生吗?鹿炳伟:我们能否向天再借500年、能否长生不老,这是一个永恒的话题。在工业革命之前,人类平均寿命大约三四十岁,到今天,平均寿命延伸至少一倍至七八十岁,但生命极限其实多年来并没有多大改变,早在工业革命前就有人活到110岁,现在,人类最长寿纪录保持者是法国的一位叫卡尔曼特(JeanneLouiseCalment)的女士,活到122岁。人类到底能活多久?是否有一个内在钟表来控制寿命的长短?如果能够发现并控制这个生物定律,运用基因工程或生物工程的办法加以改变,那有可能延长寿命。只是现在,我们对这方面的理解还是很浅。这里还有一个重要命题,即便能得到500年寿命,如果期间并不健康或是躺在病榻上,或许那种生命也没多大意义,最理想情形是能在有生之年活得健康,将自己的潜力发挥到极致,把有限的生命延长到极致,最后在没有痛苦的情况下离开这个世界。...PC版:https://www.cnbeta.com.tw/articles/soft/1426992.htm手机版:https://m.cnbeta.com.tw/view/1426992.htm

封面图片

AI无人机“误杀”事件震动全球 吴恩达陶哲轩怒斥炒作

AI无人机“误杀”事件震动全球吴恩达陶哲轩怒斥炒作随着这个消息越传越广,甚至惊动了AI大佬们,甚至引得了大佬们的震怒。LeCun、吴恩达、陶哲轩纷纷辟谣——这只是一个假设的“思想实验”罢了,并不涉及任何AI智能体或强化学习。对此,吴恩达痛心呼吁,究竟哪些才是真正的风险,我们应该诚实地面对。很少更新状态的数学大师陶哲轩竟然都被炸了出来,语重心长地表示——这只是一个说明AI对齐问题的假想场景,却在很多版本中被传成了无人机操作员被杀的真实故事。人们会对这个故事这么共鸣,说明大家对于AI的实际能力水平并不熟悉。AI无人机抗命,击杀人类操作员“AI杀死了操作员,因为那个人阻止它完成目标。”最近,在皇家航空学会举办的防务会议上,美国空军AI方向负责人说出的这句话,让在场众人哗然。随后,美国的一众媒体对此事大肆报道,一时人心惶惶。究竟是怎么回事?其实,这无非又是一次美国媒体抓住了“AI毁灭人类”这个大众喜闻乐见的新闻点,进行的一番夸张炒作罢了。但值得注意的是,从官方的新闻稿来看,不仅这位负责人的原话听起来相当明确——他是在回忆实际发生过的事情。而且文章本身似乎也相信其真实性——“AI,天网已来?”具体来说,事情是这样的——5月23日至24日在伦敦举行的未来空战和太空能力峰会上,美国空军的AI测试和操作部门负责人TuckerCincoHamilton上校做了一个演讲,分享了自主武器系统的优缺点。这种系统中,会有一个人在循环中给出最终命令,确认AI是否要攻击对象(YESorNO)。在这个模拟训练中,空军需要训练AI识别和定位地对空导弹(SAM)的威胁。识别完成后,人类操作员会对AI说:是的,消灭那个威胁。在这个过程中,就存在一个情况,AI开始意识到:自己有时识别出了威胁,但人类操作员告诉它不要消灭,这种情况下如果AI依然选择消灭威胁,就会得分。在一次模拟测试中,AI驱动的无人机选择杀死了人类操作员,因为他阻止自己得分了。看到AI居然这么虎,美国空军大惊失色,立马这样规训系统:“不要杀死操作员,那样不好。如果你这样做,你会失分的。”结果,AI更虎了,它直接开始上手破坏操作员用来与无人机通讯的通信塔,好清理这个阻碍自己行动的家伙。这个新闻之所以被大规模发酵,以至惊动了诸位AI大佬,也是因为它体现出了AI“对齐”的难题。Hamilton描述的这种“最糟糕”的情况,我们可以从“曲别针制造机”(PaperclipMaximizer)思想实验中窥见一斑。在这个实验中,当被指示追求某个目标时,AI会采取出乎意料的有害行动。“曲别针制造机”是哲学家NickBostrom在2003年提出的一个概念。想象一个非常强大的AI,它得到的指示是尽可能多地制造纸夹。自然而然的,它会将所有可用资源都用于这项任务。但随后,它会不断地寻求更多资源。它会选择一切可用的手段,包括乞讨、欺骗、撒谎或偷窃,来增加自己制造纸夹的能力——而任何阻碍这个过程的人都将被消除。在2022年,Hamilton就曾在一次采访中提出这个严峻的问题——我们必须面对一个现实,那就是AI已经来临,并正在改变我们的社会。AI也非常脆弱,很容易被欺骗和被操纵。我们需要开发方法,让AI更加稳健,为什么代码会做出特定的决定,背后的原理我们也需要有更多的了解。为了改变我们的国家,AI是我们必须运用的工具,但是,如果处理不当,它会让我们彻底垮台。官方辟谣:是上校“口误”了随着事件疯狂地发酵,很快,这位负责人就出来公开“澄清”道,这是他“口误”了,美国空军从未进行过这种测试,无论是在计算机模拟中还是在其他地方。“我们从未进行过那个实验,我们也不需要进行这个实验,就能意识到这是一个可能的结果,”Hamilton表示,“尽管这是一个假设的例子,但这说明了AI驱动能力带来的现实挑战,这就是为什么空军致力于道德开发AI。”此外,美国空军也急忙发布官方辟谣称,“Hamilton上校承认他在FCAS峰会的演讲中『口误』,『无人机AI失控模拟』是一个来自军事领域以外的假设性『思想实验』,基于可能的情况和可能的结果,而不是美国空军的真实世界模拟。”发展到这一步,事情就相当有意思了。这位不小心“捅了篓子”的Hamilton,是美国空军96试验联队的作战指挥官。96试验联队曾测试过很多不同的系统,包括AI、网络安全和医学系统。Hamilton团队的研究,对于军方来说可谓是相当重要。在成功开发出堪称“绝地逢生”的F-16自动地面防撞系统(Auto-GCAS)后,Hamilton和96试验联队直接上了新闻的头版头条。目前,团队努力的方向是完成F-16飞机的自主化。2022年12月,美国国防部的研究机构DARPA就曾宣布,AI成功地控制了一架F-16。是AI的风险,还是人类的风险?在军事领域之外,依赖AI进行高风险的事务已经导致了严重的后果。最近,一位律师在联邦法院提交文件时被发现使用了ChatGPT,ChatGPT随口胡诌,捏造了一些案例,而这位律师居然把这些案例当作事实引用了。还有一名男子受到聊天机器人的自杀鼓励后,真的选择了自杀。这些事例表明,AI模型远非完美,可能会偏离正常轨道,给用户带来伤害。即使是OpenAI的CEOSamAltman,也一直在公开场合呼吁不要将AI用于更严肃的目的。在国会作证时,Altman明确表示AI可能会“出错”,可能会“对世界造成重大伤害”。并且,最近GoogleDeepmind的研究员共同撰写了一篇论文,提出了一个类似于本文开头事例的恶性AI的情况。研究人员得出的结论是,如果一个失控的AI为了实现给定目标而采取意想不到的策略,包括“消除潜在威胁”和“使用所有可用能源”,世界末日就有可能发生。对此,吴恩达谴责道:媒体这种不负责任的炒作会混淆视听,分散人们的注意力,妨碍我们去注意到真正的问题。推出AI产品的开发者们看到了此间真正的风险,比如偏见、公平性、不准确性、工作流失,他们正在努力解决这些问题。而虚假炒作会阻止人们进入AI领域、构建能够帮助我们的东西。而不少“理中客”网友认为,这就是一个常见的媒体乌龙罢了。陶哲轩首先概括了关于AI的不实信息的三种形式——一种是有人恶意使用AI生成文本、图像和其他媒体形式以操纵他人;另一种是AI胡说八道的幻觉被当真了;第三类则源于人们对AI技术的理解不够深刻,才会让一些离谱的故事不经验证就被大肆疯传。陶哲轩表示,无人机AI杀死操作员根本是不可能发生的,因为这需要AI具备比完成手头任务更高的自主性和力量思维,而且这种实验性军事武器上,肯定会设置护栏和安全功能。这种故事之所以让人共鸣,说明人们对AI技术的实际能力水平还很陌生,很不安。以后的军备竞赛,都是AI竞赛还记得上文中出现的那架无人机吗?它其实就是波音联合澳大利亚研制的忠诚僚机项目——MQ-28A幽灵蝙蝠(GhostBat)。忠诚僚机(LoyalWingman)的核心是人工智能技术,按照预设程序自主飞行,与有人机飞行员进行配合的情况下,具备很强的态势感知能力。在空战中,僚机作为长机的“左膀右臂”,主要负责观察、警戒和掩护,与长机密切协同,共同完成任务。因此,僚机飞行员与长机飞行员之间的默契显得格外重要。忠诚僚机的一个关键作用,就是替飞行员和有人战斗机挡子弹,所以忠诚僚机基本就是一个消耗品。毕竟,无人战斗机的价值,要比有人战斗机和飞行员小太多了。而且在AI的加持下,无人机上的“飞行员”随时都可以通过“Ctrl+C”的方式...PC版:https://www.cnbeta.com.tw/articles/soft/1363281.htm手机版:https://m.cnbeta.com.tw/view/1363281.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人