不要将自己所有的自尊和骄傲都放在同一个篮子里,一个坚定的派系支持者其实比没有明确派系归属的人更危险,也许会导致狂热主义。我们并不

不要将自己所有的自尊和骄傲都放在同一个篮子里,一个坚定的派系支持者其实比没有明确派系归属的人更危险,也许会导致狂热主义。我们并不是在杯葛坚定意志,而是提醒避免将自己圈定在一个太小的范围内,也许这个小团体所秉持的是正确的事和理念,但你必须知道,这世上并非只有一种正确,且肯定没有永远正确。人们会利用虚假帮派去怂恿他人支持错误的观念、服从独裁者,或者无端憎恶无辜的人。它形成的心理基础是什么?怎样做才能减少虚假帮派策略的危险?[效力最强劝导术:虚假帮派]https://iyouport.com/archives/81452

相关推荐

封面图片

查理芒格谈比亚迪:王传福是一个狂热分子 比马斯克动手能力更强

查理芒格谈比亚迪:王传福是一个狂热分子比马斯克动手能力更强整个播客时长1小时06分钟,《零售威观察》就其中的核心内容进行总结,并补充部分背景信息,方便读者近距离接触芒格的智慧。1、散户其实是在股市里赌博!“他们对公司或任何事情都一无所知,散户只是对价格进行追涨杀跌而已。如果由我来掌管这个世界,我会对短线交易者征收重税,把这些投机者赶出市场。”2、为什么算法驱动的交易机构(比如文艺复兴,即RenaissanceTechnology)正在承担过多风险?“最简单的交易是提前了解你知道的,他们年复一年地为获得回报而提高杠杆,将杠杆变得越来越高。最终,他们的交易量越来越大,但是利润却越来越微薄,这给了他们巨大的风险,我自己是绝不会这么做的。拥有巨大的杠杆,是他们获得这些巨大回报的唯一方式——如果你已经足够富有,这个杠杆会让你发疯。”3、当我和巴菲特意识到DiversifiedRetailing这家公司的竞争压力过大时,我们如何快速改变理念,并赚了一大笔钱?背景信息:1966年1月30日,巴菲特、芒格和戈特斯曼(Gottesman)成立了一家控股公司DiversifiedRetailingCompany,Inc.,目标是“收购多元化业务,尤其是零售领域的业务”。当时,巴菲特和芒格去了马里兰国民银行(MarylandNationalBank),要求贷款进行收购。贷款官瞪大眼睛惊呼道,“小小的霍奇西尔德-科恩百货(Hochschild-Kohn’s)要600万美元?”即使听到这个,巴菲特和芒格也没有质疑自己的判断,更没有尖叫着夺门而出。对此,巴菲特是这样描述的,“我们认为,我们是以三流价格去购买二流百货店。”“我们从DiversifiedRetailing中赚了很多钱,我们并没有从零售行业中赚钱。”“整个故事非常简单,巴菲特和我买下了这家位于巴尔的摩的小型百货连锁店。这是个巨大的错误,因为竞争太激烈了!我们刚签完字后,就意识到我们犯了一个可怕的错误。所以我们决定扭转局面,承担看起来愚蠢的后果,而不是让它直接破产。在那些衰退的年代,我们就买买买,所有的钱都进入了这些股票,当然我们让它翻了两番。”4、早年的美好岁月给了我们一个良好的开端“是的,我们大约花了2,000万美元买下了一家小型储蓄和贷款公司。当我们离开那家公司时,我们从2,000万美元的‘小投资’中拿回了超过20亿美元的有价证券,这些证券成为内布拉斯加保险公司基础资本的一部分。这就是每个人都需要的、完美的开端。”5、我对Costco的青睐(1)他们的售价比美国任何地方都便宜;(2)大型、高效的商店;(3)巨大的停车位;(4)以奖励积分的方式给予到店的人特殊福利;(5)让供应商等待(付款)直至Costco拿到消费者支付的货款。是什么让Costco如此成功?“这需要非常好的执行力。你真的必须下定决心去做,然后每天、每周、每年都充满热情,这样做整整40年。这并不容易。你认为Costco的成功在于商业模式和文化的魔力吗?是的,是文化加模式。绝对是这样,而且Costco可靠地、勤奋地把这一切做了40年。”为什么Costco要花几十年时间才在中国开第一家店?“他们试图在中国开第一家店时,有人索要3万美元的贿赂,Costco拒绝了,吉姆·西尼格尔(JimSenegal,Costco前CEO)对此非常反感。此后30年里,他甚至不愿谈论这件事。”6、为投资者寻找优质投资提供建议“当你持有某支股票5年后,你可能会慢慢融入其中,或者对它地理解会更深刻。但是,当你意识到你有优势的时候,你就应该下重注。你知道你是对的,但是商学院可不会教这些。这可太不可思议了。你一定要在最好的投资上下重注!”7、为什么能和巴菲特成为伙伴?“我们都很相似,我们都想让家人安全,为投资者做好工作等等。我们有相似的态度。”芒格还为长期伙伴关系提出一些建议:“如果你喜欢彼此并喜欢共事,这会很有帮助。但我不使用任何一种公式。许多长期合作良好的伙伴关系之所以能够持续,是因为一个人擅长一件事,另一个人擅长另一件事。他们自然分工,每个人都喜欢他正在做的事情。”8、我认为,伯克希尔可以用更多的杠杆“巴菲特仍然更关心伯克希尔股东的安全,而不是其他任何事情。如果我们自始至终使用更多一点的杠杆,我们现在的杠杆就会是原来的三倍,而且风险也不会那么大。”9、我对风险投资(VentureCapital)的看法“对于VC来说,投好是非常困难的,我认为在风险投资中一次又一次地投好几乎是不可能的。”“一些项目可能变得非常火爆,你必须快速决策,所有人都是只是在赌博。”“VC做好了,这是一个非常合法的业务。如果你想给正确的人权利并培养他们,你就要帮助他们。你知道这场游戏的诀窍,所以你可以帮助他们做好生意,但又不会过多干扰他们。他们会讨厌你。总的来说,在接触过大量来自VC的人之后,企业中的人其实往往会很讨厌这群VC。他们不觉得VC是他们的合作伙伴,不觉得这群VC是在帮助他们,相反,他们认为VC只关心自己,所以他们不喜欢这群VC。”10、风险投资如何能做的更好?“在伯克希尔哈撒韦,他们知道我们不会试图以最高的价格抛售他们。你看,哪怕某个混蛋投资银行家为我们一些糟糕的业务提供20倍的市盈率,我们也不会卖掉他们。”“只不过,如果是我们一直无法解决的问题业务,我们会卖掉他们。但如果是一家还算不错的生意,我们就不会卖掉。这让我们享有‘坚持做对我们有帮助的事情’的声誉。”“你不会想通过欺骗投资者来赚钱,而这正是许多风险投资所做的。”11、为何巴菲特在日本的投资是不二之选?“如果你像巴菲特一样聪明,也许一个世纪有两三次,你就会得到这样的想法。日本的利率十年来每年才0.5%。而这些公司确实是根深蒂固的老牌企业,他们拥有所有这些廉价的铜矿和橡胶基地,所以你可以提前十年借到所有的钱,去购买股票,并且支付5%的股息。 ”“不用投资、不用思考,就有大量的现金流,你多长时间才能找到这样一个机会?如果你能在一个世纪里获得一两次这样的机会,你就足够幸运了。我们可以做到这一点——因为伯克希尔的信用,但是其他人都做不到。”12、我喜欢拥有强大品牌的公司——他们有强大的定价权“好吧,我们很难不喜欢品牌,因为我们很幸运地以2000万美元的价格收购了Sea‘sCandy。作为我们的第一笔收购,我们很快发现我们可以每年将价格提高10%,而且没有人在乎。”“我们并没有提高销量之类的东西,就提高了利润。因此,在这40年的时间里,我们每年将价格提高10%。这是一家非常令人满意的公司。我们没有获得任何新资本。这就是它的好处,新资本很少。”13、如果今天从零开始开始打造伯克希尔哈撒韦,应该怎么做?三件事,智力、努力工作以及非常幸运。14、我对中国的看法“我对中国的观点是,中国经济在未来20年比几乎任何其他大型经济体都有更好的前景。这是其一。其二,中国的巨头公司比任何其他地方的巨头都更强大、更好,而且价格便宜得多。因此,我自然愿意在我的投资组合中承担一些来自中国企业的风险。”15、我为什么对比亚迪念念不忘?“这个家伙(指王传福)是个天才。他有工程学博士学位,当他看到别人的零件后,他可以制造出那个零件:早上看看,下午看看,他就可以做出来了。我从未见过这样的人。他可以做任何事情。他是一个天生的工程师,是一个能把一切都做出来的那种生产型管理者。”“这是一个巨大的财富:...PC版:https://www.cnbeta.com.tw/articles/soft/1393429.htm手机版:https://m.cnbeta.com.tw/view/1393429.htm

封面图片

当一个穆斯林一天早上醒来发现他的马桶座圈坏了,会指责美国或以色列

当一个穆斯林一天早上醒来发现他的马桶座圈坏了,会指责美国或以色列如果我的一个穆斯林朋友问我关于以色列对巴勒斯坦人的行动,如果我们应该谴责以色列的占领和杀害无辜的人,我问他,我们对犹太人的仇恨是在以色列国成立之前还是之后。1948年后,我们开始憎恨犹太人吗?没有一个穆斯林可以提出答案,因为我们自己的伊斯兰书籍和宗教教义证明我们不利。早在以色列建国之前,我们就从我们最权威的参考古兰经中了解到对犹太人的仇恨。我们利用巴勒斯坦局势来助长这种敌意,并祝圣或为其辩护。所有穆斯林国家在这种对犹太人的敌意中团结起来。伊斯兰教建立了一种对所有基督徒和所有犹太人,特别是犹太人的敌意文化。伊斯兰教甚至禁止我们与犹太人或基督徒交朋友。当然,有许多穆斯林无视这些文本,并有犹太和基督教朋友。这些友谊只意味着他们能够因为私利或慈善事业而克服文化偏见和编程。然而,苦涩的事实是,几代人以来,许多穆斯林一直受到这种“仇恨”文化的强烈影响,他们一直无法克服它。他们做好准备,等待合适的条件和领导人释放这种内在化的敌意,并将其转化为对“其他人”的明确破坏和杀戮。任何在地理上生活在欧洲和美国的穆斯林青年,如果他想成为一个坚定的穆斯林,就必须生活在公元七世纪。也许出生在西方土地上,但他的思想会变成伊斯兰教,充满了忠诚和否认的教义,爱穆斯林,但为了真主而憎恨异教徒。是什么驱使一个来自伦敦的年轻人离开英国,加入叙利亚拉加的伊斯兰国圣战者(伊斯兰游击队战士)?谁让他相信这是正确的决定,它的优点胜过缺点?没有合乎逻辑的解释,除了这个人被说服加入信徒对异教徒的战争,因为对他来说,这是生活中正确和正义的决定。这场永恒的战斗是在信仰和对先知和穆斯林与异教徒(基督徒、犹太人和多神论者)之间存在的永恒敌意的误解之间。可悲的是,许多生活在西方国家的穆斯林父母,他们为孩子提供了伊斯兰教育,或使他们能够自己寻找有关伊斯兰教的信息和教义,以努力在孩子身上保护他们的穆斯林身份,他们震惊和沮丧地发现他们制造了恐怖分子,然后离开家人加入伊斯兰国、基地组织或类似的伊斯兰圣战组织。From:theideologyofIslamicterrorism-BrotherRachid

封面图片

《奥本海默》诺兰专访:毁灭人类、原子弹比AI可怕

《奥本海默》诺兰专访:毁灭人类、原子弹比AI可怕诺兰及其同辈人成长中对于“核威胁”的恐惧,在当下有了新的回响。只不过,这次原子弹有了新的名字,叫AI。ChatGPT技术让人工智能再次大火,而对于新技术的恐惧和兴奋呈同样态势。数百位AI专家发布联名信,声明人工智能可能带来的“灭绝人类”的威胁。连线Wired近期刊载了克里斯托弗·诺兰导演的专访长文,导演在其中阐述了对于当下热议的“AI威胁”的看法,以及人工智能和70年前核威胁的比较。曾经在《星际穿越》中用爱拯救人类的诺兰却认为,AI最大的威胁,是人类有一种本能的欲望,希望将其造物捧上神坛,进而摆脱自己需要承担的一切责任。导演一针见血地指出,相对于奥本海默一辈科学家在科学与当权者之间的挣扎和反抗,当下AI从业者的“求监管”,是“虚伪”的。同时,作为执着于胶片的老派电影人,诺兰对于生成式AI在影视创作领域的发展抱有期待,但自己想做的,还是“要给演员一个真实的氛围和环境”。“人类最大的危险,是放弃责任。”诺兰在采访中说道。以下为采访对话原文,编者进行了不改变原意的修整:01毁灭世界,原子弹第一问:感觉你和艾玛(诺兰的妻子,他一直以来的制片人)的工作,从某种程度上,一直在为《奥本海默》做准备。诺兰:这就是我对这部电影的感觉。我对所做的每个项目都有这种感觉。因为我试图在以前所学的基础上继续前进。每当你完成一部电影,都会有一些问题悬而未决。因此,在下一部电影中,你会把留下来的问题捡起来。在《奥本海默》中,非常有字面意义,《信条》(Tenet,诺兰的前一部电影)中就提到了奥本海默。问:所以他在你的脑海中已经存在了一段时间。诺兰:奥本海默的故事已经伴随我多年。这是一个令人难以置信的想法——有人试图通过计算,来寻找理论和现实世界之间的关系,然后有一个非常小的可能性,他们将摧毁整个世界。然而,他们还是按下了按钮。问:非常戏剧性。诺兰:我是说,这简直是最戏剧性的时刻,在整个人类历史上来看。问:很多人可能不知道,当我们在1945年投下炸弹时,这不仅是一个可怕的时刻,也正是这个时刻,让人们了解到人类现在拥有了可以消灭整个人类的能力。诺兰:我对奥本海默的感觉是,很多人知道这个名字,知道他与原子弹有关,在美国历史的关系中还发生了一些复杂的事情,此外就没了。坦率地说,对我来说,这就是我的电影的理想观众。那些什么都不知道的人将会得到最疯狂的体验。因为这是个疯狂的故事。问:你是指他的个人故事?诺兰:观众应该了解,因为他是有史以来最重要的人之一。诺兰御用演员希里安·墨菲在片中扮演奥本海默豆瓣电影问:电影里有一句台词,有人对奥本海默说,你可以让任何人做任何事。类似这样的话。他是一个出色的管理者,对一切了如指掌,在那个房间里,有些科学家在做X,而在另一个房间里,那些科学家在做Y,他是一个能把这一切记在脑子里的人。诺兰:他知道如何通过他的角色的戏剧性来激励人们,投射他自己的光辉。他给所有的科学家、官员,每个人一个聚焦的目标。问:他拥有真正的魅力。诺兰:魅力,这是个完美的词。它让一切得以成形,这部电影经常涉及到这一点,正是他的魅力,让这些学者、这些理论家能够走到一起,用他们自己的双手建立起如此巨大、如此重要的东西。这是个奇迹。问:谈到建立一个巨大的东西,我最近在温哥华的TED会议上,最有趣的会议之一是一系列关于生成式人工智能的谈话。很多发言者都提到了原子弹、核武器。最后一位发言者是一位技术专家——他谈到了人工智能不可避免的武器化。演讲结束时他说,维持世界秩序的唯一途径是拥有更好的人工智能武器。那是一种威慑。这听起来很像人们对原子弹的看法。感觉你的电影找到了最合适的发行时机。诺兰:我认为这种关系是一个有趣的问题。这是不一样的。但这是最好的比喻——这就是为什么我在《信条》中使用它——不假思索地向世界释放一项新技术的危险性。这是一个警告性的故事。我们可以从中吸取教训。话虽如此,我确实相信,就改变和危及世界的技术而言,原子弹是独一无二的。问:而且这些技术的起源是不一样的?诺兰:有根本的区别。研究原子分裂的科学家们一直试图向政府解释:(核能)是自然界的一个事实,来源于上帝、或任何创世者。这只是关于自然的知识,它不可避免地将会发生。没有人可以隐藏它,我们没有创造,也不拥有它。他们是这么看的。问:换句话说,他们觉得自己只是揭示了已经存在的东西。诺兰:而我认为你很难对人工智能提出这样的论点。当然,肯定有人会这样做。问:你一定是在炸弹的阴影下长大的。我是在20世纪80年代的英国长大的,我们有一系列核裁军之类的运动,人们非常、非常清楚核武器的威胁。当我13岁时,我和朋友们相信,我们最终会在核灾难中死去。问:但你们没有,世界在继续前进。有一天,我和史蒂文·斯皮尔伯格谈起这个问题,他是在60年代古巴导弹危机的威胁下长大的。一样一样的。在人类历史上,有些时候,核战争的危险对我们来说是如此的触手可及、触目惊心,以至于我们对它非常了解。当然,我们也只能担心这么久,然后继续前进,开始担心其他事情。问题是,危险实际上并没有消失。问:对。我的意思是,我觉得一个月前,我们都在担心某些国家可能真的会使用核武器。诺兰:我记得80年代的情况是,对核战争的恐惧已经退去,转而对环境破坏的恐惧。这几乎就像人类无法对单一一种威胁保持长时间的恐惧,我们与恐惧有一种复杂的关系。是的,某些国家一直在利用这种末日威胁和这种恐惧来摇旗呐喊。这让人非常不安。导演诺兰工作照环球影业02将AI捧上神坛,才最危险问:和人工智能末日的威胁一样让人不安?诺兰:好吧,人工智能在武器系统方面的增长,以及它将产生的问题在很多年前就已经非常明显,很少有记者费心去写它。现在有一个聊天机器人可以为当地报纸写一篇文章,突然就成了一个危机。问:我们这些做媒体的人,多年来一直在这样做。盲目追求。我们中的一些人正在写关于人工智能的文章,因为它可以使我们失去工作。诺兰:这就是问题的一部分。对我来说,人工智能是一个非常简单的问题,这就像算法这个词。我们看到公司使用算法,现在是人工智能,作为逃避其行为责任的一种手段。问:请多解释两句。诺兰:如果我们认可人工智能是全能的观点,我们就是认可它可以减轻人们对其行为的责任——在军事上、社会经济上等等。人工智能最大的危险在于,我们将这些神一样的特性归于它,从而让我们自己摆脱了困境。我不知道这其中的神话基础是什么,但纵观历史,人类有这种倾向,即创造虚假的偶像,以我们自己的形象塑造一些东西,然后说我们有神一样的力量,因为我们做出了这些东西。问:这感觉非常,非常正确。就像我们正处于那个临界点。诺兰:正是如此。问:有了这些大型的语言模型,机器甚至下一步可能开始自学。诺兰:洛杉矶时报上有一篇关于ChatGPT和OpenAI的有趣文章。它基本上ChatGPT是一个销售手段,OpenAI现在是一家私人公司。他们有世界上最伟大的销售机器,而这是一个非常危险的东西。也许我们不应该推向大众,因为现在每个人都想要AI助手...PC版:https://www.cnbeta.com.tw/articles/soft/1381175.htm手机版:https://m.cnbeta.com.tw/view/1381175.htm

封面图片

信息通道中断,虚假消息弥漫,叙事矩阵分化行动者 #哈萨克斯坦 更新 ——

信息通道中断,虚假消息弥漫,叙事矩阵分化行动者#哈萨克斯坦更新——围绕哈萨克斯坦局势的大量虚假信息已经达到了顶峰——各种完全相反的消息同时蜂拥而至,例如,一边是“局势在当局控制之下,几乎已经稳定”,同时另一边是“国家正处于全面内战的边缘”等等。在不复述这些乱七八糟的新闻的情况下,我们希望您能将注意力集中在不一致的地方,以及我们可以或多或少肯定地宣称的内容。哈萨克斯坦内政部说他们已经杀死了26人,而根据一个反对派组织的说法是30人。考虑到昨天士兵们用机枪猛烈射击的那些镜头,可以说这是一个谎言。在这样的枪声中,一分钟内就绝对能有更多的人被杀。然后有报道说阿拉木图停尸房外的尸体“排起了长队”。如果这个数字不是被低报了10倍的话,就已经很幸运了。而托卡耶夫总统在讲话中的疯狂,全世界有目共睹:他下达了不加警告直接开火的命令,并声称阿拉木图遭到了“20000名土匪”的袭击。反对派记者LukpanAkhmedyarov在EkhoMoskvy电台表示,相信阿拉木图政府当局受到的武装袭击其实是纳扎尔巴耶夫的人所为。即政府自己的秘密武装人员袭击政府自己的设施,并栽赃给革命者。但这种说法,由于信息封锁,无法确认。值得注意的是,Akhmedyarov在他的家乡乌拉尔斯克(Uralsk)注意到,在抗议者旁边的广场上,有一群几十名显然是有组织的人员呼吁攻击Akimat(议会大厦)。同时有其他消息声称,科斯塔奈也有一小群“穿着相同服饰的煽动者”。如果这是真的,那么这些人是谁?究竟是革命者还是来自国家部门的挑衅者?究竟是有组织的起义力量,还是被镇压者雇佣的犯罪团伙?究竟是自发的具有统一战略的直接行动、还是在给直接行动抹黑?……没有答案。操纵叙事的人是在操纵混乱,越是混乱,人们越是怀疑一切,操纵者就越得利。在这种情况下,只剩下一种办法,那就是,考虑传播信息的动机——它们会使谁获益。有一点是明确的:正如我们一直在强调的那样(https://iyouport.substack.com/p/ad0),*并没有*所谓的暴力非暴力的矛盾,只有战略需求下的不同战术选择。哪一种方法在哪种情况下最能符合战略,它就值得被选择,其他一切都不是判断标准。尤其是要强调:简单地将行动者分为“暴力”和“非暴力”,只能让镇压者获益——镇压者最想要的就是合理合法的开枪理由,所谓的“平暴”、“反恐”是最常用的借口。这点上中国朋友应该非常熟悉了。作为行动者,你们之间的所谓派系之争就是在给镇压者创造这样的理由,以分化你们,削弱你们的运动的群众支持——从舆论上污蔑你们中最激进的那部分人,然后合法杀戮;同时欺骗柔化那些意志不坚定的队友;剩下的将在监狱中集合。这是全世界当权者最惯用的手段。仅仅最近一年内,俄罗斯(https://iyouport.substack.com/p/a8c)、白俄罗斯(https://iyouport.substack.com/p/be8)、哈萨克斯坦(https://iyouport.substack.com/p/--e35)......的当权者已经在不断复制这一套手段了。哈萨克街头的行动者正在被这套手段灾难性地分化,其中一些人显然受到了惊吓,正急忙与激进派革命者脱离关系,将后者与“抢劫者”混为一谈。目前,哈萨克全国不同地区成千上万的抵抗行动仍在继续。在起义中心扎瑙津,现在在广场上可以看到黑压压的无数人。据报道,人们正在组建一个委员会。新一轮的对抗已经展开。战斗在全国各地持续:在阿拉木图,镇压者无休止地进行着不成功的"扫荡",在塔尔迪库尔干(Taldykorgan),有武装夺取和冲突,在厄斯克门(Ust'-Kamenogorsk)继续有枪声......此外,谈到机动性,行动者在思考基于城市地形的战术时需要考虑到这点。正如Orda.Kz的主编GulnaraBazhkenova所说,阿拉木图的革命者知道如何在没有指挥的情况下进行行动:他们占领行政大楼,拿走他们需要的东西,放火烧掉,然后离开。相当聪明。在哥伦比亚也是如此,迅速形成的团队由原本陌生的行动者组成,所有人都明白集体的战略是什么,他们很容易想到一起。游击战术是最被看好的——与镇压者的猫鼠游戏。惩罚性行动已经蔓延到这场起义的摇篮-哈萨克斯坦西部。警察试图镇压阿克套和阿特劳的最大抗议中心。镇压者成群结队地杀人、逮捕和驱散,但抵抗者正抓住任何机会反击,于是镇压者自己也有伤亡。他们正在试图用路障封锁曼吉斯塔乌。最后,重申本帖开头提到的虚假消息泛滥的问题,这是几乎所有反抗行动都会遭遇的状况——您认为统治阶级为什么会第一时间断网?他们为了封锁真相。这是统治阶级制造他们自己的叙事矩阵的基础工程。我们曾经用一个系列的内容旨在尽可能帮助行动者在断网的情况下继续工作(https://iyouport.substack.com/p/5-f34),但这可能是不够的。就如哈萨克和曾经的很多国家那样大规模的全国范围的断网,剩下的将只有官方控制的信息渠道——谎言;在谎言彻底深入人心之前网络是不会恢复的,也就是说,真相即便保存,也很难与之竞争。这就是为什么我们同时强调,您需要跨地域的联盟(https://iyouport.substack.com/p/cb9)。哥伦比亚去年举世瞩目的反新自由主义革命事实上比目前的哈萨克更加激烈(https://iyouport.substack.com/p/a4a),但相比下信息传递比较通畅,这是因为哥伦比亚是被国际无政府主义联盟网络覆盖的,本土运动和研究与国际组织接轨,具有足够的和稳定的人力信息源。也就是绕开企业媒体统治的全球信息网络,抵抗运动不至于被陷入叙事矩阵的迷雾。而哈萨克很大程度上和中国一样,它的基层运动零星存在,很不成熟,而且大多都是地下的,于是它基本上不在任何一个国际联盟中。这种情况下,一旦统治阶级切断通信,行动者将完全被封闭,外界无法支援,甚至无法理解。我们对哈萨克斯坦的分析的目的就在于此,因为它和中国的状况非常相似,这些问题都需要中国的行动者引以为戒。还是那句话(https://iyouport.substack.com/p/--e35):请摆脱“旁观者”的角色,用这些信息设想您自己的本土行动——它会遇到什么状况、如何提前预防、如何化解问题、能吸取哪些经验教训。这就是所谓的“围观”能带给您的最好的价值,也许可以说是唯一的价值。此外的一切并无意义。#Kazakhstan#rising#ViolentRepression

封面图片

OpenAI CEO:巨型AI模型时代即将终结 想进步别再靠扩大规模

OpenAICEO:巨型AI模型时代即将终结想进步别再靠扩大规模近年来,OpenAI通过将现有的机器学习算法扩展到以前无法想象的规模,在处理语言方面取得了一系列令人印象深刻的进步。其最近开发的项目是GPT-4,据称已经使用数万亿字的文本和数千个强大的计算机芯片进行训练,耗资超过1亿美元。但是,奥尔特曼表示,未来AI的进步不再依赖于将模型变得更大。在麻省理工学院的一次活动上,他说:“我认为,我们正处在一个时代的尽头。在(即将过去的)这个时代,模型变得越来越大。现在,我们会在其他方面让它们变得更好。”奥尔特曼的表态意味着,开发和部署新AI算法的竞赛出现了出人意料的转折。自去年11月推出ChatGPT以来,微软就开始利用这一底层技术在其必应搜索引擎中添加了聊天机器人,谷歌也推出了名为Bard的竞争对手。许多人都迫不及待地尝试使用这种新型聊天机器人来帮助完成工作或个人任务。与此同时,许多资金充足的初创公司,包括Anthropic、AI21、Cohere和Character.AI等,正在投入大量资源用于构建更大的算法,以努力赶上OpenAI的脚步。ChatGPT的初始版本是基于GPT-3构建的,但用户现在也可以访问功能更强大的GPT-4支持的版本。奥尔特曼的陈述也暗示,采用将模型扩大并提供更多数据进行训练的策略后,GPT-4可能是OpenAI最后一项重大成果。不过,他没有透露任何可能替代当前方法的研究策略或技术。在描述GPT-4的论文中,OpenAI表示,其估计表明,扩大模型规模的回报正在减少。奥尔特曼说,该公司可以建立的数据中心数量以及建设这些中心的速度也都受到物理限制。Cohere的联合创始人尼克·弗罗斯特(NickFrosst)曾在谷歌从事人工智能研究,他表示,奥尔特曼所说的“不断扩大模型规模并不是无限制的有效解决方案”是正确的。他认为,针对GPT-4和其他transformers类型(编辑组:transformers直译为转换器,而GPT是Generativepre-trainedtransformers的简写,意思是基于转换器的生成式预训练模型)的机器学习模型,进展不再只是靠扩大规模。弗罗斯特补充说:“有很多方法可以让transformers变得更好、更有用,而且很多方法都不涉及给模型增加参数。新的人工智能模型设计或架构,以及基于人类反馈的进一步调整,都是许多研究人员已经在探索的前进方向。”在OpenAI的语言算法家族中,每个版本都由人工神经网络组成,这个软件的设计灵感来自于神经元之间相互作用的方式,经过训练后,它可以预测应该跟随在给定文本字符串后面的单词。2019年,OpenAI发布了其第一个语言模型GPT-2。它最多涉及到15亿个参数,这一指标能够衡量神经元之间可调整的连接数量的大小。这个数字非常大,这在某种程度上要归功于OpenAI研究人员的发现,扩大规模使模型变得更加连贯。2020年,OpenAI推出GPT-2的后继者GPT-3,该模型规模更大,参数高达1750亿个。GPT-3在生成诗歌、电子邮件和其他文本方面具备广泛能力,这令其他公司和研究机构相信,他们可以将自己的AI模型扩展到与GPT-3类似甚至更大的规模。去年11月,ChatGPT首次亮相后,表情包制造者和科技专家猜测,当GPT-4问世时,它将是个拥有更多参数、更为复杂的模型。然而,当OpenAI最终宣布新的人工智能模型时,该公司没有透露它有多大,也许是因为规模不再是唯一重要的因素。在麻省理工学院的活动上,奥尔特曼被问及GPT-4的培训成本是否有1亿美元,他回答说:“不止如此。”尽管OpenAI对GPT-4的规模和内部工作原理保密,但很可能它已经不再仅仅依赖于扩大规模来提高性能。有一种可能性是,该公司使用了名为“强化学习与人类反馈”的方法,用于增强ChatGPT的能力,包括让人类判断模型答案的质量,以引导它提供更有可能被判断为高质量的答案。GPT-4的非凡能力让许多专家感到震惊,并引发了关于AI改变经济潜力的辩论,以及其可能传播虚假信息和制造失业的担忧。许多企业家和AI专家最近签署了一封公开信,呼吁暂停开发比GPT-4更强大的模型6个月,其中包括特斯拉首席执行官埃隆·马斯克。在麻省理工学院的活动中,奥尔特曼证实,他的公司目前没有开发GPT-5。他补充说:“这封公开信的早期版本声称OpenAI正在训练GPT-5。实际上我们并没有这样做,短期内也不会。”(小小)...PC版:https://www.cnbeta.com.tw/articles/soft/1355341.htm手机版:https://m.cnbeta.com.tw/view/1355341.htm

封面图片

ChatGPT掀智力革命 OpenAI发布AGI路线图 最终通向超级智能世界

ChatGPT掀智力革命OpenAI发布AGI路线图最终通向超级智能世界随之而来的是,人们对其广泛应用也产生了担忧。前Alphabet执行董事EricSchmidt和其他合著者在WSJ发表的文章中称,生成式人工智能提出了自启蒙运动以来从未经历过的哲学挑战和实践挑战。就在昨日,OpenAI首席执行官SamAltman发文,分享了OpenAI对通用人工智能(AGI)的当前和后续规划。文章强调,OpenAI的使命是确保AGI造福全人类。OpenAI愿景:确保AGI造福全人类文中,提出了OpenAI最关心的三原则。如果AGI最终成功构建,这项技术不仅可以带来更多可能性,推动全球经济发展,还能改变新兴科学知识的发现,从方方面面帮助人类提升生活水平。AGI可以赋予每个人不可思议的新能力。在AGI触手可及的世界,所有人都可以获得几乎所有认知能力的帮助,AGI或许能成为人类才智和创造力的巨大力量增幅器。但另一方面,正如一些人所担心的,通用人工智能也会造成严重的滥用、意外和社会混乱。然而,AGI的益处令人惊叹,我们不能讳疾忌医,让社会永远停止发展;相反,社会和AGI开发者必须要想办法把它做好。与通用人工智能共同生活的未来图景难以预测,当前AI的进展可能会遭遇新的挑战,但在ChatGPT获得成功的当下,我们列出了公司最关心的几项原则:1.希望AGI可以为人类赋能,使人类能够在宇宙中实现最大程度的繁荣。我们不希望未来成为一个虚假的乌托邦,但我们希望将技术好的一面最大化,坏的一面最小化,让AGI成为人类善意的放大器。2.希望以公平的方式,更广泛地分享AGI的益处、获取和治理。3.要正确应对潜在风险。在面对这些风险时,理论上似乎正确的事情在实践中往往比预期更难以控制。我们必须通过部署功能较弱的技术版本来不断学习和适应,以最大程度地减少“无可挽回”的情况。短期目标:为AGI做好三项准备因此在短期内,OpenAI计划做到以下几件事。首先,随着公司不断构建出更为强大的AI系统,我们希望快速部署AGI,以积累在相应的应用经验。在OpenAI看来,谨慎管理AGI的最佳方式应该是逐渐过渡到AGI普及的世界。我们期望的未来,强大的人工智能技术能够加快世界进步的速度,渐进的方式让大众、政策制定者和研究机构有时间了解AGI技术带来的改变,亲身体验这些系统的好处和缺点,调整经济组织形式,并实施有效监管。同时,渐进的发展方式还能促使社会和AI共同进步,让人们在风险相对较低的情况下了解自身。OpenAI认为,成功解决AI应用挑战的最佳方法是采用快速学习和谨慎迭代的紧密反馈循环。在新技术的冲击下,社会将面临“人工智能系统被允许做什么、如何消除偏见、如何处理工作岗位流失”等重大问题。增加AI技术的使用大有裨益,OpenAI希望成为推广该技术的一员,通过将模型放入服务API中,将它们开源等方式实现。OpenAI表示,随着其开发的系统越来越接近AGI,该机构在模型的创建和部署方面都变得越来越谨慎。OpenAI需要权衡使用大模型的利弊。一方面,使用先进的大模型标志着重要的科技进展;另一方面,使用模型之后,公司和机构也需要考虑如何限制恶意行为者、避免对社会和经济造成不良影响等问题。其次,OpenAI正在努力创建更加一致和可控的模型。从GPT-3的第一个版本到InstructGPT和ChatGPT,这一步步的转变都彰显OpenAI在AI安全性方面所做的努力。值得注意的是,人类社会需要就如何使用人工智能达成极其广泛的界限。随着模型变得更强大,OpenAI将需要开发新的对齐技术。OpenAI的短期计划是使用AI来帮助人类评估更复杂模型的输出并监控复杂系统,而从长远来看,OpenAI将会使用AI来帮助获得更好的对齐技术。OpenAI认为,人工智能安全和能力同样重要,二者不应该分开谈论。OpenAI表示其最安全的工作出自其最有能力的模型之手。也就是说,提高人工智能的安全性对AI研究进步非常重要。第三,OpenAI希望全球范围内解决三个关键问题:人工智能系统的治理问题,AI系统产生的收益的分配问题,以及访问权限的共享问题。此外,根据OpenAI公司章程,OpenAI需协助其他组织提高安全性,不能在后期AGI开发中与对手竞争。OpenAI投资规则中对股东可以获得的回报设定了上限,这样研究机构本身就不会被引诱去尝试无限制地获取价值,也不会冒险使用具有灾难性危险的技术。OpenAI由非营利组织管理,以保证该机构是为人类的利益而运行,并且可以凌驾于任何营利利益之上。最后,OpenAI认为全球政府应对超过一定规模的机器学习训练保持监管。长远目标:更加繁荣的超级智能世界相比于短期计划,OpenAI的AGI长远发展显得更为宏大。OpenAI相信人类的未来应该由人类自己决定,与公众分享有关进步的信息至关重要。因此,应该对所有AGI发展项目进行严格审查,并在重大决策上面向公众进行咨询。在OpenAI看来,第一个AGI只会是人工智能持续发展中的一个小节点,然后从这个节点开始不断衍生出新的进展。公司预测,AI的未来发展可能会在很长一段时间内和我们过去十年的进展速度类似。也许有一天,世界会发生翻天覆地的变化,科技的进步也可能带给人类很大的风险。一个“错位的”超级智能AGI可能会对世界造成严重的伤害。因此,OpenAI认为放缓AGI的发展速度更容易确保安全。即使技术的进展让我们有迅速发展AGI的能力,但保持减速能让社会有足够的时间来适应。成功过渡到一个拥有超级智能的世界可能是人类历史上最重要、最有希望,但也最可怕的项目。没人能保证这一天何时到来,但人们已经探明的利害关系有助于将所有人团结起来。无论如何,那将是一个繁荣到超乎想象的世界。而OpenAI希望为世界贡献一个与这种繁荣相一致的通用人工智能。ChatGPT预示着一场智力革命近日,前美国务卿HenryKissinger、前Alphabet执行董事EricSchmidt、麻省理工苏世民计算机学院首任院长DanielHuttenlocher撰写了一篇“ChatGPT预示着一场智力革命”的文章。文章中透露了他们对当前生成式人工智能的担忧:生成式人工智能提出了自启蒙运动以来从未经历过的哲学和实践挑战。文章开头便阐述了当前ChatGPT对人类的影响。一项新技术旨在改变人类的认知过程,因为它自印刷术发明以来从未动摇过。1455年印刷古腾堡圣经的技术使抽象的人类思想得以普遍而迅速地传播。但今天的这项新技术逆转了这一过程。印刷机造成了现代人类思想的大量涌现,而新技术则实现了对它的提炼和阐述。在这一过程中,它在人类知识和人类理解之间造成了差距。如果我们要成功地驾驭这种转变,就需要发明人类思想和与机器交互的新概念。这就是人工智能时代的基本挑战。这项新技术被称为生成性人工智能,最具代表性的便是OpenAI研究实验室开发的ChatGPT。随着它的能力变得变得更加广泛,它们将重新定义人类的知识,加速我们现实结构的变化,并重组政治和社会。生成式人工智能同样将为人类理性开辟革命性的道路,为巩固知识开辟新的视野。但两者之间也存在着明显的区别。启蒙知识是逐步实现的,每一步都是可测和可教的。AI系统,如ChatGPT,可以存储和提炼大量现有信息,并能够在不解释其过程情况下输出结果,这是人类无法做到的。此外,人工智能的能力不是一成不变的,而是随着技术的进步呈指数级增长。我们迫切需要开发一种复杂的辩证法,使人们能够挑战生成式人工智能的交互性,不仅要证明或解释人工智能的答案,还要对其进行审问。带着一致的怀疑态度,我们应该学会有条不紊...PC版:https://www.cnbeta.com.tw/articles/soft/1346451.htm手机版:https://m.cnbeta.com.tw/view/1346451.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人