00后就是最苦逼的一代,被支国特色教育洗礼(包括但不限于衡水模式等)之后,到了大学开始严重分化,老师念ppt式讲课,资源不对

00后就是最苦逼的一代,被支国特色教育洗礼(包括但不限于衡水模式等)之后,到了大学开始严重分化,大学老师念ppt式讲课,资源不对等,自律能力变差,内卷,躺平,体测脆皮,英语学习的过度形式化(四六级,考研,雅思托福等)他们被社会施加了太大的期望值,在如今加速主义的盛行,他们不堪重负,被迫加班996,如今疫情3年,国家经济水平被严重糟蹋了,而这一切却需要他们来承担,如今还不得不面对大厂劳动力压榨,缩招,裁员等各种各样的打击,他们想要发声,却总是被各种各样的理由404,想要申诉,控告,但你国法律要真的如此可靠也就不会如同今天般怨声载道了。你说法治我都觉得有些可笑。更有极端者甚至选择主动申请延毕来换取更多的机会,为什么你国现在会如此抽象,这道理懂的我想自然都懂。我也不想再说那么多了,你们慢慢体会去吧。万物变化有因有果,毛病不改终成恶习,2024念了,我们00后要何去何从呢? via 匿名

相关推荐

封面图片

简单综合一下,昨日有被报道或发现,在铜锣湾一带「被执法」的人/事/物,包括但不限于,手持鲜花/纸花、穿著有警方认为有问题的衣物、

简单综合一下,昨日有被报道或发现,在铜锣湾一带「被执法」的人/事/物,包括但不限于,手持鲜花/纸花、穿著有警方认为有问题的衣物、点蜡烛/电子蜡烛、打开电话灯、电话的图片中有蜡烛、车牌号码是 8964,等等,其至有人只是单纯站在附近都被带走,例如记协前主席麦燕庭。 报导: @renews_hk 为何说是「被执法」? 因为这些有不同行为的市民,受到的待遇各有不同,被截查、带走后放行甚至拘捕,据警方公布,他们昨日在铜锣湾,拘捕一名 53 岁女士,被指阻差办公,另外带走涉嫌「破坏社会安宁」合共 23 人,年龄 20 岁到 74 岁,当中分别有 11 男 12 女,总之就是被警方采取了某种程度的「执法」。 去理解背后的执法逻辑,其实无甚意义,反而是在于其行动背后的动机。 必须点出,虽然可以粗略地以「你钟意啦」来概述警方的执法行为,但若比较去年六四、与今年六四的执法尺度,有明显差异。 去年,限聚令仍然生效,警方在铜锣湾一带的执法以阻止「聚集」为核心,一旦有人群聚集就以违反限聚为由驱赶,所以一些个人的悼念行为,例如手持蜡烛、鲜花等游击式行为,仍然零星出现;但到今年,警方以雷霆手段,将一切悼念/疑似悼念行为,杀灭于萌芽阶段,最佳例子莫如社民连主席陈宝莹,她昨日手持纸花,在纪利佐治街出现不足「十秒」,就已经被警方控制。 警方以及政府的目的,是要阻止民间一切的悼活动「被看见」,这亦与西贡小店西多门外的蜡烛挂画被警察收走原理一致。 学者李立峰昨日在《明报》写的文章,非常准确地预视和解读了昨日警方执法背后的思路。 他在文章中提到「公共秘密文化」的概念,「我们是没有办法刻意忘记一件事情的,因为刻意地去做的话,首先的效果就是会继续记住那件事情」,这与警方做法达来的效果一致,但事实上,政权要达到的,「其实并非「你不能记得那件事」,而是「你不能公开展示你记得那件事」」,「政治权力的体现在于就算人们知道,也要装作不知道」。 「甚至可以说,当一个人真的不知道,他就是不知道而已,当一个人知道而装作不知,他才是在服膺权力。」 让所有人开始装作不知道、自我审查显得自己不知道、不记得,才是权力想要的服从,人民不会忘记,他们要的,是要你装作记不起。 #六四 #八九民运 #天安门事件 #六四屠城 #Tiananmen #TiananmenMassacre #六四烛光 #薪火相传

封面图片

通过搜索后,我发现AirDrop曾被滥用包括但不限于:散播恐袭消息造成飞机延误或掉头、在影院剧透影片剧情、在公共场合向陌生人投送

通过搜索后,我发现AirDrop曾被滥用包括但不限于:散播恐袭消息造成飞机延误或掉头、在影院剧透影片剧情、在公共场合向陌生人投送色情内容或广告、单纯骚扰,恶作剧等… 现在只在需要用到时重新打开该开关,就可以避免以上可能会发生的事情。 利大于弊或是弊大于利?见仁见智。不过我发现这几天报道的外媒主题只有一个中心,对上述的其他影响却只字不提

封面图片

美国宪法保护在美国境内的任何人(不限于美国公民)有言论自由,即使发表仇恨言论也不是罪。只有在有了犯罪行为(例如杀人)又有仇恨言论

美国宪法保护在美国境内的任何人(不限于美国公民)有言论自由,即使发表仇恨言论也不是罪。只有在有了犯罪行为(例如杀人)又有仇恨言论,才被当成“仇恨罪”罪加一等。但是在德国等某些欧洲国家,发表反犹主义仇恨言论本身就是犯罪,法国甚至要立法把侮辱以色列定为犯罪,这都是侵犯言论自由的以言治罪,和中国一样。为了讨好以色列,这些国家让他们提倡的普世价值成了笑话。

封面图片

主人公恩尼西亚为了还债而努力的故事。

主人公恩尼西亚为了还债而努力的故事。 在这个过程中,我们会解决各种各样的问题,也会遇到各种各样的问题。 主要的色情场景有: 性交易、暴露、诱惑、被欺骗、偷情、色情陷阱、无理取闹、被恶魔和盗贼凌辱等。 ·温文尔雅的主人公总是这样那样地随波逐流。 ·大部分是衣服边缘。 梗概 温文尔雅的修女恩尼西亚代理管理着城里的教堂。 但是有一天,一个自称zimmet商会的人来了,说土地的所有权归商会所有。 无论如何都有想要守护土地的理由的艾尼西亚,在他们的提议下用债务买下了土地的权利书。 这时,作为偿还债务的缓期的交换,被称为契约纹的咒术刻上了纹样。 为了还债,艾尼西亚在街上做着各种各样的工作。 但也有一些男人利用她的立场和性格,向她追求欲望。 能平安度过这个困境吗,还是……。 系统 换装系统……服装装备艾尼西亚的立绘变化。 体质和色情参数……通过边缘参数的变动获得各种各样的体质。 色情场景的阶段变化……根据参数场景的内容最多变化到3个阶段。 契约纹……在得到好处的同时,也会受到限制。 群友投稿,日文原版 应该是可以用joi玩的,大家自行测试看看吧 #PC #しもばしら工房 入正地址 #エニシアと契约纹 ~马蹄通りの小圣女~ 下载地址 补丁地址

封面图片

故事简介:「如果你没有在之后的一年内和命运的对象结合的话,就会出现很严重的后果」

故事简介: 「如果你没有在之后的一年内和命运的对象结合的话,就会出现很严重的后果」 被突然出现的自称姻缘神 · 丽,如是告知的主人公 · 神林始,只是一名随处可见的普通少年。 只是,因为一心想受欢迎而对学习古今中外各种各样的咒语有着非同寻常的热衷。 据丽所说,原因可能就是那些咒语。 就像美味的东西吃太多了也会闹肚子,许多单看只是琐碎而有趣的咒语集中在一起,就会变成毒药。 更糟糕的是,在一开始尝试的咒语中,好像混入了一些真实有效的。 正因如此,因果变得乱七八糟,未来也变得非常不稳定。 「嘛,简单地说,(后果)就是你会一生DT了」(DT:どうてい的罗马音Dou Tei缩写,意为处男、童贞) 想要女朋友!不想一生DT!但是,不管怎么说,这也太困难了吧…… 迷茫之际,丽告诉了始 表示出他与三个命运的对象候补之间缘分的“缘分指数”(縁カウント)。 (介绍来自2dfan) #求神太多我的未来糟糕了 下载地址

封面图片

LeCun哈佛演讲PPT放出:唱衰自回归LLM 指明下一代AI方向

LeCun哈佛演讲PPT放出:唱衰自回归LLM 指明下一代AI方向 LeCun 给出了一个模块化的认知架构,它可能构成回答这些问题的途径。该架构的核心是一个可预测的世界模型,它允许系统预测其行动的后果,并规划一系列行动来优化一组目标。目标包括保证系统可控性和安全性的护栏。世界模型采用了经过自监督学习训练的分层联合嵌入预测架构(H-JEPA)。LeCun 的演讲围绕多方面展开。开始部分,LeCun 介绍了目标驱动的人工智能。LeCun 指出与人类、动物相比,机器学习真的烂透了,一个青少年可以在大约 20 小时的练习中学会开车,小朋友可以在几分钟内学会清理餐桌。相比之下,为了可靠,当前的 ML 系统需要通过大量试验进行训练,以便在训练期间可以覆盖最意外的情况。尽管如此,最好的 ML 系统在现实世界任务(例如驾驶)中仍远未达到人类可靠性。我们距离达到人类水平的人工智能还差得很远,需要几年甚至几十年的时间。在实现这一目标之前,或许会先实现拥有猫类(或者狗类)级别智能的 AI。LeCun 强调 AI 系统应该朝着能够学习、记忆、推理、规划、有常识、可操纵且安全的方向发展。LeCun 再一次表达了对自回归 LLM 的不满(从 ChatGPT 到 Sora,OpenAI 都是采用的自回归生成式路线),虽然这种技术路线已经充斥了整个 AI 界,但存在事实错误、逻辑错误、不一致、推理有限、毒性等缺陷。此外,自回归 LLM 对潜在现实的了解有限,缺乏常识,没有记忆,而且无法规划答案。在他看来,自回归 LLM 仅仅是世界模型的一种简化的特殊情况。为了实现世界模型,LeCun 给出的解决方案是联合嵌入预测架构(JEPA)。LeCun 花了大量篇幅介绍 JEPA 相关技术,最后他给出了简单的总结:放弃生成模型,支持联合嵌入架构;放弃概率模型,支持基于能量的模型(EBM);放弃对比方法,支持正则化方法;放弃强化学习,支持模型 - 预测控制;仅当规划无法产生结果时才使用强化学习来调整世界模型。在开源问题上,LeCun 认为开源 AI 不应该因为监管而消失,人工智能平台应该是开源的,否则,技术将被几家公司所掌控。不过为了安全起见,大家还是需要设置共享护栏目标。对于 AGI,LeCun 认为根本不存在 AGI,因为智能是高度多维的。虽然现在 AI 只在一些狭窄的领域超越了人类,毫无疑问的是,机器最终将超越人类智能。机器学习烂透了,距离人类水平的 AI 还差得远LeCun 指出 AI 系统应该朝着能够学习、记忆、推理、规划、有常识、可操纵且安全的方向发展。在他看来,与人类和动物相比,机器学习真的烂透了,LeCun 指出如下原因:监督学习(SL)需要大量标注样本;强化学习(RL)需要大量的试验;自监督学习(SSL)效果很好,但生成结果仅适用于文本和其他离散模式。与此不同的是,动物和人类可以很快地学习新任务、了解世界如何运作,并且他们(人类和动物)都有常识。随后,LeCun 表示人类需要的 AI 智能助理需要达到人类级别。但是,我们今天距离人类水平的人工智能还差得很远。举例来说,17 岁的少年可以通过 20 小时的训练学会驾驶(但 AI 仍然没有无限制的 L5 级自动驾驶),10 岁的孩子可以在几分钟内学会清理餐桌,但是现在的 AI 系统还远未达到。现阶段,莫拉维克悖论不断上演,对人类来说很容易的事情对人工智能来说很难,反之亦然。那么,我们想要达到高级机器智能(Advanced Machine Intelligence,AMI),需要做到如下:从感官输入中学习世界模型的 AI 系统;具有持久记忆的系统;具有规划行动的系统;可控和安全的系统;目标驱动的 AI 架构(LeCun 重点强调了这一条)。自回归 LLM 糟糕透了自监督学习已经被广泛用于理解和生成文本,图像,视频,3D 模型,语音,蛋白质等。大家熟悉的研究包括去噪 Auto-Encoder、BERT、RoBERTa。LeCun 接着介绍了生成式 AI 和自回归大语言模型。自回归生成架构如下所示:自回归大语言模型(AR-LLM)参数量从 1B 到 500B 不等、训练数据从 1 到 2 万亿 token。ChatGPT、Gemini 等大家熟悉的模型都是采用这种架构。LeCun 认为虽然这些模型表现惊人,但它们经常出现愚蠢的错误,比如事实错误、逻辑错误、不一致、推理有限、毒性等。此外,LLM 对潜在现实的了解有限,缺乏常识,没有记忆,而且无法规划答案。LeCun 进一步指出自回归 LLM 很糟糕,注定要失败。这些模型不可控、呈指数发散,并且这种缺陷很难修复。此外,自回归 LLM 没有规划,充其量就是大脑中的一小部分区域。虽然自回归 LLM 在协助写作、初稿生成、文本润色、编程等方面表现出色。但它们经常会出现幻觉,并且在推理、规划、数学等方面表现不佳,需要借助外部工具才能完成任务。用户很容易被 LLM 生成的答案所迷惑,此外自回归 LLM 也不知道世界是如何运转的。LeCun 认为当前 AI 技术(仍然)距离人类水平还很远,机器不会像动物和人类那样学习世界的运作方式。目前看来自回归 LLM 无法接近人类智力水平,尽管 AI 在某些狭窄的领域超过了人类。但毫无疑问的是,最终机器将在所有领域超越人类智慧。目标驱动的 AI在 LeCun 看来,目标驱动的 AI 即自主智能(autonomous intelligence)是一个很好的解决方案,其包括多个配置,一些模块可以即时配置,它们的具体功能由配置器(configurator)模块确定。配置器的作用是执行控制:给定要执行的任务,它预先配置针对当前任务的感知(perception)、世界模型(world model)、成本(cost)和参与者(actor)。关于这部分内容,大家可以参考:思考总结 10 年,图灵奖得主 Yann LeCun 指明下一代 AI 方向:自主机器智能目标驱动的 AI 中最复杂的部分是世界模型的设计。设计和训练世界模型关于这部分内容,我们先看 LeCun 给出的建议:放弃生成模型,支持联合嵌入架构;放弃概率模型,支持基于能量的模型(EBM);放弃对比方法,支持正则化方法;放弃强化学习,支持模型 - 预测控制;仅当规划无法产生结果时才使用强化学习来调整世界模型。LeCun 指出生成架构不适用于图像任务,未来几十年阻碍人工智能发展的真正障碍是为世界模型设计架构以及训练范式。训练世界模型是自监督学习(SSL)中的一个典型例子,其基本思想是模式补全。对未来输入(或暂时未观察到的输入)的预测是模式补全的一个特例。在这项工作中,世界模型旨在预测世界状态未来表征。联合嵌入预测架构(JEPA)LeCun 给出的解决方案是联合嵌入预测架构(JEPA),他介绍了联合嵌入世界模型。LeCun 进一步给出了生成模型和联合嵌入的对比:生成式:预测 y(包含所有细节);联合嵌入:预测 y 的抽象表示。LeCun 强调 JEPA 不是生成式的,因为它不能轻易地用于从 x 预测 y。它仅捕获 x 和 y 之间的依赖关系,而不显式生成 y 的预测。下图显示了一个通用 JEPA 和生成模型的对比。LeCun 认为动物大脑的运行可以看作是对现实世界的模拟,他称之为世界模型。他表示,婴儿在出生后的头几个月通过观察世界来学习基础知识。观察一个小球掉几百次,普通婴儿就算不了解物理,也会对重力的存在与运作有基础认知。LeCun 表示他已经建立了世界模型的早期版本,可以进行基本的物体识别,并正致力于训练它做出预测。基于能量的模型(通过能量函数获取依赖关系)演讲中还介绍了一种基于能量的模型(EBM)架构,如图所示,数据点是黑点,能量函数在数据点周围产生低能量值,并在远离高数据密度区域的地方产生较高能量,如能量等高线所示。训练 EBM 有两类方法... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人