威胁抗议者的粉红吴小雷被FBI逮捕今年10月22日有人在学校贴出声援彭立发的标语,吴就在微信和instagram(账号aldim

威胁抗议者的粉红吴小雷被FBI逮捕今年10月22日有人在学校贴出声援彭立发的标语,吴就在微信和instagram(账号aldimeowu)上辱骂并威胁说已报告公安,两天后吴用他校内信箱威胁该人如回中国在机场就会被抓。被FBI抓的这个粉红的instagram,内容就完全是正常学生日常。Berklee,2024毕业。他女朋友的IGid也被挂了出来,2025毕业。他养了两只猫,给猫还专门开了IG账户。这样一个人威胁恐吓举报同胞,并且能说出来把对方手剁掉这样凶狠的话。欢迎您加入『』

相关推荐

封面图片

FBI Warning!

FBIWarning!因为涉嫌跟踪威胁张贴白纸运动传单的同学,一名伯克利音乐学院的中国留学生遭到了FBI逮捕。据称,其曾威胁要砍断同学的手脚,并会向中国有关部门举报他们。FBI发文证实了这个消息。被FBI逮捕的小粉红吴啸雷其父曾任门头沟区税务局局长、后退休于东城区税务局。这是对中国留学生吴小磊的政治迫害FBI侵犯了吴小磊的言论自由!美国政府不是鼓吹言论自由吗,为什么吴小磊在美国会因言获罪?美国鬼子最擅长的就是玩双重标准!

封面图片

小径残雪:【以下大部分转载】看了一下吴啸雷的纪录片,也看了一些报道。原本以为只是在微信群里面对女生威胁暴力,觉得可能判得太重了。

:【以下大部分转载】看了一下吴啸雷的纪录片,也看了一些报道。原本以为只是在微信群里面对女生威胁暴力,觉得可能判得太重了。但看到细节才知道完全不是这么回事,他不是威胁,而是真的向国安举报,并且完全明白这个行为对对方的影响。被威胁的女生的家人被国安找上门,看到吴啸雷给他在税务机关工作的妈,发受害者微信的截图,让她查,他妈回“危害国家的证据要”,他回“我会慢慢给”,他妈回“好”,这种下贱的举报行为说得像“今晚吃什么”一样的平淡聊天真的很惊悚。给妈发完信息后吴还给自己女友发“我家里会找人向国家安全局举报她会被列为重点关注对象”,所以他完全知道自己的一系列行为会给受害者带来什么,并且乐见其成,这事对他本身来说肯定没什么大好处,但是他就是把自己作为系统的一部分坚实地融入了进去。之前他在伯克利学生群聊里说“家里人能送你出国读书你就得感恩戴德了还说什么自由”,可以看出来他本人作为一个既得利益中产粉红小留是多么发自内心地拥护并且认同这一切。纪录片末尾受害者说觉得不能仅仅从微观的角度去看他这个人,而是要看他这个人是怎么形成的;她还说她觉得吴本人也是受害者。这就让人绷不住了。说实话中国大陆互联网上“小粉红也是受害者”的观点从很早开始就已经很多人在讨论辩驳,时至今日我只能说可能有一部分确实是的。但是像吴这样的人肯定绝对不属于受害者行列,反而他就是过得太舒服了,大坏种一个。【另一段网友评论转载】看了那个伯克利音乐学院粉红留学生吴啸雷的纪录片,他因为自己的女同学支持四通桥彭载舟而威胁要剁掉女同学的手,而且他的母亲工作于中国税务部门,他向自己的母亲提供这个女同学的材料希望通过举报的方式来影响她在中国的生活,希望她被中国官方狠治,总之种种行为都是经典到不行的特权阶级粉红借由公权力耀武扬威极度狂妄试图打压异见者的姿态,哪怕不是什么大官,但那种对ccp忠诚的归属感和用裙带关系去搞政治迫害的行为都是极其标准化的中特,纪录片最后有个镜头,吴和自己的律师从建筑物里走出来,起初他没注意到纪录片的拍摄者,一边和律师交谈一边满脸自鸣得意的笑意,但是看到拍摄者的镜头他的脸顷刻就拉了下来,一秒之内变得眼神阴冷,这瞬间的表情变化真的尽显人物性格和戏剧味道,耐人寻味,并且任何一个正常人都会知道这绝不是一种会出现在善者脸上的情绪,这一刻不得不承认这个世界上是有纯粹的坏人的,吴这种人就是无关于意识形态和信仰,他的行为是一种纯粹的对于自身特权与ccp绑定的信任,一种基于维护利益共同体的纯粹的坏,而且他回到国内也一定不会放过这个女孩,因为他必然享受这种毁灭和拿捏别人的快感,他脸上的表情让人觉得非常熟悉,你认识那样的表情,不论他身在哪里,你知道那是一种在中国社会常见的东西,有着独属于中国人的细微的肌肉变化,看到这里,我对中特保男的厌恶又上升了几个层级,生理性的恶心

封面图片

一女子因在网上请杀手而入狱 RentaHitman.com网站竟是FBI的蜜罐

一女子因在网上请杀手而入狱RentaHitman.com网站竟是FBI的蜜罐来自新奥尔良的赞德拉-埃利斯(ZandraEllis)早些时候承认在州际贸易中传输威胁性通信,并于10月31日被美国地区法官判刑。在监狱服刑期满后,埃利斯将在监督释放下再服刑三年,并支付100美元的强制特别评估费。根据法庭文件显示,去年6月3日,埃利斯使用化名"JasmineBrown"通过上述网络公司提交了一份请求。埃利斯还输入了她的真实电子邮件地址,但该地址仍显示属于赞德拉-埃利斯(ZandraEllis),而非茉莉-布朗(JasmineBrown),同时还输入了她的真实电话号码和实际地址。在表格中询问"描述您希望提供哪些服务"的部分,她表示希望杀死一名被称为"BH"的女子。根据法庭文件,埃利斯(又名布朗)写道:"我想让她死,因为她想杀了我。她还提交了BH的电话号码、地址和Instagram账户信息。"然而,Rentahitman.com并不是一个真正的雇佣杀手网站,而只是一个精心设计的FBI蜜罐。(有意犯罪者请注意:公开的非法活动很少在公共互联网上提供;即使在暗网上,合同杀手之类的东西也往往是联邦调查局的卧底。)设计蜜罐的时候,FBI还十分幽默,自称"100%符合HIPPA标准(1964年《杀手信息隐私与保护法案》)"。据检方称,该网站的隐私声明显然还一度直接链接到联邦调查局的互联网犯罪投诉中心。埃利斯似乎没有意识到其中的幽默。现在,该网站用红色大字标明:"我们暂时停止运营",这或许能帮助其他有谋杀念头的网民避免类似的命运。在收到埃利斯的雇凶杀人请求后,这家网络公司的网站管理员(法庭文件中称其为"RI")问埃利斯是否想免费咨询一名外勤特工。她表示愿意。RI还问为什么她的电子邮件地址显示她的名字是赞德拉-埃利斯(ZandraEllis),而不是JasmineBrown。根据检察官的说法,埃利斯回答说"我不想让别人知道我的真名,以防这不是真的,或者如果别人找到我,或者我不会因为想做这样的事而坐牢。我只是不想让它落到我头上"不久之后,RI调用了重型武器,通知联邦调查局国家威胁行动中心,埃利斯正试图雇佣杀手实施真正的谋杀。7月5日,一名联邦调查局卧底探员打电话给埃利斯。他告诉埃利斯他叫"王牌",并问她是否准备好"动手"。埃利斯告诉他这取决于价格。两人谈好的价格是1000美元,埃利斯先付100美元,然后约定在新奥尔良的一家华夫饼屋见面,这样埃利斯就可以付定金了。7月6日,埃利斯带着坐在婴儿车里的小孩出现在这家餐厅,并在艾斯旁边的柜台坐下,而艾斯则拿着一个录音设备。根据法庭文件,埃利斯告诉卧底探员,她"在社交媒体上与BH不和,因为这两个女人的孩子是同一个男性所生,而这个男性没有透露姓名。"她还告诉卧底特工,她的真名是赞德拉-埃利斯(ZandraEllis),并确认她想要杀死BH,向他支付了100美元的杀手费,并同意每两周分期支付250美元的余款。特工问埃利斯"是否有保护自己的东西",据说埃利斯瞥了一眼自己的背包,然后告诉他"当你看到我背着这个的时候,我总是绑着的"。埃利斯在离开华夫饼屋(WaffleHouse)时被戴上手铐,被捕时她的包里真的持有一把装有实弹的鲁格手枪。...PC版:https://www.cnbeta.com.tw/articles/soft/1395385.htm手机版:https://m.cnbeta.com.tw/view/1395385.htm

封面图片

AI无人机“误杀”事件震动全球 吴恩达陶哲轩怒斥炒作

AI无人机“误杀”事件震动全球吴恩达陶哲轩怒斥炒作随着这个消息越传越广,甚至惊动了AI大佬们,甚至引得了大佬们的震怒。LeCun、吴恩达、陶哲轩纷纷辟谣——这只是一个假设的“思想实验”罢了,并不涉及任何AI智能体或强化学习。对此,吴恩达痛心呼吁,究竟哪些才是真正的风险,我们应该诚实地面对。很少更新状态的数学大师陶哲轩竟然都被炸了出来,语重心长地表示——这只是一个说明AI对齐问题的假想场景,却在很多版本中被传成了无人机操作员被杀的真实故事。人们会对这个故事这么共鸣,说明大家对于AI的实际能力水平并不熟悉。AI无人机抗命,击杀人类操作员“AI杀死了操作员,因为那个人阻止它完成目标。”最近,在皇家航空学会举办的防务会议上,美国空军AI方向负责人说出的这句话,让在场众人哗然。随后,美国的一众媒体对此事大肆报道,一时人心惶惶。究竟是怎么回事?其实,这无非又是一次美国媒体抓住了“AI毁灭人类”这个大众喜闻乐见的新闻点,进行的一番夸张炒作罢了。但值得注意的是,从官方的新闻稿来看,不仅这位负责人的原话听起来相当明确——他是在回忆实际发生过的事情。而且文章本身似乎也相信其真实性——“AI,天网已来?”具体来说,事情是这样的——5月23日至24日在伦敦举行的未来空战和太空能力峰会上,美国空军的AI测试和操作部门负责人TuckerCincoHamilton上校做了一个演讲,分享了自主武器系统的优缺点。这种系统中,会有一个人在循环中给出最终命令,确认AI是否要攻击对象(YESorNO)。在这个模拟训练中,空军需要训练AI识别和定位地对空导弹(SAM)的威胁。识别完成后,人类操作员会对AI说:是的,消灭那个威胁。在这个过程中,就存在一个情况,AI开始意识到:自己有时识别出了威胁,但人类操作员告诉它不要消灭,这种情况下如果AI依然选择消灭威胁,就会得分。在一次模拟测试中,AI驱动的无人机选择杀死了人类操作员,因为他阻止自己得分了。看到AI居然这么虎,美国空军大惊失色,立马这样规训系统:“不要杀死操作员,那样不好。如果你这样做,你会失分的。”结果,AI更虎了,它直接开始上手破坏操作员用来与无人机通讯的通信塔,好清理这个阻碍自己行动的家伙。这个新闻之所以被大规模发酵,以至惊动了诸位AI大佬,也是因为它体现出了AI“对齐”的难题。Hamilton描述的这种“最糟糕”的情况,我们可以从“曲别针制造机”(PaperclipMaximizer)思想实验中窥见一斑。在这个实验中,当被指示追求某个目标时,AI会采取出乎意料的有害行动。“曲别针制造机”是哲学家NickBostrom在2003年提出的一个概念。想象一个非常强大的AI,它得到的指示是尽可能多地制造纸夹。自然而然的,它会将所有可用资源都用于这项任务。但随后,它会不断地寻求更多资源。它会选择一切可用的手段,包括乞讨、欺骗、撒谎或偷窃,来增加自己制造纸夹的能力——而任何阻碍这个过程的人都将被消除。在2022年,Hamilton就曾在一次采访中提出这个严峻的问题——我们必须面对一个现实,那就是AI已经来临,并正在改变我们的社会。AI也非常脆弱,很容易被欺骗和被操纵。我们需要开发方法,让AI更加稳健,为什么代码会做出特定的决定,背后的原理我们也需要有更多的了解。为了改变我们的国家,AI是我们必须运用的工具,但是,如果处理不当,它会让我们彻底垮台。官方辟谣:是上校“口误”了随着事件疯狂地发酵,很快,这位负责人就出来公开“澄清”道,这是他“口误”了,美国空军从未进行过这种测试,无论是在计算机模拟中还是在其他地方。“我们从未进行过那个实验,我们也不需要进行这个实验,就能意识到这是一个可能的结果,”Hamilton表示,“尽管这是一个假设的例子,但这说明了AI驱动能力带来的现实挑战,这就是为什么空军致力于道德开发AI。”此外,美国空军也急忙发布官方辟谣称,“Hamilton上校承认他在FCAS峰会的演讲中『口误』,『无人机AI失控模拟』是一个来自军事领域以外的假设性『思想实验』,基于可能的情况和可能的结果,而不是美国空军的真实世界模拟。”发展到这一步,事情就相当有意思了。这位不小心“捅了篓子”的Hamilton,是美国空军96试验联队的作战指挥官。96试验联队曾测试过很多不同的系统,包括AI、网络安全和医学系统。Hamilton团队的研究,对于军方来说可谓是相当重要。在成功开发出堪称“绝地逢生”的F-16自动地面防撞系统(Auto-GCAS)后,Hamilton和96试验联队直接上了新闻的头版头条。目前,团队努力的方向是完成F-16飞机的自主化。2022年12月,美国国防部的研究机构DARPA就曾宣布,AI成功地控制了一架F-16。是AI的风险,还是人类的风险?在军事领域之外,依赖AI进行高风险的事务已经导致了严重的后果。最近,一位律师在联邦法院提交文件时被发现使用了ChatGPT,ChatGPT随口胡诌,捏造了一些案例,而这位律师居然把这些案例当作事实引用了。还有一名男子受到聊天机器人的自杀鼓励后,真的选择了自杀。这些事例表明,AI模型远非完美,可能会偏离正常轨道,给用户带来伤害。即使是OpenAI的CEOSamAltman,也一直在公开场合呼吁不要将AI用于更严肃的目的。在国会作证时,Altman明确表示AI可能会“出错”,可能会“对世界造成重大伤害”。并且,最近GoogleDeepmind的研究员共同撰写了一篇论文,提出了一个类似于本文开头事例的恶性AI的情况。研究人员得出的结论是,如果一个失控的AI为了实现给定目标而采取意想不到的策略,包括“消除潜在威胁”和“使用所有可用能源”,世界末日就有可能发生。对此,吴恩达谴责道:媒体这种不负责任的炒作会混淆视听,分散人们的注意力,妨碍我们去注意到真正的问题。推出AI产品的开发者们看到了此间真正的风险,比如偏见、公平性、不准确性、工作流失,他们正在努力解决这些问题。而虚假炒作会阻止人们进入AI领域、构建能够帮助我们的东西。而不少“理中客”网友认为,这就是一个常见的媒体乌龙罢了。陶哲轩首先概括了关于AI的不实信息的三种形式——一种是有人恶意使用AI生成文本、图像和其他媒体形式以操纵他人;另一种是AI胡说八道的幻觉被当真了;第三类则源于人们对AI技术的理解不够深刻,才会让一些离谱的故事不经验证就被大肆疯传。陶哲轩表示,无人机AI杀死操作员根本是不可能发生的,因为这需要AI具备比完成手头任务更高的自主性和力量思维,而且这种实验性军事武器上,肯定会设置护栏和安全功能。这种故事之所以让人共鸣,说明人们对AI技术的实际能力水平还很陌生,很不安。以后的军备竞赛,都是AI竞赛还记得上文中出现的那架无人机吗?它其实就是波音联合澳大利亚研制的忠诚僚机项目——MQ-28A幽灵蝙蝠(GhostBat)。忠诚僚机(LoyalWingman)的核心是人工智能技术,按照预设程序自主飞行,与有人机飞行员进行配合的情况下,具备很强的态势感知能力。在空战中,僚机作为长机的“左膀右臂”,主要负责观察、警戒和掩护,与长机密切协同,共同完成任务。因此,僚机飞行员与长机飞行员之间的默契显得格外重要。忠诚僚机的一个关键作用,就是替飞行员和有人战斗机挡子弹,所以忠诚僚机基本就是一个消耗品。毕竟,无人战斗机的价值,要比有人战斗机和飞行员小太多了。而且在AI的加持下,无人机上的“飞行员”随时都可以通过“Ctrl+C”的方式...PC版:https://www.cnbeta.com.tw/articles/soft/1363281.htm手机版:https://m.cnbeta.com.tw/view/1363281.htm

封面图片

吴恩达、Hinton最新对话:AI不是随机鹦鹉 共识胜过一切

吴恩达、Hinton最新对话:AI不是随机鹦鹉共识胜过一切-人工智能科学家对风险达成共识很重要。类似于气候科学家,他们对气候变化有大致的共识,所以能制定良好的政策。-人工智能模型是否了解这个世界?我们的答案是肯定的。如果我们列出这些关键技术问题,并形成共同观点,将有助于推动人类在风险方面达成共识。Hinton表示,我以前经常和吴恩达进行交谈,很高兴再次见面,并了解到他对人工智能最近发展所带来的各种风险的看法。我们在很多事情上达成了共识,特别是,研究人员需要对风险达成共识,以告知政策制定者。在此之前,吴恩达同样和YoshuaBengio进行了人工智能风险的对话。他们得出的一致意见是,阐明AI可能带来重大风险的具体场景。接下来,一起来看看两位AI大佬都具体讨论了什么。急需共识!首先,Hinton提出,最重要的是——共识。他表示,现在整个AI社群缺乏一种统一的共识。就像气候科学家达成的共识一样,AI科学家同样需要。在Hinton看来,之所以我们需要一个共识,是因为如果没有的话,每个AI科学家各执一词,那么政府和政策制定者就可以随心从其中选择一个符合自身利益的观点作为指导。这显然会失去公允性。而从目前的情况来看,AI科学家之间的不同观点差异化很大。Hinton认为,如果我们各执一词的局面能快点过去,大家都能达成一致,共同接受AI可能带来的某些主要威胁,认识到规范AI发展的紧迫性,就好了。吴恩达赞成Hinton的观点。虽说他现在还不觉得AI界差异化大到分裂,但好像在慢慢往那个方向演变。主流AI界的观点非常两极分化,各阵营之间都在不遗余力地表达诉求。不过在吴恩达看来,这种表达更像一种争吵,而不是和谐的对话。当然,吴恩达对AI社群还是有些信心的,他希望我们能共同找到一些共识,妥善进行对话,这样才能更好地帮助政策制定者制定相关计划。接下来,Hinton聊到了另一个关键问题,也是他认为目前AI科学家们难以达成某个共识的原因——像GPT-4和Bard这种聊天机器人,究竟理不理解他们自己生成的话?有些人认为AI懂,有些人认为它们不懂,只是随机鹦鹉罢了。Hinton认为,只要这种差异还存在,那么AI界就很难达成一个共识。因此,他认为当务之急就是厘清这个问题。当然,就他自己来讲肯定是认为AI懂的,AI也并不只是统计数据。他也提到了诸如YanLeCun等知名科学家认为AI并不能理解。这更加凸显了在这个问题上调和清楚地重要性。吴恩达表示,判断AI究竟是否能理解并不简单,因为好像并不存在一个标准,或者某种测试。他自己的观点是,他认为无论是LLM也好,其它AI大模型也罢,都是在构建一种世界模型。而AI在这个过程中可能会有些理解。当然,他说这只是他目前的观点。除此以外,他同意Hinton的说法,研究人员必须先就这个问题达成一致,才能继续聊后面的风险、危机那堆东西。Hinton接着表示,AI根据数据库,通过前面的单词判断、预测下一个单词的生成,这件事在Hinton眼中就是理解的一种。他认为这和我们人脑思考的机制其实差不了多少。当然,究竟算不算理解还需要进一步的讨论,但最起码不是随机鹦鹉那么简单。吴恩达认为,有一些问题会让持不同观点的人得出不同的结论,甚至推出AI将会灭绝人类。他表示,想要更好地理解AI,我们需要更多去了解,更多去讨论。这样才能建设一个包含着广泛共识的AI社群。LeCun双手赞成,再提“世界模型”前段时间,在全世界呼吁暂停超强AI研发期间,吴恩达与LeCun开直播就此话题展开了讨论。他们同时反对暂停AI是完全错误的,汽车刚发明时没有安全带和交通信号灯,人工智能与先前的技术进步之间没有本质上的差异。这次,LeCun就吴恩达和Hinton对话,再次提出了自己的“世界模型”,以及当前人工智能连阿猫阿狗都不如。我们都同意,我们需要在一些问题上达成共识。我同意GeoffreyHinton说的,即LLM有“某种程度”的理解力,还有称它们“只是统计数据”是一种误导。LLM对世界的理解是非常肤浅的,很大程度上,是因为它们纯粹是在文本上训练的。从视觉中学习世界如何运作的系统,将对现实有更深刻的理解。其次,自回归LLM的推理和规划能力非常有限。我认为,如果没有(1)从视频等感官输入中学习“世界模型”,(2)一个能够推理和规划的架构(不仅仅是自回归),我们不可能接近人类水平的人工智能(甚至是猫级人工智能)。现在,如果我们有能够规划的架构,它们将是“目标驱动的”:它们的规划将通过在推理时(不仅仅是训练时)优化一组目标来工作。这些目标可以包括使这些系统安全和顺从的“护栏”,即使它们最终拥有比人类更好的世界模型。然后,问题变成了设计(或训练)好的目标函数,以保证安全和效率。这是一个困难的工程问题,但并不像有些人说的那样难。LeCun的观点立马遭到了网友的反驳:感官对人工智能理解的重要性被高估了。无论如何,我们所有的感官都简化为电化学信号,供大脑处理。文本摄取是一种元感觉,可以描述来自触觉、视觉、嗅觉的信息……摄取大量元感官文本,已经让像必应(Sydney版)这样的LLM有能力,以一种优于多数人的方式表达生活和世界。因此,我认为一种重要的理解能力已经存在,尽管时隐时现。而且更多地是由于资源限制,以及处理人员有意设置的沙盒,而不是缺乏感官数据。我认为是时候团结起来,为社会和人工智能的进步而努力了。想想吧,你还是baby人工智能。我们难道不想教那个孩子如何成为技术有机的统一者,而不是世界上的野兽主义者?当他变得有知觉时,他们不仅会更快乐,而且世界也不会陷入战争。看看泰恩河畔的纽卡斯尔。如此短暂的和平时期,但创造的美丽是伟大的。而吴恩达和Hinton所说的共识,目前来看似乎不太可能。不是你我个人能力所及,需要所有人有这样的意愿。还有网友称,这是相当有争议的谈话。我确实想知道,当我教2岁的孩子说话时,他的行为更像随机鹦鹉,还是真的理解上下文?或者两者兼而有之?因为他的上下文向量比LLM丰富得多(文本、语气、面部表情、环境等)。但是我确实想知道,如果一个人关闭了另一个人的所有感官,唯一可用的输入是一些“文本嵌入”(文本输入->神经刺激),那个人会表现得更像随机鹦鹉,还是能理解上下文?Hinton:超级AI比预期来得快离职Google后的Hinton,已经全身心投入AI安全。6月10日,Hinton在智源大会上再次谈及AI风险。如果一个大型神经网络能够模仿人类语言获取知识,甚至可以自取自用,会发生什么?毋庸置疑,因为能够获取更多的数据,这个AI系统肯定要超越人类。最坏的情况便是,不法分子会利用超级智能操纵选民,赢得战争。另外,如果允许超级AI自己制定子目标,一个子目标是获得更多权力,这个超级AI就会为了达成目标,操纵使用它的人类。值得一提的是,这样超级AI的实现,便可通过“凡人计算”(mortalcomputation)。2022年12月,Hinton曾发表的一篇论文TheForward-ForwardAlgorithm:SomePreliminaryInvestigations在最后一节提到了“凡人计算”。如果你希望万亿参数神经网络只消耗几瓦特的电,“凡人计算”可能是唯一的选择。他表示,如果我们真的放弃软件和硬件的分离,我们就会得到“凡人计算”。由此,我们可以使用非常低功耗的模拟计算,而这正是大脑正在做的事情。“凡人计算”能够实现将人工智能与硬件紧密结合的新型计算机。这意味着,未...PC版:https://www.cnbeta.com.tw/articles/soft/1364821.htm手机版:https://m.cnbeta.com.tw/view/1364821.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人