为什么clash上下游的项目今天都删库或者存档了?

为什么clash上下游的项目今天都删库或者存档了? 第一个原因,昨天clash for windows删库的时候国内微博直接顶上了热搜前10,吸引火力了,众所周知,**看的就是社会影响力,某些心智不成熟的网民起到了推波助澜的作用。 第二个原因,这群人去别人fork的仓库里的commit找作者泄露的社工学痕迹,而且放到公开域里让别人传播。这也是本频道昨天让各位开发者注意隐私的原因。 出于自保,今天各作者删库后,又有阴谋论者装懂哥,说信息暴露了那么久为什么还不被抓,肯定是和**有关系,说不定有后门。 小编在这里劝各位小学生差不多得了,为了给自己彰显存在感,各种角度找茬。别人给你写工具,你就是这样对待作者的吗。而且有没有点逻辑,既然和警察有关系,为什么还要删库跑路? 某些小学生确实不配别人给他做那么好的工具

相关推荐

封面图片

TUIC作者对于删库的回应,以下为摘抄:

TUIC作者对于删库的回应,以下为摘抄: 可笑的网民,可悲的开发者 最近几天,clash for windows 停止了更新,clash core 的仓库也被作者删除了。这种事之前也发生过,但这次的后续真得既可笑又可悲。 Clash 倒下后,不知网民们出于何种想法,将这件事的热度扩散到了微博上,甚至达到了微博热搜。你们真的有考虑过开发者吗?这件事的影响已远远超过了可控范围,有多少双眼睛在盯着微博热搜?其中又有多少不怀好意呢? 大多数网名大概都是以吃瓜的角度在看这件事。没有人真的在为开发者着想,这真的非常可悲。你们如何证明 clash 作者以外的开源代理开发者们没有因为此次事件被特殊关注,人身安全受到威胁呢? 我还是将大众想得太善良了。中国人的本性就是喜欢看别人的悲剧,除非火烧到自己,否则根本不会有觉悟。我觉得我不值得将自己的任何精力贡献给这样的群体,更何况我的人身安全也受到威胁。 原文:

封面图片

#山西防疫一刀切#为什么删我的贴?

#山西防疫一刀切#为什么删我的贴? 妈妈昨夜突发脑溢血,已经失去意识,生命垂危,连夜往太原赶。北京健康宝和河北健康码都是绿的,核酸都正常。奔波了一夜,九点多在太原下高速的时候才知道,河北全域都被赋黄码了,坚决不让下高速,扣了行车证。要么返回,要么直接拉去隔离。在高速口打了多次12345,希望法外容情,给我见妈妈最后一面的情况。12345也在多方协调,可两个多小时过去了,我还在高速口,不知我还能不能再见妈妈一面,冷冷的雨中,哭得全身发抖。这算什么政策,制定政策的都没有父母,都没有遇到突发情况吗? 【补充】妈妈走了,我没见着最后一面

封面图片

《传染:为什么疾病、金融危机和社会行为会流行? (亚当·库哈尔斯基 [亚当·库哈尔斯基])》

《传染:为什么疾病、金融危机和社会行为会流行? (亚当·库哈尔斯基 [亚当·库哈尔斯基])》 亮点:揭示疾病、金融和社会行为背后的传播规律,用科学视角解读流行现象。 标签:#传播学 #传染 #科普读物 更新日期:2025-05-05 08:12:56 链接:https://pan.quark.cn/s/b5b6a662665f

封面图片

斯坦福爆火Llama3-V竟抄袭中国开源项目 作者火速删库

斯坦福爆火Llama3-V竟抄袭中国开源项目 作者火速删库 5 月 29 日,一个来自斯坦福的研究团队发布了一个能够“改变现状”的产品:Llama3-V,号称只要 500 美元(约为人民币 3650 元),就能基于 Llama3 训练出一个超强的多模态模型,效果与 GPT4-V、Gemini Ultra 、 Claude Opus 多模态性能相当,但模型小 100 倍。Github 项目链接: 项目链接: 在Twitter上迅速爆火,浏览量突破 30 万,转发超过 300 次,还冲上了“ HuggingFace Trending ”Top 5。但是没发布两天,Llama3-V 就遭遇了重重质疑。有人指出,Llama3-V 项目中有一大部分似乎窃取了清华大学自然语言处理实验室与面壁智能合作开发的多模态模型 MiniCPM-Llama3-V 2.5。MiniCPM-V 是面向图文理解的端侧多模态大模型系列。MiniCPM-Llama3-V 2.5 是该系列的最新版本。其多模态综合性能超越 GPT-4V-1106、Gemini Pro、Claude 3、Qwen-VL-Max 等商用闭源模型。OCR 能力及指令跟随能力进一步提升,并支持超过 30 种语言的多模态交互。这样的优秀性能,不仅让 MiniCPM-Llama3-V 2.5 成为受大家推崇的模型,或许也成为了 Llama3-V 的“模仿”对象。项目地址: 用户 JosephusCheung 在项目的评论区中提出问题,Llama3-V 是否在未提及的情况下使用 openbmb/MiniCPM-Llama3-V-2.5 进行了训练。而作者回复表明,Llama3-V 使用了 MiniCPM-Llama3-V-2.5 的预训练 tokenizer,并且是在它发布前就开始了这项工作。这样的解释明显出现了时间错位,加重了大家的怀疑。细扒其中猫腻此外,还有一位名为 Magic Yang 的网友也产生了质疑,他对于这两个模型的相似性也有着更深的洞察。他首先在 Llama3-V 的 GitHub 项目 Issue 中发布了他的疑问,没想到 Llama3-V 的作者们很快就删除了质疑帖。在这个 Issue 中,他首先提出,Llama3-V 与 MiniCPM- Llama3-V 2.5 具有相同的模型结构和配置文件,只是变量名不同。Llama3-V 的代码几乎完全照抄 MiniCPM-Llama3-V 2.5,只是进行了一些格式上的修改,包括但不限于分割图像、tokenizer、重采样器和数据加载部分。Llama3-V 的作者立马回复,称 Llama3-V 在架构上参考的是 LLaVA-UHD,并列出了在 ViT 和 LLM 选择上与 Mini CPM-Llama3-V 2.5 的差异。但 Magic Yang 发现,相比 LLaVA-UHD 所用的方法,Llama3-V 与 MiniCPM-Llama3-V 2.5 可谓是一模一样。特别是 Llama3-V 使用了与 MiniCPM-Llama3-V 2.5 相同的,连 MiniCPM-Llama3-V 2.5 新定义的特殊符号都“抄”上了。于是,他向作者提问,为什么 Llama3-V 在 MiniCPM-Llama3-V2.5 项目发布之前,就未卜先知似的拿到了其 tokenizer?这似乎算是追问了作者对 JosephusCheung 的回答。Llama3-V 作者回答称,他参考了 MiniCPM-V-2 的 tokenizer( 采用了新的 tokenizer 和原来版本中的特殊符号,因此 Llama3-V 的代码中保留了这个符号,但 Llama3-V 与 MiniCPM-Llama3-V2.5 是完全不同。但事实是,MiniCPM-V-2 的 tokenizer 与 MinicPM-Llama3-V2.5 完全不同,在 Hugging Face 里是两个文件,文件大小也完全不同,也不包含 Llama3-V 所用到的与 Llama 3 有关的 tokenizer。Magic Yang 还发现了 Llama3-V 的作者在 Hugging Face 上传项目时,直接导入了 MiniCPM-Llama3-V 2.5 的代码,后来才把一些文件里的名称替换为 Llama3-V。于是,Llama3-V 的作者的作者再次回复,称 Magic Yang 的指控大错特错。首先,想要运行 HuggingFace Transformer,需要给模型写配置文件,但是他们恰好发现 MiniCPM 的配置能用,因此,他们使用了与 MiniCPM 相同的配置。其二,Llama3-V 的模型架构 SigLIP 的灵感来源于 Idéfics ,作者之前也提到,Llama3-V 模型架构参考的 LLaVA-UHD 同样如此,并且在视觉代码方面,他们借鉴了 Idéfics ,并非照搬 MiniCPM。更令人惊讶的是, Magic Yang 发现 Llama3-V 项目的作者似乎并不理解他们自己的代码,或许也不明白搬来的 MiniCPM-Llama3-V 2.5 架构中的细节。感知器重采样器(Perceiver Resampler)使用的是单层交叉注意力,而非双层自注意力。然而,下图中的 Llama3-V 技术博客中的描述明显存在误解。Llama3-V 的技术博客Llama3-V 的代码此外,SigLIP 的 Sigmoid 激活功能并不用于训练多模态大语言模型,而是仅在 SigLIP 的预训练过程中使用。看来,作者对于自己的代码理解还是有很大偏差的。Llama3-V 的技术博客Llama3-V 的代码对于清华 NLP 实验室和面壁智能团队特别采集和标注,从未对外公开的专有数据,Llama3-V 的表现也非常出色。“清华简”是一种非常特殊且罕见的中国战国时期的古文字,而美国模型 Llama3-V 不仅认识中国古文字,在认错字的时候,也和 MiniCPM-Llama3-V 2.5 一模一样。有网友用 1000 张竹简图像对同类模型进行了测试,正常情况下,每两个模型之间的重叠应该为 0,而 Llama3-V 和 MiniCPM-Llama3-V 2.5 之间的重叠高达 87%。识别错误的结果 Llama3-V 和 MiniCPM-Llama3-V 2.5 也有高达 182 个重合。删库?也不管用在重重质疑之后,Llama3-V 的作者行动了。此前宣传 Llama3-V 的Twitter内容流已不可见。他还隐藏了 HuggingFace 的仓库。Magic Yang 再次发难,问 Llama3-V 的作者为何在 HuggingFace 上将模型设为私密?作者称,设为私密是为了修复 Llama3-V 的推理功能,MiniCPM 的配置与 Llama3-V 不兼容,当时 HuggingFace Transformers 无法正确地加载模型,为了避免下载模型的用户运行失败,他将进行一些修复。同样地,Llama3-V 的 GitHub 项目主页也显示为“404”。GitHub 地址: Magic Yang 与对话已经随着项目页面 404 而隐藏。但 Magic Yang 已将对话截图评论在了 MiniCPM-V 的 GitHub 页面。据网友反馈,当运行 Llama3-V 时,作者提供的代码无法与 HuggingFace 上的 checkpoint 兼容。然而,当把 Llama3-V 模型权重中的变量名更改为 MiniCPM-Llama3-V 2.5 后,就能成功运行。如果在 MiniCPM-Llama3-V 2.5 的 checkpoint 上添加一个简单的高斯噪声,就会得到一个在各个测试集上的表现都与 Llama3-V 极为相似的模型。有网友上传了 Llama3-V 删库前的检查点,大家可以自行测试验证。检查点链接:“抄袭”源于对队友 Mustafa 的盲信。 ... PC版: 手机版:

封面图片

#微博辟谣# 官方已经打假!为什么还有人说考这些证书可以落户、抵扣个税、入选专家库?

#微博辟谣# 官方已经打假!为什么还有人说考这些证书可以落户、抵扣个税、入选专家库? - 转发 @解放日报: 【为什么还有人说考这些证书可以落户、抵扣个税、入选专家库?】“考证辅导”“考证培训”是社交平台上的热门话题,上海辟谣平台调查发现,尽管权威部门已经列出了目录,但仍有不少账号涉嫌推广假证书、山寨证书。网页链接解放日报的微博视频 via 微博辟谣的微博 Invalid media: video

封面图片

所以说这就是一旦开源项目沾到某些高雅人群的后果,和clash上下游集体删库后被骂自私性质是一样的。可能是直接提供二进制可执行文件

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人