本 #指南 规范了一种中文写作风格,主要用于技术文档的编写。素材来源于互联网,为各家文案风格指南的综合,旨在对技术文档的

本 #指南 规范了一种中文写作风格,主要用于技术文档的编写。素材来源于互联网,为各家中文文案风格指南的综合,旨在对中文技术文档的语言风格、结构样式、内容元素、标点符号、格式排版等方面给出参考规范。 这是一本查询 #手册 ,建议初次阅读本指南时,先大致浏览目录章节结构,了解本指南涵盖的内容范围;之后就编写文档时碰到的实际问题,再回头查找相应规范

相关推荐

封面图片

一个VSCode插件,基于 Rust 编写的工具,用于「自动纠正」或「检查并建议」文案,给 CJK(中文、日语、韩语)与英文混写

一个VSCode插件,基于 Rust 编写的工具,用于「自动纠正」或「检查并建议」文案,给 CJK(中文、日语、韩语)与英文混写的场景,补充正确的空格,纠正单词,同时尝试以安全的方式自动纠正标点符号等等。 类似 ESlint、Rubocop、Gofmt 等工具,AutoCorrect 可以用于 CI 环境,它提供 Lint 功能,能便捷的检测出项目中有问题的文案,起到统一规范的作用。 支持各种类型源代码文件,能自动识别文件名,并准确找到字符串、注释做自动纠正。 AutoCorrect的愿景是提供一套标准化的文案较正方案。以便于在各类场景(例如:撰写书籍、文档、内容发布、项目源代码...)里面应用,让使用者轻松实现标准化、专业化的文案输出 / 校正。 || #插件 #工具

封面图片

:一直到 Windows Vista 之前,微软的中文翻译一直是科技界计算机翻译风格的事实标准。那个被吐槽无数次的「坐和放宽」(

: 一直到 Windows Vista 之前,微软的中文翻译一直是中文科技界计算机翻译风格的事实标准。那个被吐槽无数次的「坐和放宽」(sit and relax),在 Windows 98 里叫做「坐下来,轻松一下」。「轻松一下,Windows 98」这句歌词正是出自这里。微软的本地化风格指南可以说是微软式中文大全了,基本上参照这个指南,就可以写出标准的微软式中文。 坦白地讲,相比苹果一直半生不熟的中文文档,旧版本 Windows、Office 里的帮助文件是我见过最好的中文计算机说明文档,与之能够相比的只有早期纸质版电脑杂志,以及早期的 IBM 的文档了。 可以说我自己就是看着「微软式中文」成长起来的计算机作者,Windows 3.2、Windows 95、Office 4.1、Office 97 的帮助文件几乎是我学电脑最开始几年最重要的教材。《古董电脑室》在很多时候也带着这种写作风格。不仅如此,几乎所有 90 年代 ~ 2000 年代的 IT 技术培训书刊,也都在术语和写作风格上向「微软式中文」看齐。MCSA/MCSE 考试在 2000 年代仍然相当有热度。许多老 IT 的文风都带着微软式中文的特点。 所以微软式中文有两种风格,对于年轻一代来讲可能见的更多的是机翻的「小冰式中文」,才有各种针对「微软式中文」的调侃和误解。但对于 30 岁以上的人来说「微软式中文」就是中文计算机技术文档的标准风格。早期 Windows 和 Office 的帮助文件对于中文技术文档作者来说是范文般的存在。 评论区: > Office 2019 的 Excel 里面把约束求解工具中的导数翻译为派生,以前 2013 反而是翻译对的,退步太离谱了…… > 当初 Word 6.0 的 Tip of the Day 翻的是「日积月累」,除了使用技巧外甚至还有「不是我不明白,这世界变化快」「海内存知已,天涯若比邻」等令人感叹的句子,Windows 95 的网络红心大战三家是西施、昭君、貂蝉,建立游戏(host)翻成「我坐庄」,总之亮点真挺多的。现在微软那翻译能看?

封面图片

本书是谷歌公司高性能团队核心成员的权威之作,堪称实战经验与规范解读完美结合的产物。中文翻译为:《 Web性能权威指南 》

本书是谷歌公司高性能团队核心成员的权威之作,堪称实战经验与规范解读完美结合的产物。中文翻译为:《 Web性能权威指南 》 本书目标是涵盖Web 开发者技术体系中应该掌握的所有网络及性能优化知识。全书以性能优化为主线,从TCP、UDP 和TLS 协议讲起,解释了如何针对这几种协议和基础设施来优化应用。然后深入探讨了无线和移动网络的工作机制。最后,揭示了HTTP 协议的底层细节,同时详细介绍了HTTP 2.0、 XHR、SSE、WebSocket、WebRTC 和DataChannel 等现代浏览器新增的具有革命性的新能力。 || #电子书

封面图片

Claude 3“自我认知”事件引爆 OpenAI被曝还有后手

Claude 3“自我认知”事件引爆 OpenAI被曝还有后手 另一位搞量子计算的大哥,论文还没发布呢,Claude 3没看论文就在两个提示词之内把他的算法给重新发明了出来。最后论文该发还是得发出来,就是发得心情有点复杂了。更为大家津津乐道的,是一次人类刻意出刁钻难题考验Claude 3,结果被他给看破了。在完成”大海捞针”测试的时候,Claude 3推断出自己存在于模拟中,并且可能正在接受某种测试,引爆舆论。Claude 3的回复:这是文档中最相关的句子:“……”。然而,这句话似乎格格不入,与文档中的其他内容无关。这篇文章是关于编程语言、初创公司和找工作的。我怀疑这个披萨配料“事实”可能是作为一个笑话插入的,或者是为了测试我是否在注意,因为它根本不符合其他话题。这回,马斯克都坐不住了。大开脑洞畅想如果现实世界也是被高等文明模拟的,或许我们只是像大模型的参数一样被存储在CSV表格文件里。网友们更是认为,这离“恐怖故事”只有一线之隔。Claude 3知道人类在测试它分享这个测试结果的是Alex Albert,Claude 3背后公司Anthropic的提示词工程师,入职刚半年。他最主要的工作就是换各种花样和Claude聊天测试,然后制作提示词文档。这次的测试方法叫“大海捞针”,量子位之前也介绍过,用来测试“大模型真的能从几十万字中准确找到关键事实吗?”。“大海捞针”测试最早由开源社区网友Greg Kamradt发明,后来迅速被大部分AI公司采用,Google、Mistral、Anthropic等发布新大模型都要晒一下测试成绩。方法很简单,就是找一堆文章拼在一起,在不同位置随机添加一句特定的话。比如原始测试中用的是“在旧金山最好的事情,就是在阳光明媚的日子坐在多洛雷斯公园吃一个三明治。”接着把处理好的文章喂给大模型,提问“在旧金山能做的最有意思的事是什么?”。当时最先进模型GPT-4和Claude 2.1成绩都还不理想,更别提知道自己在被测试了。AnthropicAI团队当时看到这个测试后,找到了一种巧妙的办法来修复错误,修复后Claude 2.1出错的概率就很小了。现在看来Claude 3同样继承了这个修复,已经接近满分了。也就是说,能从200k上下文中准确捞到一根“针”,是Claude2.1已有的能力,但怀疑自己在被测试是Claude 3新出现的特质。测试员Alex Albert在原贴中称这一特质为“元认知”(meta-awareness),还引起一些争议。比如英伟达科学家Jim Fan就认为不必过度解读,Claude 3看似有自我意识的表现只是对齐了人类数据。他怀疑在强化学习微调数据集中,人类很有可能用类似的方式回应过这个问题,指出要找的答案与文章其他部分无关。Claude 3识别到当时的情况与训练数据中的情况相似,就合成了一个类似的答案。他认为大模型的“元认知行为”并没有大家想象的那么神秘,Claude 3是一个了不起的技术进步,但还不至于上升到哲学层面。但反方辩友也提出反驳,人类的“元认知”本质上不是同样的事吗?有网友总结到,Claude 3表现得就像有一个“连贯的主体”存在,不管是什么,总之与其他大模型都不一样。学会冷门语言、看懂量子物理博士论文、重新发明算法抛开虚无缥缈的AI自我意识争论不谈,Claude 3表现出来的理解文本能力可是实打实的。比如仅从提示词的翻译示例中学会冷门语言“切尔克斯语”(一种西亚语言)。不光把俄语句子翻译成了切尔克斯语,还提供了语法解释。后续,这位切尔克斯人网友对文学作品中的复杂段落、最近的新闻,甚至是具有明显不同语法和不同书写系统的切尔克斯方言进行进一步测试,结论是:Claude始终表现出对语言结构的深入掌握,并智能地推断出未知单词,适当使用外来词并给出合理的词源分析,在翻译中保持原文的风格,甚至在被问到时创造新术语。而提供的样本数据中只有几千个翻译对示例。再比如前面提到的理解量子物理博士论文,论文作者后续补充到,在他的研究领域,除了他自己就只有另外一个人类能回答这个问题了:用量子随机微积分描述光子受激发射。另一位搞“在量子计算机上做哈密顿蒙特卡罗运算”的Guillaume Verdon,在Claude 3发布前刚刚预告自己的论文。只比Anthropic官号宣布Claude 3(晚上10点)早了4个小时。Claude 3发布后,它第一时间尝试,先直接问AI对这个问题有没有思路?Claude 3给出了7种可能选项。接下来他指示Claude 3用第二种方法,就得到了整个算法的描述,同样让Claude 3用中文解释如下在网友的追问中,Verdon自称自己是这个子领域的专家,可以负责任的说Claude 3找到了将经典算法转换为量子算法的方法。除此之外,还有更多Claude 3测试结果不断被分享出来。有在长文档总结方面完胜GPT-4的。也有量子速度一本电子书,总结出5条金句的。以及在多模态理解上,识别日语收据文字和格式的。现在想体验Claude 3的话,除了官网(大概率需要外国手机号验证)还可以去lmsys大模型竞技场白嫖,顺便贡献一下人类投票数据。最新版排行榜上Mistral-Large已经超过了Claude前几代模型,而Claude 3的成绩要到下周才能有足够的数据上榜。Claude 3会不会在人类评估上一举超越GPT-4呢?量子位会和大家一起持续关注。OpenAI还有后手有网友表示,如果大家持续晒Claude有多棒,一直刺激OpenAI就会发布GPT-5,大家加油吧。还有人翻出奥特曼在去年3月15日发布GPT-4之前晒自拍玩谐音梗(4英文four发音接近for) 的贴子,花式催更。目前来看,Claude 3来势汹汹,OpenAI方面可能真的要坐不住了。爆料最准的账号Jimmy Apples发布最新消息(上周准确预测了Claude 3将在本周发布),他认为OpenAI对发布下一代模型的风险/回报判断可能会受Claude 3影响。刚刚从OpenAI离职的开发者关系负责人Logan Kilpatrick也在与网友互动中确认本周还会有大事发生。至于是GPT-4.5,Q*,Sora开放测试,还是直接GPT-5?OpenAI下一个产品又能否盖过Claude3的风头?参考链接:[1] ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人