@逮獭科技:在我还完全不懂计算机的年代,曾经在报纸上看到过学术界畅谈「海量内存」时代,当时电脑也就几M内存了不起了,科学家们幻想

@逮獭科技:在我还完全不懂计算机的年代,曾经在报纸上看到过学术界畅谈「海量内存」时代,当时电脑也就几M内存了不起了,科学家们幻想着4GB内存是多么的奢侈,将如何改变计算。后来4G内存稀松平常了,所谓的革命没看到,倒是Java和JavaScript这些反革命崛起了,4G内存的电脑常常感觉还没有当年的640K跑的快。 #抽屉IT

相关推荐

封面图片

都说板载内存好 却没几个人愿意买单?

都说板载内存好 却没几个人愿意买单? 而为了追求纤薄时尚、长续航,笔记本厂商可谓是绞尽脑汁,将电脑内部每一寸空间都压榨到极致。其中,采用板载内存设计成为了一种常见做法。而随着这种“焊死内存”的做法逐渐延伸到追求性能和扩展性的游戏本上时,便引来了更多消费者的疑议。↑传统插槽式内存(可替换升级)↑板载内存(不可替换升级)板载内存 既不省心又不省钱?板载内存的起源可以追溯到苹果MacBook系列笔记本电脑,起初是为了节省空间、提高能源效率、优化生产流程等目的。板载内存的争议点主要集中在其缺乏升级性、消费者权益问题,以及维修难度增加等方面。板载便意味着用户将失去内存升级的灵活性和便利性,以往很方便替换、升级的硬件变成了“一锤子买卖”。于是,当我们购买电脑时,便要英明地预估未来对于内存和硬盘容量的需求度。如果对此不确定,只能多花些预算去选择原厂高内存、硬盘的机型配置以确保电脑整机拥有更久的使用寿命。以苹果MacBook电脑为例,内存和硬盘容量是关键的购买选配项,但它们的价格却贵如“黄金”每增加16GB内存或256G硬盘容量就要增加1000元以上的支出,价格远超出行业标准定价。我们往往不得不为了解决未来的焦虑而多花很多钱。↑升级芯片规格只要750元而当我们未来要进行更大计算量的工作时,即便当初已经花重金选购了大内存版本,但内存和硬盘容量仍有不足的风险。电脑除了内存容量不足以外,哪儿都没有毛病,但就是因为无法扩充内存容量而导致软件经常闪退,让电脑不得不在计划外进行报废!另外,一旦内存和硬盘出现故障,维修成本和难度也会大幅上升。对用户来说,板载内存似乎是一个弊远大于利的事情,多花钱不说,还可能不好用。那么为什么它却变成了笔记本设计趋势了呢?抛开内存成为某些厂商的生意经以外,板载内存确实有助于制造出更薄、更轻的笔记本电脑。另外,板载内存的成本较低,生产过程更加简单和高效,这有助于降低生产成本。此前惠普的体验工程高级总监 Haval Othman给出回应表示,板载内存可以:1.节省笔记本内部空间。2.生产成本更低、且生产难度降低。3.内存速度更快、更高效。4.电池更加耐用。随着内存迭代,频率不断攀升,SO-DIMM 接口对于这种高带宽的内存显然是力不从心了,在板载内存上面现如今已经突破到 8000MT/s 的大关。普通 SO-DIMM 只能限制在主流的4800MT/s-64000 MT/s 左右,频率对比板载内存确实少了一大截。大容量内存更易让消费者产生正向感知大幅降低发热和耗电的 LPDDR内存对电气信号抗干扰要求就更高,显然板载内存的形式要优于传统插槽形式。不过,如果你以为板载内存能让所有人都对系统性能有感知性的提升,那可就有些天真了。实际上,除非你是做一些超级专业的工作或追求极致性能的玩家,否则你很难感受到内存频率带来的这种微小的性能差异。反倒是内存容量的大小对于用户应用效率的影响更大。此前,PConline也做过相关测试,在分别使用单条内存、双条内存与双条大内存的前提下,对不同负载的执行效率进行测试,大内存带来的应用效率收益十分明显,尤其对于做影视剪辑或3D建模的同学来说,往往升级一条内存条就能解决燃眉之急,对于游戏发烧友来说,情况也是如此。当年就有一批“8G妥妥够用”的同学,在玩《巫师3》等3A大作的时候就被内存容量拖了后腿,好在当时的游戏本还都可以升级内存,只花了几百块钱就解决了烦恼。如今随着本地AIGC的爆火,内存需求更是雪上加霜,当用户选择了小容量板载内存的产品时,恐怕只能怀着沉甸甸的银子去寻找新的伙伴了。另外,我们不可否认板载内存提升了电脑结构稳定性和耐久度。毕竟少了可拆卸部件,整体的结构坚固度自然就高了一些。尤其对于笔记本电脑这种需要随身携带的设备来说,耐用性可是一个重要的考量因素。可反过来看,以前如果我们电脑的内存条出了问题,只需再买一条新的就搞定了。可如今板载内存一旦损坏就必须把整个主板卸下来换新,这可不是普通消费者能玩得转的活儿。加上主板的费用,保修期一过,修理的支出往往高得吓人。更完美的选择?对于这场板载内存的争议,我的态度其实是既不能全盘否定,也不能过于偏激。我们要看到目前板载内存确实给消费者带来一些不便,但追求轻薄机身和优化生产效率也是笔记本厂商必须权衡的现实考量。更重要的是,科技发展没有止境,未来新技术的出现,或许能让所有纠葛迎刃而解。比如最近获批的 CAMM2 内存标准,它不仅集成了内存和插槽两种设计,而且容量和频率都有了大幅提升。目前,CAMM2内存基于DDR5、LPDDR5和LPDDR5X标准,容量高达256GB。CAMM2内存与多数人传统观念中的“内存条”有着很大的区别,更像是一块焊接了内存颗粒及主控的纤薄PCB。在安装时,只需要将PCB版放入指定的区域中并拧上固定螺丝即可iFixit 曾拆解了联想 ThinkPad P1 Gen 7 移动工作站,可以看到其配备了 LPCAMM2 内存模组,可以不降低 LPDDR 的能效情况下实现可插拔。从图片上看,有三个限位孔和三个螺丝固定,底座则是类似于 CPU 的 LGA 针脚。另外,每个LPCAMM2 内存默认都是真·双通道设计。相对比于传统的 SO-DIMM,LPCAMM2 内存节约了 64% 的空间,降低了 57% 的功耗。实现了 8533MT/s 的传输速度。目前CAMM2已经获得了镁光、三星、海力士及龙芯中科等厂商的支持,基本上囊括了目前主要的内存制造商。镁光也已经推出了零售的产品,64GB LPDDR5X-7500 售价在 2300 元左右。总的来说,板载内存的兴起反映了笔记本电脑行业的发展趋势,即追求更轻薄、更高效的设备。然而,这一趋势也带来了不少挑战,尤其是对于那些希望升级硬件的用户。我们也期待未来的CAMM2内存能够解决当前的限制,为用户提供更多的选择和灵活性。 ... PC版: 手机版:

封面图片

英伟达和AMD争夺人工智能控制权

英伟达和AMD争夺人工智能控制权 黄仁勋(Jensen Huang)和苏姿风现在是美国先进科技公司的名人。本周,在全球最大的计算机大会上,他们在连续展示中采用了不同的方式来展示自己的专业知识。英伟达的首席执行官反复强调,这家市值2.8万亿美元的公司在加速器领域占据主导地位,OpenAI和微软公司(Microsoft Corp.)依靠加速器来构建ChatGPT等生成式人工智能服务。黄甚至还调侃了一款设想于2026年推出的芯片,他将其命名为Rubin以帮助发现暗物质的美国女性薇拉·鲁宾命名。该芯片将接替布莱克威尔家族,是维持其失控的领导地位的关键。在周日的两小时演讲中,黄仁勋占据了大部分时间,而AMD的苏则选择让她的演讲更像是一个团队的努力。她从惠普公司(HP Inc.)首席执行官恩里克·洛雷斯(Enrique Lores)那儿请来了一批知名合伙人,并向联想集团(Lenovo Group Ltd.)的卢卡·罗西(Luca Rossi)传递了公司在设计神经处理器方面的重点,这是一种可以直接从笔记本电脑上运行人工智能服务的芯片。在她的电脑展演讲中,华硕电脑有限公司(Asustek Computer Inc.,简称:华硕)曾一度表示,她将继续在国际电脑展上发言。英伟达董事长施崇棠称她为“骄傲”这一称呼通常与英伟达的黄联系在一起。英伟达目前的市值约为AMD的10倍。“人们将英伟达视为詹森的化身。“虽然丽莎是AMD的救世主,但她非常清楚,这与她周围的每个人都有关,”咨询公司More Than Moore的首席分析师伊恩·卡斯特(Ian Cutress)说。“AMD的业务仍有劣势因素,在人工智能方面更是如此。”全球各地有数百人参加和数千人观看了连续的演示文稿,突显了这项技术日益增长的利害关系,这项技术有可能重新定义一系列行业,并创造出几乎可以通过简单命令立即生成视频和其他内容的新设备。竞争中也有个人因素。苏和黄不仅是同乡,而且都出生在沿海大约180万人口的同一个城市,是远亲。这并没有使任何一方更愿意向另一方让步。苏最初是被组织者邀请来开启为期一周的会议的,这是全球科技高管最重要的峰会之一。相反,这位英伟达首席执行官在大会正式开幕前的周日晚上组织了自己的演讲,讲述了这家芯片制造商的战略计划。黄在一年前的国际电脑展上做了主题演讲,在会议开幕前几个小时在大学发表了演讲,从他最接近的竞争对手那里抢了风头。AMD的Su周一在OpenAI的聊天机器人演示中间接提到了这一事件。英伟达首席执行官在大学的主题演讲中表示,英伟达将生成式人工智能的兴起视为一场新的工业革命,并希望随着技术向个人电脑的转变,英伟达将发挥重要作用。他回到了一年前在同一地点提出的主题,包括那些没有人工智能能力的人将被抛在后面的想法。参加Computex的代表们表示,黄仁勋的表现证明了英伟达的持续统治地位对于AMD或任何其他竞争对手来说,这一地位似乎很难在短期内撼动。一位基金经理表示,尽管首席执行官没有详细说明2026年将推出的芯片,但黄仁勋引起了很多关注。周一,英伟达在纽约的股价上涨4.9%,今年以来累计上涨132%。AMD下跌2%。英伟达正在向客户出售一套完全专有的系统,企业可以在该系统中购买其芯片、网络设备以及在他称之为“人工智能工厂”的数据中心中运行先进人工智能开发所需的一切东西。而AMD则鼓吹开放标准,使其硬件能够与英特尔(Intel Corp.)等竞争对手的硬件实现互操作。黄说,即将推出的Rubin人工智能平台将使用HBM4,这是下一代高带宽内存,已经成为人工智能加速器生产的瓶颈。主要制造商SK海力士公司(SK Hynix Inc.)到2025年基本上已经售罄。除此之外,他没有提供英伟达即将推出的产品的详细规格。Futurum Group首席执行官兼首席分析师丹•纽曼(Dan Newman)表示:“把Rubin和Rubin Ultra发掘出来是非常聪明的,这表明他致力于每年更新一次。”“我觉得他最清楚地强调了创新的节奏,以及公司对技术极限最大化的不懈追求,包括软件、工艺、包装和合作伙伴关系,以保护和扩大其护城河和市场地位。”但苏指挥了一个更广泛、明星云集的配角阵容。与她一同登台的还有微软Windows业务负责人帕万·达乌卢里(Pavan Davuluri)。达乌卢里是微软的关键领导人,外界认为微软在生成式人工智能革命中抢在了谷歌(Google)和百度(Baidu Inc.)前面。她和她的合作伙伴利用他们在Computex上的插槽展示了新款笔记本电脑,该笔记本电脑带有人工智能增强功能,名为Copilot+。这些即将上市的设备大多数都基于NPU,它们在处理人工智能任务时更有效,从而有助于延长电池寿命。高通公司(Qualcomm Inc.)是最早推出Copilot+ pc的公司之一,但AMD的回应将在7月份上市。英伟达没有类似的产品。苏在结束她的主题演讲时,回到了一个关键的竞争领域:数据中心和人工智能培训。为了配合黄的年度升级时间表,她宣布了2025年和2026年的新人工智能芯片,并承诺加快公司半导体的改进速度。“在我看来,两人的主要区别在于,黄仁勋不仅是技术和有远见的人,他还是一名推销员。苏姿风更注重执行,”HotTech Vision and Analysis首席分析师戴夫·阿尔塔维拉(Dave Altavilla)说。“她有自己的工作要做,她们正在挑选重要的领域,而数据中心显然是高利润的领域。” ... PC版: 手机版:

封面图片

GTC 2024硬件一览:史上最强AI芯片GB200发布 高达2080亿晶体管

GTC 2024硬件一览:史上最强AI芯片GB200发布 高达2080亿晶体管 今年的GTC峰会主题完全围绕AI展开,2个小时的时间,老黄又一次带来了AI的变革时刻。当然除了老黄的开幕演讲外,后面还有900多场鼓舞人心的会议在等着你。同时此次GTC大会还吸引了超过200家展商,汇聚了数千名不同行业领域的从业人员一同参与。丰富多彩的技术分享、越见非凡的创新技术,称它是AI的盛会都不为过。想必你也好奇老黄究竟在GTC上带来了什么惊喜吧,别着急,本篇带你一睹GTC峰会上的那些硬件产品。见证AI的变革时刻峰会伊始,我们熟悉的皮衣刀客准时出场。一上来就直奔今天的主题AI,并表示“加速式计算机的生产力已经到达了一个转折点,生成式AI正在加速发展,而我们需要以一种全新的方式进行计算,才能够进一步提高计算机生产力。”并且还贴心的展示了其自己亲手画出的关于计算机生产力的演变流程,最后一项正是今天的重点!改变形态的Blackwell GPU没错,老黄在GTC宣布推出新一代GPU Blackwell。这里先介绍一下Blackwell架构,此前NVIDIA推出的显卡一般是两种架构,其中游戏显卡例如我们熟悉的RTX 40系则是Ada Lovelace架构,而面向AI、大数据等应用的专业级显卡则采用Hopper 架构。而老黄在大会上则表示“Blackwell不是一个芯片,它是一个平台的名字。”意思是Blackwell架构将同时用于以上两种类型的产品。借助这一架构,NVIDIA将推出涵盖多个应用领域的显卡,即RTX 50系显卡也会是这个架构。并且从老黄手上的芯片可以看出,新的Blackwell GPU的体积明显比上代Hopper GPU要更大一些。至于这个架构名字的由来,则要追溯到美国科学院首位黑人院士、加州大学伯克利分校首位黑人终身教授戴维·布莱克维尔(David Blackwell),它是著名的数学家、统计学家,不过很可惜的是这位教授在2010年因病去世。恐怖的2080亿晶体管言归正传,让我们继续关注此次Blackwell GPU。“我们需要更大的GPU,如果不能更大,就把更多GPU组合在一起,变成更大的虚拟GPU。”老黄在GTC上也确实这么干了。Blackwell架构的首个GPU为B200,由于目前4nm制程工艺已经接近极限,所以NVIDIA也玩起了“拼图”,B200采用台积电的 4 纳米(4NP)工艺蚀刻而成,由两个芯片通过NVLink 5.0组合在一起,以10TB每秒的满血带宽互联,总的晶体管数量更是达到了恐怖的2080 亿。第二代Transformer引擎除了芯片形态的变化外,Blackwell还有5大创新,首先就是第二代Transformer引擎。它支持FP4和FP6精度计算。得益于此,Blackwell GPU的FP4与FP6分别是Hopper的5倍与2.5倍。第五代NVLink互连第五代NVLink互连则是将多个Blackwell GPU组合起来的重要工具。它与传统的PCIe交换机不同,NVLink带宽有限,可以在服务器内的GPU之间实现高速直接互连。目前第五代NVLink可每个GPU 提供了1.8TB/s双向吞吐量,确保多达576个GPU之间的无缝高速通信。RAS可靠性引擎这个RAS可靠性引擎则是基于AI实现,Blackwell 透过专用的可靠性、可用性和可维护性 (RAS) 引擎,可增加智慧复原能力,及早辨认出可能发生的潜在故障,尽可能缩短停机时间。Secure AI安全AI功能Secure AI负责提供机密运算功能,同时Blackwell也是业界第一款支持EE-I/O的GPU,它可以在不影响性能的前提下,维护你的数据安全,这对于金融、医疗以及AI方面有极大作用。专用解压缩引擎最后一项创新技术则是关于解压缩层面,资料分析和资料库工作流程此前更多是仰赖CPU 进行运算。如果放到GPU中进行则可大幅提升端对端分析的效能,加速创造价值,同时降低成本。Blackwell配备了专用的解压缩引擎,使用过程中可以配合内置的Grace CPU实现每秒900 GB的双向频宽,并且还能兼顾最新的压缩格式 (如 LZ4、Snappy和Deflate等)。超级核弹GB200而两个B200 GPU与Grace CPU结合就成为今天“火热”的GB200超级芯片。这款超级芯片的性能更加惊人,你以为H100已经很快了?不!GB200更快,过去,在90天内训练一个1.8万亿参数的MoE架构GPT模型,需要8000个Hopper架构GPU。现在,你只要2000个Blackwell GPU就可以完成。官方称,在标准的1750亿参数GPT-3基准测试中,GB200的性能是H100的7倍,提供的训练算力是H100的4倍。不止是性能更快更强,Blackwell GPU还相当节能。还是同样的操作,90天内训练一个1.8万亿参数的MoE架构GPT模型,8000个Hopper GPU要耗费15兆瓦功耗,如今的Blackwell GPU仅需1/4的能耗就能实现。如果你需要更强劲的GPU,NVIDIA也面向有大型需求的企业提供成品服务,提供完整的服务器。例如:GB200 NVL72,它将36个CPU和72个GPU插入一个液冷机架中,总共可实现720 petaflops的AI训练性能或1,440 petaflops(1.4 exaflops)的推理。与相同数量的72个H100相比,GB200 NVL72的性能绝对是逆天的存在,大模型推理性能可以提升30倍,并且成本和能耗只有前者的1/25。当然,最炸裂的要数适用于 DGX GB200 的 DGX Superpod,它将八个GB200 NVL72合二为一,总共有288个CPU、576个GPU、240TB内存和11.5 exaflops的FP4计算能力。老黄更是在GTC上直言“DGX Superpod就是AI的革命工厂!”结语以上就是本次GTC 2024的硬件相关报道,可能有玩家会说,怎么没有游戏显卡?其实按照过往惯例,NVIDIA并没有在GTC上推出消费级显卡的习惯。不过本次NVIDIA在GTC 2024上推出的B100显卡所使用的架构是Blackwell,上面我们也讲过了,这是一个跨越数据中心与消费级产品的架构,这也就意味着我们熟悉的GeForce显卡应该也是同一架构的产品,不出意外的话,下半年我们就有望看到心心念念的RTX 50系显卡了! ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人