iCloud+ 将加入 6TB 及 12TB 计划

iCloud+ 将加入 6TB 及 12TB 计划 新推出的 6TB 方案定价为每月 29.99 美元,而 12TB 方案则是每月 59.99 美元。相较之下,Google 的 5TB 和 10TB 云端储存方案分别是每月 24.99 美元和 49.99 美元。 新增的 iCloud 储存方案预计将于 9 月 18 日(星期一)正式推出 标签: #Apple #iCloud 频道: @GodlyNews1 投稿: @Godlynewsbot

相关推荐

封面图片

Apple 推出全新 iCloud+ 方案,拓展 iCloud 能力

Apple 推出全新 iCloud+ 方案,拓展 iCloud 能力 今日起,Apple 用户可选择两种全新 iCloud+ 方案:每月 RMB 198 的 6TB 方案和每月 RMB 398 的 12TB 套餐。 所有 iCloud+ 方案均提供下列功能: 隐藏邮件地址为用户生成独立随机的邮件地址,用于订阅新闻通讯、获取优惠和各种通知,而不必透露自己的私人邮件地址。 HomeKit 安防视频可供用户录制并查看家庭安防视频,采用端到端加密格式,确保仅有用户和他们共享的对象能够看到视频。 通过家人共享,所有 iCloud+ 方案均可与家庭群组中的最多 5 名其他用户共享。

封面图片

2023 年 1月 1 日及以后激活的 iPhone/iPad 将享受 6 个月的免费 iCloud+ 服务。

2023 年 1月 1 日及以后激活的 iPhone/iPad 将享受 6 个月的免费 iCloud+ 服务。 您的 iCloud+ 订阅将按照中国大陆地区当前定价自动按月付费续订。 如不希望付费自动续订,请在免费试用期结束前至少 1 天取消订阅。

封面图片

从今天起,购买 Dropbox 高级计划并拥有三个激活许可证的客户将获得 15TB 的团队共享存储空间,足够存储约 1 亿份文档

从今天起,购买 Dropbox 高级计划并拥有三个激活许可证的客户将获得 15TB 的团队共享存储空间,足够存储约 1 亿份文档、400 万张照片或 7500 小时的高清视频。每增加一个激活许可证将获得 5TB 的存储空间。 每个许可证使用少于 35TB 存储空间的客户占高级客户的 99%将可以保留其团队在收到通知时正在使用的总存储空间,外加额外 5TB 的共享存储空间,为期五年,无需对其现有计划支付额外费用。 对于需要额外空间的客户,新客户将于 9 月 18 日购买存储附加组件,现有客户则于 11 月 1 日购买 1TB 存储附加组件,如果每月购买,价格为 10 美元/月;如果每年购买,则价格为 8 美元/月。 我们将于 11 月 1 日开始逐步将现有客户迁移到新政策。您今天无需执行任何操作。 我们将在计划迁移日期之前至少 30 天通知所有客户。 via 标签: #Dropbox #无限空间 频道: @GodlyNews1 投稿: @Godlynewsbot

封面图片

AI推理速度提升超10倍 Groq LPU能否取代英伟达GPU?

AI推理速度提升超10倍 Groq LPU能否取代英伟达GPU? 推理速度比GPU快10倍,功耗仅1/10据介绍,Groq的大模型推理芯片是全球首个LPU(Language Processing Unit)方案,是一款基于全新的TSA 架构的Tensor Streaming Processor (TSP) 芯片,旨在提高机器学习和人工智能等计算密集型工作负载的性能。虽然Groq的LPU并没有采用更本高昂的尖端制程工艺,而是选择了14nm制程,但是凭借自研的TSA 架构,Groq LPU 芯片具有高度的并行处理能力,可以同时处理数百万个数据流,并该芯片还集成了230MB容量的SRAM来替代DRAM,以保证内存带宽,其片上内存带宽高达80TB/s。根据官方的数据显示,Groq的LPU芯片的性能表现相当出色,可以提供高达1000 TOPS (Tera Operations Per Second) 的计算能力,并且在某些机器学习模型上的性能表现可以比常规的 GPU 和 TPU 提升10到100倍。Groq表示,基于其LPU芯片的云服务器在Llama2或Mistreal模型在计算和响应速度上远超基于NVIDIA AI GPU的ChatGPT,其每秒可以生成高达500个 token。相比之下,目前ChatGPT-3.5的公开版本每秒只能生成大约40个token。由于ChatGPT-3.5主要是基于NVIDIA的GPU,也就是说,Groq LPU芯片的响应速度达到了NVIDIA  GPU的10倍以上。Groq表示,相对于其他云平台厂商的大模型推理性能,基于其LPU芯片的云服务器的大模型推理性能最终实现了比其他云平台厂商快18倍。另外,在能耗方面,NVIDIAGPU需要大约10到30焦耳才能生成响应中的tokens,而Groq LPU芯片仅需1到3焦耳,在推理速度大幅提升10倍的同时,其能耗成本仅有NVIDIAGPU的十分之一,这等于是性价比提高了100倍。Groq公司在演示中展示了其芯片的强大性能,支持Mistral AI的Mixtral8x7B SMoE,以及Meta的Llama2的7B和70B等多种模型,支持使用4096字节的上下文长度,并可直接体验Demo。不仅如此,Groq还喊话各大公司,扬言在三年内超越NVIDIA。目前该公司的LPU推理芯片在第三方网站上的售价为2万多美元,低于NVIDIA H100的2.5-3万美元。资料显示,Groq 是一家成立于2016年人工智能硬件初创公司,核心团队来源于谷歌最初的张量处理单元(TPU)工程团队。Groq 创始人兼CEO Jonathan Ross是谷歌TPU项目的核心研发人员。该公司硬件工程副总裁Jim Miller 曾是亚马逊云计算服务AWS设计算力硬件的负责人,还曾在英特尔领导了所有 Pentium II 工程。目前该公司筹集了超过 6200 万美元。为何采用大容量SRAM?Groq LPU芯片与大多数其他初创公司和现有的AI处理器有着截然不同的时序指令集计算机(Temporal Instruction Set Computer)架构,它被设计为一个强大的单线程流处理器,配备了专门设计的指令集,旨在利用张量操作和张量移动,使机器学习模型能够更有效地执行。该架构的独特之处在于执行单元、片内的SRAM内存和其他执行单元之间的交互。它无需像使用HBM(高带宽内存)的GPU那样频繁地从内存中加载数据。Groq 的神奇之处不仅在于硬件,还在于软件。软件定义的硬件在这里发挥着重要作用。Groq 的软件将张量流模型或其他深度学习模型编译成独立的指令流,并提前进行高度协调和编排。编排来自编译器。它提前确定并计划整个执行,从而实现非常确定的计算。“这种确定性来自于我们的编译器静态调度所有指令单元的事实。这使我们无需进行任何激进的推测即可公开指令级并行性。芯片上没有分支目标缓冲区或缓存代理,”Groq 的首席架构师 Dennis Abts 解释道。Groq LPU芯片为了追求性能最大化,因此添加了更多SRAM内存和执行块。SRAM全名为“静态随机存取存储器”(Static Random-Access Memory)是随机存取存储器的一种。所谓的“静态”,是指这种存储器只要保持通电,里面储存的数据就可以恒常保持。相对之下,动态随机存取存储器(DRAM)里面所储存的数据则需要周期性地更新。自SRAM推出60多年来,其一直是低延迟和高可靠性应用的首选存储器,事实上,对于 AI/ML 应用来说,SRAM 不仅仅具有其自身的优势。SRAM 对于 AI 至关重要,尤其是嵌入式 SRAM,它是性能最高的存储器,可以将其直接与高密度逻辑核心集成在一起。目前SRAM也是被诸多CPU集成在片内(更靠近CPU计算单元),作为CPU的高速缓存,使得CPU可以更直接、更快速的从SRAM中获取重要的数据,无需去DRAM当中读取。只不过,当前旗舰级CPU当中的SRAM容量最多也仅有几十个MB。Groq之所以选择使用大容量的 SRAM来替代DRAM 内存的原因主要有以下几点:1、SRAM 内存的访问速度比 DRAM 内存快得多,这意味着 LPU 芯片更快速地处理数据,从而提高计算性能。2、SRAM 内存没有 DRAM 内存的刷新延迟,这意味着LPU芯片也可以更高效地处理数据,减少延迟带来的影响。3、SRAM 内存的功耗比 DRAM 内存低,这意味着LPU芯片可以更有效地管理能耗,从而提高效率。但是,对于SRAM来说,其也有着一些劣势:1、面积更大:在逻辑晶体管随着CMOS工艺持续微缩的同时,SRAM的微缩却十分的困难。事实上,早在 20nm时代,SRAM 就无法随着逻辑晶体管的微缩相应地微缩。2、容量小:SRAM 的容量比 DRAM 小得多,这是因为每个bit的数据需要更多的晶体管来存储,再加上SRAM的微缩非常困难,使得相同面积下,SRAM容量远低于DRAM等存储器。这也使得SRAM在面对需要存储大量数据时的应用受到了限制。3、成本高:SRAM 的成本比 DRAM要高得多,再加上相同容量下,SRAM需要更多的晶体管来存储数据,这也使得其成本更高。总的来说,虽然SRAM 在尺寸、容量和成本等方面具有一些劣势,这些劣势限制了其在某些应用中的应用,但是 SRAM 的访问速度比 DRAM 快得多,这使得它在某些计算密集型应用中表现得非常出色。Groq LPU 芯片采用的大容量 SRAM 内存可以提供更高的带宽(高达80TB/s)、更低的功耗和更低的延迟,从而提高机器学习和人工智能等计算密集型工作负载的效率。那么,与目前AI GPU当中所搭载的 HBM 内存相比,Groq LPU 芯片集成的 SRAM 内存又有何优势和劣势呢?Groq LPU 芯片的 SRAM 内存容量虽然有230MB,但是相比之下AI GPU 中的 HBM 容量通常都有数十GB(比如NVIDIA H100,其集成了80GB HBM),这也意味着LPU 芯片可能无法处理更大的数据集和更复杂的模型。相同容量下,SRAM的成本也比HBM更高。不过,与HBM 相比,Groq LPU 芯片的所集成的 SRAM 的仍然有着带宽更快(NVIDIA H100的HBM带宽仅3TB/s)、功耗更低、延迟更低的优势。能否替代NVIDIA H00?虽然Groq公布的数据似乎表明,其LPU芯片的推理速度达到了NVIDIA GPU的10倍以上,并且能耗成本仅是它十分之一,等于是性价比提高了100倍。但是,Groq并且明确指出其比较的是NVIDIA的哪款GPU产品。由于目前NVIDIA最主流的AI GPU是H100,因此,我们就拿NVIDIA H100来与Groq LPU来做比较。由于Groq LPU只有230MB的片上SRAM来作为内存,因此,如果要运行Llama-2 70b模型,即使将Llama 2 70b量化到INT8精度,仍然需要70GB左右的内存。即使完全忽略内存消耗,也需要305张Groq LPU加速卡才够用。如果考虑到内存消耗,可能需要572张Groq LPU加速卡。官方数据显示,Groq LPU的平均功耗为185W,即使不计算外围设备的功耗,572张Groq LPU加速卡的总功耗也高达105.8kW。假设一张Groq LPU加速卡的价格为2万美元,因此,购买572张卡的成本高达1144万美元(规模采购价格应该可以更低)。根据人工智能科学家贾扬清分享的数据显示,目前,数据中心每月每千瓦的平均价格约为20美元,这意味着572张Groq LPU加速卡每年的电费为105.8*200*12=25.4万美元。贾扬清还表示,使用4张NVIDIA H100加速卡就可以实现572张Groq LPU一半的性能,这意味着一个8张H100的服务器的性能大致相当于572张Groq LPU。而8张H100加速卡... PC版: 手机版:

封面图片

工厂三连发制程步步高 台积电的日本“叙事”

工厂三连发制程步步高 台积电的日本“叙事” 工厂三连发、制程步步高,台积电究竟下的是一盘什么大棋?台积电的日本叙事会如何演绎?“二厂和三厂”接二连三台积电日本一厂的顺利推进,可谓开了一个好头。此厂于2021年11月宣告建厂、2022年4月动工,两年内完成建造,于2024年2月开幕,年底量产。其中,台积电占股70%,索尼约20%、丰田集团的电装约10%。规划产能为每月5.5万片12英寸晶圆,使用22/28nm至12/16nm工艺。如果说这步棋还算是“按部就班”的话,接下来的二厂和三厂就颇有深意了。据台积电的描述,新工厂将从今年底开始建设,并于2027年投产。随着熊本二厂投入运营,整个JASM熊本厂的产能将达到每月10万片12英寸晶圆,另外可提供6/7nm的制程技术。不止如此,台积电已经在考虑将3nm工艺的生产拓展至日本。根据消息,台积电已经告知供应链伙伴,考虑建设可生产3nm芯片的“熊本三厂”。对于这一新闻,一位业内人士陈宇(化名)直言,以往台积电在外地设厂一般只会转移次两代以下的节点,举例说台积电目前最先进为3nm,那么转移到日本最高只能是16nm,但现在直接宣称将3nm工艺转至日本,这非常不合情理,基本是将核心技术Know-how拱手相让了。但从时间线来看,可能还不会那么“冒进”。集微咨询指出,台积电在日本持续建厂,在节点上需要有一个递进。现在是一厂建成了,然后年底开始建二厂,到时候三厂估计也是二厂建成开工了之后开始兴建,可能再过差不多3年左右开工,加上建设时间或是6年之后了,即便是3nm制程,界时也已不算最先进的。初步按两年一个节点计算,工艺应该在3nm节点进阶了两三代。尽管台积电全球扩产正在落子,位于美国亚利桑那州的首家工厂计划于2025年投产,位于德国东部德累斯顿的工厂计划于2027年投产。但日本三厂连发背后,工艺从28nm到6nm再到3nm,一条涵盖成熟制程和先进工艺的“板块”悄然成形,着实值得深究。业内专家对集微网表示,台积电海外扩张、走全球扩充之路是符合美国利益的,而台积电在日本如此大张旗鼓,另建一条排除中国在外的代工链看起来渐次成形,也再次表明美国主导不可改变。而且,在台积电在美国建厂受多重因素影响步步为艰之际,日本的基础条件相比美国更优,在日本扩建符合各方利益。诚然,台积电日本建厂仍面临产能、盈利等挑战,但日本一个不断“升级”的先进工艺进阶路线却已在徐徐展开。二厂志在汽车芯片?不管3nm是不是台积电的“烟幕弹”,二厂却已板上钉钉,台积电发布公告以不超过52.62亿美元的额度增资JASM。此外,丰田汽车还作为新投资者入股JASM,并与索尼和电装共同成为其少数股东。台积电将持有JASM的86.5%的股权,而丰田汽车、索尼和电装则将分别持有2%、6%和5.5%的股权。值得关注的是,二厂工艺上看6nm。据规划,借由这两座晶圆厂,JASM熊本晶圆厂的每月总产能预计超过10万片12英寸晶圆,为汽车、工业、高性能计算等应用提供22/28nm、12/16nm和6/7nm的制程技术。上述专家指出,熊本一厂主要与索尼合作,为索尼ISP代工服务;熊本二厂工艺升级到6nm,则可能与丰田汽车紧密合作研究,开发自动驾驶和智能座舱芯片。对于台积电来说,这或是双重利好。集微咨询分析,目前汽车芯片代工最高工艺为5nm,不像手机芯片、GPU等那么极致追求最先进工艺,原因在于汽车芯片对安全性、稳定性方面要求更高,同时车规认证难度较大。近几年台积电也在发力车规芯片,毕竟这一蕴含巨大市场机会的赛道。2020年台积电推出了基于7nm汽车设计支持平台,该平台包揽了汽车芯片设计、制造、应用、生态等全流程。2022年三季度,台积电推出5nm汽车芯片平台“N5A”。该平台针对汽车座舱和自动驾驶,符合三大汽车工艺标准。凭借“台积电+高通”模式,在汽车芯片领域刮起一阵潮流。台积电代工的全球首款7nm汽车座舱芯片高通8155一战成名,其他厂商迅速跟进,将汽车座舱芯片快速迭代至7nm;而去年高通第四代座舱芯片骁龙8295采用5nm工艺,也再次推动着汽车芯片迭代升级。因而日本二厂的6nm布局之中,集微咨询认为,台积电一方面可成功进入日本汽车产业供应链,丰田或提供定制化芯片支撑产能;另一方面,将车规芯片向先进工艺推进,也将持续提升台积电的“利润池”,在后续汽车芯片代工市场中占据主导。日本代工“后发先至”而台积电之所以在日本不断“加仓”,不得不说日本政府“给力”。近年来,处在地缘博弈之中,加强半导体制造业回流、实现供应链自主安全成为半导体大国要务。日本政府也启动《半导体战略》,举全国之力推动代工业的发展,以重奏自己的强音。可以说日本政府的诚意十足,巨额的补贴、拨款也实打实的听得见响。台积电CEO魏哲家10月披露财报时表示,日本工厂预计在2024年年底开始量产,日本政府已决定向第一工厂提供最多4760亿日元的补贴。有分析称,补贴达投入42%之多。台积电还透露,这次增资将使JASM的总投资金额达到200亿美元。“熊本二厂”的资本支出大概为2万亿日元(约合130亿美元),其中日本政府考虑提供9000亿日元的补贴。相较之下,台积电美国亚利桑那州厂却卡关在补贴与劳工问题,后延一年至2025年;德国德勒斯登厂还在选址、劳工规划等前期作业之中。台积电日本一厂的顺利开幕,某种程度也是一种“敲打”。而且,除了台积电外,美光、三星电子、力积电等巨头也将成为日本的“座上宾”。加之日本政府还扶持了一家本土“芯片国家队”Rapidus,在着力2nm工艺量产。在一系列组合拳的带动下,日本在先进工艺也渐呈“后来居上”之势。众所周知,在台积电投资日本前,该国能生产的最先进工艺制程仅为40nm。如今,借助于台积电的力量,日本不仅将在22/28nm至6nm工艺制程“补短”,而且还将进一步加强日本在代工制造领域的自主性和安全性。陈宇进一步分析,日本在半导体设备和材料领域占据核心优势,在汽车芯片、传感器以及MCU等的产能需求也在走高,在补上了先进工艺这一重要“拼图”之后,预计日本在先进工艺市场将从2022年的没有显著份额提升到2027年的3%,日本半导体工艺或将突飞猛进,对于大陆代工业来说则更是警醒,唯有举国推进先进工艺的突破才能构筑坚固的自主堡垒。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人