【新电脑、新芯片:COMPUTEX 2022 展会带来了这些新玩意】今年的台北国际电脑展于 5 月 24 日至 27 日举行。C

【新电脑、新芯片:COMPUTEX 2022 展会带来了这些新玩意】今年的台北国际电脑展于 5 月 24 日至 27 日举行。COMPUTEX 2022 采用了线上线下「虚实」结合的方式,除了在台北市南港展览馆举行的实体展会之外,还同步上线了 COMPUTEX DigitalGo 线上展会,允许参展厂商直接以网络形式进行新品发布、现场导览、 产品展示等活动。 #抽屉IT

相关推荐

封面图片

Intel CEO将宴请台湾供应链:包括被NVIDIA独漏的仁宝电脑

Intel CEO将宴请台湾供应链:包括被NVIDIA独漏的仁宝电脑 报道称此次晚宴名单中共有11位家台厂供应链业者的董事长、副董事长、CEO、总经理,并且大多与英伟达、AMD的主力供应链有所雷同。主要包括鸿海、广达、仁宝、英业达、纬创、和硕、纬颖、华硕、宏碁、技嘉、微星, 而日前在股东会上喊话“被英伟达独漏”的仁宝电脑,也成功入列。台北国际电脑展是全球领先的AIoT和新创产业展览,今年将从6月4日至6月7日在南港展览馆举行。展会期间,将有多位国际AI专家深入探讨AI应用和硬件创新,同时,众多科技界重量级人物也将出席,包括AMD董事长苏姿丰、高通总裁艾蒙等。 ... PC版: 手机版:

封面图片

[视频直播]NVIDIA CEO黄仁勋2024年台北国际电脑展主题演讲实况

[视频直播]NVIDIA CEO黄仁勋2024年台北国际电脑展主题演讲实况 主题演讲预计将持续两个小时,届时将有众多嘉宾出席,英伟达将在包括数据中心和客户端 PC 在内的各条战线进入人工智能征程的下一个篇章。英伟达一直引领着人工智能的发展,因为早在2017年,他们就率先进入了当今最热门的科技领域,推出了Volta GPU及其Tensor架构,后来又在2018年推出了英伟达GeForce RTX 20系列,进入了更主流的领域。NVIDIA随后发布了Hopper,而即将推出的 Blackwell GPU 架构也将颠覆整个行业。邀请函如下:英伟达首席执行官主题演讲英伟达公司创始人兼首席执行官黄仁勋将于台湾时间6月2日晚7点在台大体育中心发表现场主题演讲,分享人工智能时代如何推动全球新一轮工业革命。参加主题演讲不收取任何费用,还将进行现场直播,别忘了保存日期。英伟达至于NVIDIA在 Computex 2024 大会上的主题演讲,我们可能会听到更多关于人工智能方面的内容。去年,英伟达展示了其 GPU 路线图以及新的合作伙伴关系,我们还看到了一些新技术,如首屈一指的 ACE云引擎模型。今年,我们期待绿队在人工智能领域有更多创新,但对于那些期待新游戏卡的人来说,现在还为时尚早。英伟达(NVIDIA)正在准备下一代 GeForce RTX 50"Blackwell"图形处理器,但这些处理器很可能在 2024 年下半年才会正式发布。目前的传言称, GeForce RTX 5090 和 RTX 5080 的发布计划为 2024 年第四季度,因此不要对游戏显卡方面抱太大期望。 ... PC版: 手机版:

封面图片

NVIDIA CEO黄仁勋将于6月2日在台北电脑展前举办主题演讲会

NVIDIA CEO黄仁勋将于6月2日在台北电脑展前举办主题演讲会 有趣的是,NVIDIA今年决定在 Computex 开幕前举办发表会,相较去年,黄仁勋举办的是 Computex 2023 的开幕主题演讲。今年取而代之的是AMD 的首席执行官苏丽莎博士将主持,英特尔的首席执行官 Pat Gelsinger 也将为其公司发表主题演讲。AMD 的主题演讲将于6月3日举行(9:30-11:00),而英特尔要再晚一天。有关于今年的主题演讲,我们可能会听到更多关于人工智能方面的内容。去年,NVIDIA展示了其 GPU 路线图以及新的合作伙伴关系,我们还看到了一些新技术如ACE(阿凡达云引擎)模型。今年,我们期待NVIDIA在人工智能领域有更多创新,但对于那些期待新游戏卡的人来说,现在还为时过早。NVIDIA正在准备下一代 GeForce RTX 50"Blackwell"图形处理器,但这些处理器很可能在 2024 年下半年才会正式发布。目前的传言称,GeForce RTX 5090 和 RTX 5080的发布计划为 2024 年第四季度,因此不要对游戏方面抱太大期望。 ... PC版: 手机版:

封面图片

AMD 在 2024 年台北国际电脑展上宣布了其下一代用于生成式 AI 工作的 Ryzen 笔记本处理器:Ryzen AI 30

AMD 在 2024 年台北国际电脑展上宣布了其下一代用于生成式 AI 工作的 Ryzen 笔记本处理器:Ryzen AI 300 系列。这是其顶级 Ryzen 9 芯片的重新命名。新的命名规则仍然包括 AMD 在 2022 年引入的 HX 后缀,但它并不表示芯片的功耗。相反,HX 将仅指“顶级”或最好的、最快的 Ryzen AI 300 芯片。 新的 Ryzen AI 芯片基于 AMD 最新的神经网络、集成显卡和通用处理架构:NPU 使用 XDNA2 架构,iGPU 使用 RDNA 3.5 架构,现在拥有多达 16 个计算单元,CPU 使用 Zen 5 架构。这一系列的前两款处理器是 Ryzen AI 9 HX 370 和 Ryzen AI 9 365。两者都拥有 50 TOPS 的 NPU,但 HX 型号是其中的高端版本。 Ryzen AI 9 HX 370 是一款拥有 12 核/24 线程的芯片,最高时钟速度为 5.1GHz,缓存为 36MB,并配有 Radeon 890M 显卡。Ryzen AI 9 365 是一款拥有 10 核/12 线程的芯片,最高时钟速度为 5.0GHz,缓存为 34MB,并配有 Radeon 880M 显卡。 Ryzen AI 9 300 系列似乎在现有或即将上市的其他 NPU 配置芯片中拥有最多的 TOPS。高通的 Snapdragon X 系列有 45 TOPS,苹果的 M4 有 38,而 AMD 上一代的 Ryzen 8040 系列芯片只有 16。英特尔的 Meteor Lake Ultra 7 165H 大约有 10 TOPS(但即将推出的 Lunar Lake 据说会拉平差距)。 AMD 声称其 XDNA2 NPU 的计算能力是上一代的五倍,能效是上一代的两倍,这得益于其独特的 FP16“块”或 NPU 架构,可以在不进行量化的情况下处理 8 位性能(INT8)和 16 位精度(FP16)的生成式 AI 工作负载。 标签: #AMD #AI 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

下一代AI芯片,拼什么?

下一代AI芯片,拼什么? 英伟达的Hopper GPU/Blackwell/Rubin、AMD的Instinct 系列、英特尔的Gaudi芯片,这场AI芯片争霸战拼什么?这是速度之争,以英伟达为首,几家巨头将芯片推出速度提升到了一年一代,展现了AI领域竞争的“芯”速度;是技术的角逐,如何让芯片的计算速度更快、功耗更低更节能、更易用上手,将是各家的本事。尽管各家厂商在AI芯片方面各有侧重,但细看之下,其实存在着不少的共同点。一年一代,展现AI领域"芯"速度虽然摩尔定律已经开始有些吃力,但是AI芯片“狂欢者们”的创新步伐以及芯片推出的速度却越来越快。英伟达Blackwell还在势头之上,然而在不到3个月后的Computex大会上,英伟达就又祭出了下一代AI平台Rubin。英伟达首席执行官黄仁勋表示,以后每年都会发布新的AI芯片。一年一代芯片,再次刷新了AI芯片的更迭速度。英伟达的每一代GPU都会以科学家名字来命名。Rubin也是一位美国女天文学家Vera Rubin的名字命名。Rubin将配备新的GPU、名为Vera的新CPU和先进的X1600 IB网络芯片,将于2026年上市。目前,Blackwell和Rubin都处于全面开发阶段,其一年前在2023年在Computex上发布的GH200 Grace Hopper“超级芯片”才刚全面投入生产。Blackwell将于今年晚些时候上市,Blackwell Ultra将于2025年上市,Rubin Ultra将于2027年上市。紧跟英伟达,AMD也公布了“按年节奏”的AMD Instinct加速器路线图,每年推出一代AI加速器。Lisa Su在会上表示:“人工智能是我们的首要任务,我们正处于这个行业令人难以置信的激动人心的时代的开始。”继去年推出了MI300X,AMD的下一代MI325X加速器将于今年第四季度上市,Instinct MI325X AI加速器可以看作是MI300X系列的强化版,Lisa Su称其速度更快,内存更大。随后,MI350系列将于2025年首次亮相,采用新一代AMD CDNA 4架构,预计与采用AMD CDNA 3的AMD Instinct MI300系列相比,AI推理性能将提高35倍。MI350对标的是英伟达的Blackwell GPU,按照AMD的数据,MI350系列预计将比英伟达B200产品多提供50%的内存和20%的计算TFLOP。基于AMD CDNA“Next”架构的AMD Instinct MI400系列预计将于2026年上市。英特尔虽然策略相对保守,但是却正在通过价格来取胜,英特尔推出了Gaudi人工智能加速器的积极定价策略。英特尔表示,一套包含八个英特尔Gaudi 2加速器和一个通用基板的标准数据中心AI套件将以65,000美元的价格提供给系统提供商,这大约是同类竞争平台价格的三分之一。英特尔表示,一套包含八个英特尔Gaudi 3加速器的套件将以125,000美元的价格出售,这大约是同类竞争平台价格的三分之二。AMD和NVIDIA虽然不公开讨论其芯片的定价,但根据定制服务器供应商Thinkmate的说法,配备八个NVIDIA H100 AI芯片的同类HGX服务器系统的成本可能超过30万美元。一路高歌猛进的芯片巨头们,新产品发布速度和定价凸显了AI芯片市场的竞争激烈程度,也让众多AI初创芯片玩家望其项背。可以预见,三大芯片巨头将分食大部分的AI市场,大量的AI初创公司分得一点点羹汤。工艺奔向3纳米AI芯片走向3纳米是大势所趋,这包括数据中心乃至边缘AI、终端。3纳米是目前最先进工艺节点,3纳米工艺带来的性能提升、功耗降低和晶体管密度增加是AI芯片发展的重要驱动力。对于高能耗的数据中心来说,3纳米工艺的低功耗特性至关重要,它能够有效降低数据中心的运营成本,缓解数据中心的能源压力,并为绿色数据中心的建设提供重要支撑。英伟达的B200 GPU功耗高达1000W,而由两个B200 GPU和一个Grace CPU组成的GB200解决方案消耗高达2700W的功率。这样的功耗使得数据中心难以为这些计算GPU的大型集群提供电力和冷却,因此英伟达必须采取措施。Rubin GPU的设计目标之一是控制功耗,天风国际证券分析师郭明𫓹在X上写道,Rubin GPU很可能采用台积电3纳米工艺技术制造。另据外媒介绍,Rubin GPU将采用4x光罩设计,并将使用台积电CoWoS-L封装技术。与基于Blackwell的产品相比,Rubin GPU是否真的能够降低功耗,同时明显提高性能,或者它是否会专注于性能效率,还有待观察。AMD Instinct系列此前一直采用5纳米/6纳米双节点的Chiplet模式,而到了MI350系列,也升级为了3纳米。半导体知名分析师陆行之表示,如果英伟达在加速需求下对台积电下单需求量大,可能会让AMD得不到足够产能,转而向三星下订单。来源:videocardz英特尔用于生成式AI的主打芯片Gaudi 3采用的是台积电的5纳米,对于 Gaudi 3,这部分竞争正在略微缩小。不过,英特尔的重心似乎更侧重于AI PC,从英特尔最新发布的PC端Lunar Lake SoC来看,也已经使用了3纳米。Lunar Lake包含代号为Lion Cove的新 Lion Cove P核设计和新一波Skymont E 核,它取代了 Meteor Lake 的 Low Power Island Cresmont E 核。英特尔已披露其采用 4P+4E(8 核)设计,禁用超线程/SMT。整个计算块,包括P核和E核,都建立在台积电的N3B节点上,而SoC块则使用台积电N6节点制造。英特尔历代PC CPU架构(来源:anandtech)在边缘和终端AI芯片领域,IP大厂Arm也在今年5月发布了用于智能手机的第五代 Cortex-X 内核以及带有最新高性能图形单元的计算子系统 (CSS)。Arm Cortex-X925 CPU就利用了3纳米工艺节点,得益于此,该CPU单线程性能提高了36%,AI性能提升了41%,可以显著提高如大语言模型(LLM)等设备端生成式AI的响应能力。高带宽内存(HBM)是必需品HBM(High Bandwidth Memory,高带宽存储器)已经成为AI芯片不可或缺的关键组件。HBM技术经历了几代发展:第一代(HBM)、第二代(HBM2)、第三代(HBM2E)、第四代(HBM3)和第五代(HBM3E),目前正在积极发展第六代HBM。HBM不断突破性能极限,满足AI芯片日益增长的带宽需求。在目前一代的AI芯片当中,各家基本已经都相继采用了第五代HBM-HBM3E。例如英伟达Blackwell Ultra中的HBM3E增加到了12颗,AMD MI325X拥有288GB的HBM3e内存,比MI300X多96GB。英特尔的 Gaudi 3封装了八块HBM芯片,Gaudi 3能够如此拼性价比,可能很重要的一点也是它使用了较便宜的HBM2e。英特尔Gaudi 3的HBM比H100多,但比H200、B200或AMD的MI300都少(来源:IEEE Spectrum)至于下一代的AI芯片,几乎都已经拥抱了第六代HBM-HBM4。英伟达Rubin平台将升级为HBM4,Rubin GPU内置8颗HBM4,而将于2027年推出的Rubin Ultra则更多,使用了12颗HBM4。AMD的MI400也奔向了HBM4。从HBM供应商来看,此前AMD、英伟达等主要采用的是SK海力士。但现在三星也正在积极打入这些厂商内部,AMD和三星目前都在测试三星的HBM。6月4日,在台北南港展览馆举行的新闻发布会上,黄仁勋回答了有关三星何时能成为 NVIDIA 合作伙伴的问题。他表示:“我们需要的 HBM 数量非常大,因此供应速度至关重要。我们正在与三星、SK 海力士和美光合作,我们将收到这三家公司的产品。”HBM的竞争也很白热化。SK海力士最初计划在2026年量产HBM4,但已将其时间表调整为更早。三星电子也宣布计划明年开发HBM4。三星与SK海力士围绕着HBM的竞争也很激烈,两家在今年将20%的DRAM产能转向HBM。美光也已加入到了HBM大战行列。炙手可热的HBM也成为了AI芯片大规模量产的掣肘。目前,存储大厂SK Hynix到2025年之前的HBM4产能已基本售罄,供需矛盾日益凸显。根据SK海力士预测,AI芯片的繁荣带动HBM市场到2027年将出现82%的复合年增长率。分析师也认为,预计明年HBM市场将比今年增长一倍以上。三星电子DRAM产品与技术执行副总裁Hwang Sang-joon在KIW 2023上表示:“我们客户当前的(HBM)订单决定比去年增加了一倍多。”三星芯片负责业务的设备解决方案部门总裁兼负责人 Kyung Kye-hyun 在公司会议上更表示,三星将努力拿下一半以上的... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人