英杰电气:从趋势上判断,明年上半年光伏订单尤其是硅料订单可能压力较大

英杰电气:从趋势上判断,明年上半年光伏订单尤其是硅料订单可能压力较大从趋势上判断,明年上半年的光伏订单尤其是硅料订单可能压力较大,可能会继续下降,形成订单缺口,这也是行业周期性带来的影响,也是正常现象,如果出现了这个情况,就要看其他新行业的订单能否补上,比如射频电源、充电桩、光伏电池片等,这些行业结算周期短,对于弥补可能的多晶订单缺口是有利的,这几个行业有些已经开始放量,有些产能提升,具备了扩量的条件,所以是具备弥补订单缺口的可能性的,至于实际情况,只能到时来看具体结果了,是通过这几个行业完全弥补上甚至超过,还是仍有一些缺口,还需要时间来验证。但有一点可以肯定,现在公司应对某些行业周期性影响的能力强了很多,从订单积累和新行业拓展的情况看,业绩大幅度下降的风险不大。

相关推荐

封面图片

【中国光伏产能过剩了吗?工信部回应】中国光伏产能过剩了吗?中国工业和信息化部有关负责人15日表示,当前中国光伏行业确实存在一定阶

【中国光伏产能过剩了吗?工信部回应】中国光伏产能过剩了吗?中国工业和信息化部有关负责人15日表示,当前中国光伏行业确实存在一定阶段性和结构性过剩#风险,但总体属于行业发展正常范围。目前全球光伏产业进入景气发展周期,同时也出现周期性震荡、供应链阶段性供需错配等情况。中国光伏行业总体仍处在正常范围,其原因在于:一是绿色低碳大趋势促使光伏行业大发展,适当的供大于求才能引导企业合理竞争,这是行业经营和市场竞争的正常现象;二是光伏行业总体属于泛半导体领域,具有周期性发展特征,阶段性的震荡也是行业正常属性;三是光伏产业链条长、技术迭代快,且各环节建设周期不尽相同,在一定阶段可能出现结构性过剩现象。这位负责人表示,下一步,工信部将加强光伏行业规范管理,引导产业合理规划布局,稳步推进产业技术迭代和转型升级,着力提升产业发展水平。(中国新闻网)

封面图片

钙钛矿-硅光伏电池效率突破30% 可稳定工作30年

钙钛矿-硅光伏电池效率突破30%可稳定工作30年由于其效率、耐用性和成本,硅长期以来一直是太阳能电池的行业标准,但目前的光伏设备正接近理论上的效率上限。与此同时,钙钛矿是一个迅速崛起的“年轻新贵”,有可能偷走硅的“桂冠”。不过,最好的结果似乎是当这两种材料抛开竞争,结合起来。钙钛矿/硅串联太阳能电池比单独使用任何一种材料都更高效,这要归功于它们能够收集太阳光谱的不同部分——钙钛矿更好地利用蓝光,而硅更专注于红色和红外波长。科学家们也不断在效率突破上费尽心思。研究人员表示,他们将广泛使用的硅电池和钙钛矿电池的优势结合了起来,生产出了具有超高效率的串联硅-钙钛矿太阳能电池,同时还增强了太阳能电池的运行稳定性。最新研究成果已于近期发表在了《先进能源材料》杂志上。“使用这些串联太阳能电池,钙钛矿顶部电池可以有效地吸收蓝光,并将红光传输到硅底部电池,从阳光中产生的能量比每个单独的设备要多得多。”他们说。据悉,该团队主要在这项研究中改善了钙钛矿前体。具体而言,研究人员解释称,不含甲基铵(MA)的钙钛矿太阳能电池具有比含MA的同类电池更好的热稳定性。然而,由于体积质量较差,无MA的钙钛矿太阳能电池的效率落后。在这项工作中,他们将4-甲基苯乙基氯化铵(4M-PEACl)添加到了不含MA的钙钛矿前体中,从而大大提高了整体质量。他们说,在加入最佳浓度的4M-PEACl后,钙钛矿晶粒显著增大,其固有缺陷被抑制了四倍。研究人员表示,最终制出的串联装置不仅效率突破了30%大关,还表现除了优异的稳定性。在环境大气中经过42天日夜循环后,保持了98%以上的初始性能。“超过30%的标志意义重大,”研究人员说,“目前的预测是,串联太阳能技术将在2026年大规模生产。然而,仍需要做更多的工作来升级,并确保该技术能够稳定应用25至30年。”...PC版:https://www.cnbeta.com.tw/articles/soft/1343671.htm手机版:https://m.cnbeta.com.tw/view/1343671.htm

封面图片

老黄赢麻了:英伟达H100订单排到24年

老黄赢麻了:英伟达H100订单排到24年全球最大云厂商亚马逊AWS也证实了这一消息,CEOAdamSelipsky近期表示:A100和H100是最先进的……即使对于AWS来说也很难获得。更早时候,马斯克还在一场访谈节目中也说过:GPU现在比d品还难获得。如果找“黄牛”买,溢价高达25%。如Ebay上的价格已从出厂价约36000美元涨到了45000美元,而且货源稀少。这种形势下,国内的百度、字节、阿里、腾讯等大型科技公司也向英伟达下了总计50亿美元的A800等芯片订单。其中只有10亿美元的货能今年内交付,另外80%也要等2024年才行。那么现有高端GPU都卖给谁了?这一波产能又是卡在了哪?H100卖给谁,老黄说了算ChatGPT爆发以来,擅长训练大模型的英伟达A100、H100成了香饽饽。甚至H100已经可以作为初创公司的一种资产,找投资基金获得抵押贷款。OpenAI、Meta为代表的AI公司,亚马逊、微软为代表的云计算公司,私有云Coreweave和Lambda,以及所有想炼自家大模型的各类科技公司,需求量都巨大。然而卖给谁,基本是英伟达CEO黄仁勋说了算。据TheInformation消息,H100这么紧缺,英伟达把大量的新卡分配给了CoreWeave,对亚马逊微软等老牌云计算公司限量供应。(英伟达还直接投资了CoreWeave。)外界分析是因为这些老牌公司都在开发自己的AI加速芯片、希望减少对英伟达的依赖,那老黄也就成全他们。老黄在英伟达内部还把控了公司日常运营的方方面面,甚至包括“审查销售代表准备对小型潜在客户说什么话”。全公司约40名高管直接向老黄汇报,这比Meta小扎和微软小纳的直接下属加起来还多。一位英伟达前经理透露,“在英伟达,黄仁勋实际上是每一款产品的首席产品官。”前阵子,还传出老黄干了一件夸张的事:要求一些小型云计算公司提供他们的客户名单,想了解GPU的最终使用者是谁。外界分析,此举将使英伟达更了解客户对其产品的需求,也引起了对英伟达可能利用这些信息谋取额外利益的担忧。也有人认为,还有一层原因是老黄想知道谁真的在用卡,而谁只是囤卡不用。为什么英伟达和老黄现在有这么大的话语权?主要是高端GPU供需太不平衡,根据GPUUtils网站的测算,H100缺口高达43万张。作者ClayPascal根据各种已知信息和传言估计了AI行业各参与者近期还需要的H100数量。AI公司方面:OpenAI可能需要5万张H100来训练GPT-5Meta据说需要10万InflectionAI的2.2万张卡算力集群计划已公布主要AI初创公司如Anthropic、Character.ai、欧洲的MistraAI和HelsingAI需求各自在1万数量级。云计算公司方面:大型公有云里,亚马逊、微软、Google、甲骨文都按3万算,共12万以CoreWeave和Lambda为代表的私有云加起来总共需要10万加起来就是43.2万了。这还没算一些摩根大通、TwoSigma等也开始部署自己算力集群的金融公司和其他行业参与者。那么问题来了,这么大的供应缺口,就不能多生产点吗?老黄也想啊,但是产能被卡住了。产能这次卡在哪里?其实,台积电已经为英伟达调整过一次生产计划了。不过还是没能填补上如此巨大的缺口。英伟达DGX系统副总裁兼总经理CharlieBoyle称,这次并不是卡在晶圆,而是台积电的CoWoS封装技术产能遇到了瓶颈。与英伟达抢台积电产能的正是苹果,要在9月发布会之前搞定下一代iPhone要用的A17芯片。而台积电方面近期表示,预计需要1.5年才能使封装工艺积压恢复正常。CoWoS封装技术是台积电的看家本领,台积电之所以能击败三星成为苹果的独家芯片代工厂靠的就是它。这项技术封装出的产品性能高、可靠性强,H100能拥有3TB/s(甚至更高)的带宽正是得益于此。CoWoS全名叫Chip-on-Wafer-on-Substrate,是一种在晶圆层面上的芯片集成技术。这项技术可以将多个芯片封装到厚度仅有100μm的硅中介层上。据介绍,下一代中介层面积将达到6倍reticle,也就是约5000mm?。目前为止,除了台积电,没有哪家厂商拥有这个水平的封装能力。虽然CoWoS的确强悍,但没有它就不行吗?其他厂商能不能代工呢?先不说老黄已经表示过“不考虑新增第二家H100代工厂”。从现实上看,可能也真的不行。英伟达此前曾和三星有过合作,但后者从未给英伟达生产过H100系列产品,甚至其他5nm制程的芯片。据此有人推测,三星的技术水平可能无法满足英伟达对尖端GPU的工艺需求。至于英特尔……他们的5nm产品好像还迟迟没有问世。既然让老黄换生产厂家行不通,那用户直接改用AMD怎么样?AMD,Yes?如果单论性能的话,AMD倒的确是慢慢追上来了。AMD最新推出的MI300X,拥有192GB的HBM3内存、5.2TB/s的带宽,可运行800亿参数模型。而英伟达刚刚发布的DGXGH200,内存为141GB的HBM3e,带宽则为5TB/s。但这并不意味着AMD能马上填补N卡的空缺——英伟达真正的“护城河”,在于CUDA平台。CUDA已经建立起一套完整的开发生态,意味着用户要是购买AMD产品,需要更长时间来进行调试。一名某私有云公司的高管表示,没人敢冒险花3亿美元实验部署10000个AMDGPU。这名高管认为,开发调试的周期可能至少需要两个月。在AI产品飞速更新换代的大背景下,两个月的空档期对任何一家厂商来说可能都是致命的。不过微软倒是向AMD伸出了橄榄枝。此前有传闻称,微软准备和AMD共同开发代号为“雅典娜”的AI芯片。而更早之前,MI200发布时,微软第一个宣布采购,并在其云平台Azure上部署。比如前一阵MSRA的新大模型基础架构RetNet就是在512张AMDMI200上训练的。在英伟达占据几乎整个AI市场的格局下,可能需要有人带头冲锋,先整个大型AMD算力集群打样,才有人敢于跟进。不过短时间内,英伟达H100、A100还是最主流的选择。OneMoreThing前一阵苹果发布最高支持192GB内存新款M2Ultra芯片的时候,还有不少从业者畅享过用它来微调大模型。毕竟苹果M系列芯片的内存显存是统一的,192GB内存就是192GB显存,可是80GBH100的2.4倍,又或者24GBRTX4090的8倍。然鹅,有人真的把这台机器买到手后,实际测试训练速度还不如英伟达RTX3080TI,微调都不划算,训练就更别想了。毕竟M系列芯片的算力部分不是专门针对AI计算优化的,光大显存也没用。炼大模型,看来主要还是得靠H100,而H100又求之不得。面对这种情况,网络上甚至流传着一首魔性的“GPU之歌”。很洗脑,慎入。...PC版:https://www.cnbeta.com.tw/articles/soft/1376535.htm手机版:https://m.cnbeta.com.tw/view/1376535.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人