英伟达早在2021年就禁止逆向或反编译CUDA 因此多数转换层都是违规的

英伟达早在2021年就禁止逆向或反编译CUDA因此多数转换层都是违规的英伟达的硬件配合CUDA技术已经被证实非常高效,因此越来越多的应用程序依赖CUDA技术,但如果不是英伟达显卡那该怎么办呢?CUDA转换层类技术:目前已经有一些CUDA转换层类软件,例如ZLUDA,这种转换层可以让CUDA技术在非英伟达硬件上使用,这对于其他显卡制造商来说具有吸引力。然而CUDA本身就是英伟达的专有技术,而在非英伟达硬件上运行CUDA显然会威胁到英伟达的市场和地位,因此英伟达严禁对CUDA技术进行逆向工程、反编译或反汇编。英伟达最近的新动作:该公司最近在CUDA技术文档中已经添加关于EULA的文本文件,EULA指的是最终用户许可协议(End-userlicenseagreement)。英伟达最早是从2021年开始在NVIDIA官网中的EULA文件中声明版权禁止逆向和反编译的,不过最近在CUDA新版本(11.6+)中也包含了这部分内容的EULA文件。显然英伟达现在属于客气的阶段,在文件中添加提醒,如果转换层类开发商仍然不放弃CUDA相关技术以及转换层,那么就可能会被英伟达起诉。...PC版:https://www.cnbeta.com.tw/articles/soft/1422867.htm手机版:https://m.cnbeta.com.tw/view/1422867.htm

相关推荐

封面图片

Nvidia 禁止使用转译层让 CUDA 软件在其他芯片上运行

Nvidia禁止使用转译层让CUDA软件在其他芯片上运行Nvidia现在已禁止使用转译层在其他硬件平台上运行基于CUDA的软件。CUDA11.5中的一条新条款写道:“您不得对使用软件元素生成的输出的任何部分进行逆向工程、反编译或反汇编,以将此类输出工件转换为目标非Nvidia平台。”这似乎是为了阻止ZLUDA计划,一个让其他平台兼容CUDA的转译层。更重要的是,可以阻止中国GPU制造商利用带有转译层的CUDA代码。虽然Nvidia可能短期内无法阻止所有人在其他硬件平台上运行CUDA,然而该公司已经为此设置法律障碍。——

封面图片

英伟达禁止第三方公司兼容 CUDA?相关公司回应

英伟达禁止第三方公司兼容CUDA?相关公司回应据界面新闻,一则有关英伟达试图在其CUDA软件中封杀第三方GPU公司的消息,正引起国内外人工智能及芯片行业的关注。CUDA是英伟达于2006年推出的一套软件平台,专门用于加速GPU计算。对此,英伟达方面并未回应记者的相关问询。针对市场传言,国内GPU公司亦正式做出回应。3月5日晚,GPU芯片公司摩尔线程发布声明称:摩尔线程MUSA/MUSIFY不涉及英伟达EULA相关条款,开发者可放心使用。摩尔线程进一步强调称,由其推出的MUSA架构,与CUDA无任何依赖关系。一直以来,对于如何将CUDA应用迁移到第三方硬件平台,是英伟达对手们的一个难点。一位国内AI芯片企业中层曾向记者表示,用户一旦习惯了CUDA,便很难有动力再迁移出去。因为迁移几乎意味着代码完全重写,工作繁重耗时且不产生经济效益。

封面图片

Steam掌机兼容层添加英伟达新技术 有望带来性能提升

Steam掌机兼容层添加英伟达新技术有望带来性能提升据wccftech报道,SteamDeck的兼容层方案“VKD3D-Proton”最近进行了更新,新增了英伟达Reflex技术的支持。英伟达的Reflex技术旨在通过驱动程序级别的设置,最大限度地缩短硬件和软件资源的响应时间。这使得Reflex成为硬核游戏玩家的理想选择,并可作为AMDRadeonAnti-Lag技术的一个可行替代方案。有了VKD3D-Proton对Reflex技术的支持,预计SteamDeck的玩家们将会体验到相当显著的性能提升,从而增强整体游戏体验。除了引入英伟达Reflex技术之外,VKD3D-Proton2.12更新还带来了一系列其他新增功能。其中包括新的着色器模型6.7、D3D12渲染通道API,以及一系列性能优化。这些更新将为SteamDeck用户提供更加流畅和高效的游戏体验,并且有望带来更好的游戏性能和稳定性。via匿名标签:#Steam频道:@GodlyNews1投稿:@GodlyNewsBot

封面图片

从亏钱生意到利润1000% 英伟达靠什么成为万亿GPU霸主?

从亏钱生意到利润1000%英伟达靠什么成为万亿GPU霸主?GPU芯片在超级计算和全球巨头大模型训练战中地位举足轻重,而掌握全球80%GPU市场份额的英伟达赚得盆满钵满。然而,这种垄断式的市场占有率不是一夜砌成的“城墙”。据Tractica数据,预计到2025年全球AI硬件市场收入将达到2349亿美元,其中GPU的收入占23.2%。英伟达在GPU市场的构筑的护城河,CUDA是其中至关重要的一环。一套完善的编译器生态2006年,正是在AMD收购了ATI、英特尔依然蝉联全球第一大芯片厂商的时候,英伟达推出了CUDA(ComputeUnifiedDeviceArchitecture),它是英伟达研发的平行运算平台及编程模型。AI大神吴恩达简单评价了CUDA的意义:“在CUDA出现之前,全球能用GPU编程的可能不超过100人,有CUDA之后使用GPU就变成一件非常轻松的事。”多数CUDA的推荐者认为,CUDA完善的编译器生态是英伟达GPU在高性能计算领域成功的关键。具体来讲,CUDA具有易部署、开发接口灵活、编程语言适配、工具及代码库完备等优点,并且兼容Windows、Linux和MacOS多个操作系统。CUDA的开发让GPU不再是简单的图形处理器,适用对象也从游戏制作人变为科学家、工程师或艺术家。随着不断迭代,CUDA在针对AI或神经网络深度学习领域推出了非常多的加速库,构成了CUDA的软硬件生态站。大卫·罗森塔尔在Acquired.FM中介绍,CUDA的代码库是经过优化的,开发人员调用这些库开发程序更加便利。因此,CUDA有庞大的社区资源,2023年5月注册开发者增加至400万人。投入过百亿的CUDA生态英伟达凭借CUDA几乎垄断了训练芯片市场,业界也几乎没有巨头对CUDA生态造成颠覆性冲击。英伟达为CUDA生态铺垫了十余年。2007年,英伟达的GPU研发技术已占据强势地位,次年英特尔的大客户苹果将MacBook除CPU外直接替换成英伟达Tesla架构的GPU便印证了这一点。据报道,经年累计英伟达对CUDA总投入早已超过100亿美元。在黄仁勋商业化考虑之下,CUDA生态需要培养潜在开发者,成为受到程序员和企业欢迎的技术平台。在2006年推出CUDA后,英伟达的第一个战略便瞄准了“软件开发人员”,投入巨资让开发者习惯使用CUDA平台。初期,开发者社区有这样一句话:CUDA在编程语言和共享存储器两个层次的并行都简化了编程,使得本科生也能使用CUDA写出大规模高性能计算程序。为扩大覆盖率,英伟达将CUDA引入大学课堂,与伊利诺伊大学等高校合作完善函数库。在2010年时,已有250所大学开放CUDA的教学课程,并有相关论文数千篇。以此为基础完善生态,英伟达建立研究中心、教学中心、认证计划,到2015年已有800所大学开发相关课程。再从业界来看,英伟达投入资金做inception计划(初创加速计划),让初创公司运用CUDA做项目铺垫基础。至今,已有超过100家初创公司利用了CUDA。此外,英伟达开源了Cub、NCCL等通用场景下的开发库,并优化中间件性能的基础库给厂家使用,再次扩大了生态系统。因此,许多开发者依赖于CUDA,同时凭借强大的核心能力在消费市场上受到青睐。2012年,在ImageNet竞赛一举夺冠的AlexNet面世后,CUDA已迭代至5.0版本,支持了动态库和GPU指针。2016年,OpenAI成立之时,CUDA8.0已经支持半精度浮点数和张量核心,软件生态已由学界和业界人士熟知、互相推荐。2022年底,ChatGPT的发布将生成式AI送到人们眼前,CUDA12.0支持了新的NVIDIAHopper和NVIDIAAdaLovelace架构功能,并为所有GPU提供了额外的编程模型增强。等到大模型热度吹进各家企业时,英伟达已经深化了他们在行业中的差异化,成为市场玩家购物篮的第一选择。目前为止,基于CUDA的GPU销量超过百万。而众多GPU芯片厂家中,为什么是英伟达做出了唯一的CUDA开发环境?从亏钱生意到利润1000%回顾世纪初期,英伟达与微软、ATI、AMD、英特尔五家巨头的混战,英伟达在图形处理市场中逐渐占据优势。2006年7月,AMD以54亿美元溢价收购ATI,芯片市场重新洗牌。同年,英伟达的首席科学家DavidKirk提出了“将GPU技术通用化”的思路,从主要做3D渲染的任务中脱离出来,探索通用计算任务。这个思路就是CUDA。而当时,愿意担起这门费钱费力的技术活的也是英伟达。几大家芯片公司中,老对手AMD买下ATI后GPU研发进入弱势地位,英特尔取消了自研GPU计划。英伟达则在GPU技术方面将巨头们甩在了身后。17年前,研发CUDA是一个超前的决定,英伟达的CUDA进化并非一帆风顺,黄仁勋则坚持“加速计算”是未来。英伟达和英特尔在2006年秋天共同开发了基于CUDA的新型GPU,即G80GPU。而两者的合作持续不长久,CUDA的研发决策需要英伟达长久地投入大量资金。从产品特性上来说,CUDA逻辑电路在硬件产品中增加会导致芯片的散热需求增高,由此也会带来成本上升、故障增多的风险。从财报表现来看,CUDA也是一门亏钱生意,在2008年金融危机前后表现得更为明显。在最艰难的时候,黄仁勋也没有中断CUDA,直到2012年辛顿教授带队以GPU代替CPU训练AI模型做出了AlexNet。2020年,黄仁勋在接受Barron周刊时强调:“英伟达将推动下一个人工智能大爆炸。”这5年,为了迎接人工智能,英伟达做了3件事。第一,2019年3月,英伟达以69亿美元收购了高性能计算互联技术公司Mellanox。这家公司的主要产品InfiniBand,被认为速度更快、带宽更高,是数据传输的有效方式,而Mellanox是唯一的InfiniBand规范提供商。第二,英伟达于2022年9月发布新一代AI芯片“DriveThor”,专为大规模GPU集群协调设计,是英伟达一款完全集成的解决方案。第三,英伟达推出专为加速计算和生成式AI打造的Hopper架构,H100便是基于此架构的GPU。市场消息称,H100是英伟达利润率高达1000%的产品,出货量超过900吨。随着ChatGPT发布,带动AI服务器出货量和价格上涨,英伟达的GPU芯片价格水涨船高。英伟达的DGXH100售价总价为268495美元,包含8GPU+4NVSwitch基板等,每台毛利率接近190000美元。英伟达的财务收入令人瞩目,据悉,过去3个财年的复合年增长率(CAGR)达到35.2%,预计2023年收入将飙升51.4%至408亿美元。CUDA构筑的壁垒能被打破吗?2016年,AMD推出基于开源项目的GPU生态系统ROCm,类似英伟达的CUDA系统,然而ROCm技术相较落后,在2023年4月才登录Windows平台。由于切入时间较晚,AMD开发者数量远也低于英伟达。在Github上,贡献CUDA软件包仓库的开发者超过32600位,而ROCm只有不到600个。英伟达大约占据全球80%的GPU市场份额,光从销量来看,都是一家独大。而英伟达的垄断市场的优势可以持续多久?针对这一问题,SemiAnalysis首席分析师DylanPatel给出观点:随着PyTorch支持更多GPU厂商,再加上OpenAI的Triton搅局,英伟达手中的利器CUDA逐渐锋芒不再。软件生态来看,CUDA的霸主地位确实受到各方攻击。近年,AI开发框架PyTorch因灵活的eager模式使用比率逐渐超越了TensorFlow,PyTorch2.0版本将会对AMD、英特尔、特斯拉、谷歌等GPU和加速器进行支持完善。OpenAI则直接推出了“简化版CUDA:Triton”,操作难度低于CUDA。2023年第一季度,AMD宣布ROCm系统融入PyTorch2.0框架,TensorFlow和Caffe深度学习框架也已加入第五代ROCm。其6月发布下一代数据中心加速处理器(APU)AMDMI300软件方面能够全面兼容英伟达CUDA生态,被业内认为有机会挑战英伟达在人工智能的行业地位。尽管如此,从算力角度来看,英伟达H100的升级产品DGXGH200解决了大规模AI的关键瓶颈,适配资金充沛且性能要求高的潜在客户。短期内,CUDA生态仍然稳健,大多数需要训练芯片的用户在仍然会选择英伟达。...PC版:https://www.cnbeta.com.tw/articles/soft/1390713.htm手机版:https://m.cnbeta.com.tw/view/1390713.htm

封面图片

科技公司计划通过 UXL 基金会联合打破英伟达的软件垄断

科技公司计划通过UXL基金会联合打破英伟达的软件垄断英伟达除了硬件外还有还有一个让其能维持AI加速计算的领导者的武器,让开发者与英伟达芯片紧密相连的CUDA加速计算软件生态,而现在科技公司正计划通过破坏该秘密武器削弱其垄断。UXL基金会(UnifiedAccelerationFoundation)是一家包括高通、谷歌、英特尔和三星等在内的科技公司联盟,该基金会计划以英特尔开发的一项名为OneAPI的技术为基础,构建一套软件和工具,为多种类型的AI加速器芯片提供支持。该开源项目旨在让计算机代码在任何机器上运行,无论它使用什么芯片和硬件。当前OneAPI已经可用,第三方也已经开始技术贡献,基金会计划今年上半年确定技术规格,并在年内完成所有技术细节。——

封面图片

英特尔:让我们一起消灭CUDA 转向更开放的AI框架

英特尔:让我们一起消灭CUDA转向更开放的AI框架基尔辛格:“你知道,整个行业都有消灭CUDA市场的动机。” 他列举了MLIR、谷歌和OpenAI等公司的例子,表示它们正在转向"Pythonic编程层",以使人工智能训练更加开放。"我们认为CUDA的护城河又浅又小,"基尔辛格接着说。"因为业界有动力为广泛的训练、创新、数据科学等带来更广泛的技术。"但英特尔并不仅仅依靠训练。相反,它认为推理才是王道。基尔辛格认为:"由于推理的发生,一旦你训练了模型......就不会依赖CUDA。"关键在于,你能否很好地运行该模型?他表示,英特尔将利用今日首次在舞台上展示的Gaudi3迎接挑战,并利用至强和边缘PC实现这一目标。基尔辛格表示:"并不是说英特尔不会在训练领域展开竞争,但从根本上说,推理市场才是游戏的关键所在。"刚刚发布的Gaudi3将于明年推出,并将与竞争对手的芯片竞争英伟达和AMD公司为大型且耗电的AI模型提供动力。Gaudi3的发布对于英特尔意义重大,这款芯片可以让英特尔拥有了与英伟达的H100和AMD刚刚推出的MI300X展开竞争的资本。我们知道,最著名的AI模型,如OpenAI的ChatGPT,在云端的NvidiaGPU上运行。这是英伟达股价今年迄今上涨近230%的原因之一。这就是为什么像AMD和现在的英特尔这样的公司已经陆续发布了自己最新的AI芯片,他们希望这些芯片能够吸引人工智能公司远离英伟达在市场上的主导地位。虽然该公司对细节的描述不多,但Gaudi3将与英伟达的H100和AMD即将推出的MI300X展开竞争,前者是建立庞大芯片群为人工智能应用提供动力的公司的主要选择,后者将于2024年开始向客户发货。自2019年以来,英特尔一直在制造Gaudi芯片,当时它收购了一家名为HabanaLabs的芯片开发商。基尔辛格表示:"我们已经看到了生成式人工智能的热潮,它是2023年的明星产品。...PC版:https://www.cnbeta.com.tw/articles/soft/1404749.htm手机版:https://m.cnbeta.com.tw/view/1404749.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人