NVIDIA不再允许其他芯片模拟跑CUDA

NVIDIA不再允许其他芯片模拟跑CUDA 如今,CUDA 11.6版本开始,安装的时候就会在EULA协议中看到相关警告条款。其中一条是这么写的:“你不能逆向工程、反编译或反汇编使用此SKD生成的任何结果,并在非NVIDIA平台上进行转译。”这一招,应该是针对Intel、AMD都有参与的ZLUDA等第三方项目,以及登临科技GPU+、沐曦科技等中国厂商的兼容方案。目前,NVIDIA尚未明确指向谁,而且只是在协议中警告,并未采取实际行动,但不排除未来采取进一步措施。 ... PC版: 手机版:

相关推荐

封面图片

Nvidia 禁止使用转译层让 CUDA 软件在其他芯片上运行

Nvidia 禁止使用转译层让 CUDA 软件在其他芯片上运行 Nvidia 现在已禁止使用转译层在其他硬件平台上运行基于 CUDA 的软件。CUDA 11.5 中的一条新条款写道:“您不得对使用软件元素生成的输出的任何部分进行逆向工程、反编译或反汇编,以将此类输出工件转换为目标非 Nvidia 平台。”这似乎是为了阻止 ZLUDA 计划,一个让其他平台兼容 CUDA 的转译层。更重要的是,可以阻止中国 GPU 制造商利用带有转译层的 CUDA 代码。虽然 Nvidia 可能短期内无法阻止所有人在其他硬件平台上运行 CUDA ,然而该公司已经为此设置法律障碍。

封面图片

AMD显卡可以原生跑NVIDIA CUDA应用了 速度还挺快

AMD显卡可以原生跑NVIDIA CUDA应用了 速度还挺快 之后在AMD的支持下,ZLUDA重启了该项目,能够让AMD显卡原生运行CUDA应用,不需要任何转移,也不需要调整代码。唯一要做的,就是用ZLUDA库替代CUDA。虽然它不能保证每一款CUDA应用都跑起来,但已经是以一个巨大的突破。非常可惜,AMD支持这一项目做了两年,也给停了不知道是不是受到了NVIDIA的压力。幸运的是,ZLUDA项目并未彻底消散,已经免费开源,感兴趣有能力的开发者都可以使用,而且确认可以在AMD ROCm平台上无缝运行CUDA应用。比如说,可以将CUDA作为Blender 4.0或者V-Ray的渲染API,尤其是Blender本来就有Radeon HIP计算渲染器,如今跑在ZLUDA上速度还会更快。Andrzej Janik也在继续研究ZLUDA,其中一个目标就是要让AMD显卡运行NVIDIA DLSS。内部测试表明,对比OpenCL方案,其性能大部分时候都更好,最多可以领先超过75%,但因为还在开发之中,部分时候效率反而更低。 ... PC版: 手机版:

封面图片

Jim Keller:NVIDIA的CUDA不是护城河,是沼泽!

Jim Keller:NVIDIA的CUDA不是护城河,是沼泽! “CUDA 是沼泽,而不是护城河,”凯勒在 X 帖子中写道。“x86 也是一片沼泽。[…] CUDA 并不漂亮。它是通过一次堆积一件东西来构建的。” 确实,就像x86一样,CUDA在保持软件和硬件向后兼容性的同时逐渐增加了功能。这使得英伟达的平台完整且向后兼容,但它影响了性能并使程序开发变得更加困难。同时,很多开源软件开发框架可以比CUDA更高效地使用。“基本上没有人编写 CUDA,”Jim Keller在后续帖子中写道。“如果你确实编写 CUDA,它可能不会很快。[...] Triton、Tensor RT、Neon 和 Mojo 的存在是有充分理由的。”甚至NVIDIA本身也有不完全依赖 CUDA 的工具。例如,Triton Inference Server 是 NVIDIA 的一款开源工具,可简化 AI 模型的大规模部署,支持 TensorFlow、PyTorch 和 ONNX 等框架。Triton 还提供模型版本控制、多模型服务和并发模型执行等功能,以优化 GPU 和 CPU 资源的利用率。NVIDIA的TensorRT是一种高性能深度学习推理优化器和运行时库,可加速NVIDIA GPU上的深度学习推理。TensorRT 从各种框架(例如 TensorFlow 和 PyTorch)中获取经过训练的模型,并对其进行优化以进行部署,从而减少延迟并提高图像分类、对象检测和自然语言处理等实时应用程序的吞吐量。但是,尽管像Arm、CUDA 和x86这样的架构可能会被认为是“沼泽”,因为它们的演进速度相对较慢、必须向后兼容并且体积庞大,但这些平台也不像GPGPU这样分散,这可能根本不是一件坏事。目前尚不清楚 Jim Keller 对 AMD 的ROCm和英特尔的OneAPI有何看法,但很明显,尽管他花了很多年时间设计 x86 架构,但他并不迷恋其未来前景。他的言论还暗示,尽管他曾在世界上一些最大的芯片制造商工作过一段时间,包括苹果、英特尔、AMD、博通(现在是Tenstorrent)等公司,但我们可能不会在NVIDIA的名单上看到他的名字。 ... PC版: 手机版:

封面图片

英伟达早在2021年就禁止逆向或反编译CUDA 因此多数转换层都是违规的

英伟达早在2021年就禁止逆向或反编译CUDA 因此多数转换层都是违规的 英伟达的硬件配合 CUDA 技术已经被证实非常高效,因此越来越多的应用程序依赖 CUDA 技术,但如果不是英伟达显卡那该怎么办呢?CUDA 转换层类技术:目前已经有一些 CUDA 转换层类软件,例如 ZLUDA,这种转换层可以让 CUDA 技术在非英伟达硬件上使用,这对于其他显卡制造商来说具有吸引力。然而 CUDA 本身就是英伟达的专有技术,而在非英伟达硬件上运行 CUDA 显然会威胁到英伟达的市场和地位,因此英伟达严禁对 CUDA 技术进行逆向工程、反编译或反汇编。英伟达最近的新动作:该公司最近在 CUDA 技术文档中已经添加关于 EULA 的文本文件,EULA 指的是最终用户许可协议 (End-user license agreement)。英伟达最早是从 2021 年开始在 NVIDIA 官网中的 EULA 文件中声明版权禁止逆向和反编译的,不过最近在 CUDA 新版本 (11.6+) 中也包含了这部分内容的 EULA 文件。显然英伟达现在属于客气的阶段,在文件中添加提醒,如果转换层类开发商仍然不放弃 CUDA 相关技术以及转换层,那么就可能会被英伟达起诉。 ... PC版: 手机版:

封面图片

NVIDIA封杀转译兼容CUDA 摩尔线程官方:MUSA、MUSIFY不受影响

NVIDIA封杀转译兼容CUDA 摩尔线程官方:MUSA、MUSIFY不受影响 3月5日晚间,摩尔线程发表官方声明回应称,旗下的MUSA、MUSIFY技术均未受影响!摩尔线程强调,MUSA、MUSIFY不涉及NVIDIA EULA相关条款,开发者可放心使用。据介绍,MUSA是摩尔线程自主研发、拥有全部知识产权、软硬一体的全功能GPU先进计算统一系统架构,与CUDA无任何依赖关系。MUSIFY是摩尔线程面向MUSA开发者提供的开发工具,方便在MUSA计算平台上进行应用移植与开发。它可以让开发者将自己的C++源代码,转换成MUSA C++源代码,再通过MUSA编译器MCC编译生成基于MUSA指令集的二进制代码,最终运行在摩尔线程的全功能GPU上。摩尔线程还向开发者提供MUSA SDK,这是摩尔线程GPU并行计算开发SDK的集合,包含了MUSAToolkits(内置运行时/编译器/GPU加速计算库/迁移/优化工具)及计算库、神经网络加速库、通信库等一系列开发工具,可让开发者快速开发出针对摩尔线程GPU优化的并行计算应用。摩尔线程强调,将充分发挥从芯片到显卡到集群的智算产品优势,继续打磨MUSA,持续为大模型训练与推理提供高性能算力支撑。 ... PC版: 手机版:

封面图片

NVIDIA的AI芯片优势正成为谷歌、英特尔和Arm的目标

NVIDIA的AI芯片优势正成为谷歌、英特尔和Arm的目标 这个名为"统一加速基金会"(UXL)的组织表示,该项目的技术细节应在今年下半年达到"成熟"状态,但没有给出最终的发布目标。该项目目前包括英特尔开发的OneAPI开放标准,旨在消除特定编码语言、代码库和其他工具等要求,使开发人员不再受使用特定架构(如 NVIDIA 的 CUDA 平台)的束缚。上个月,英伟达(NVIDIA)成为首家市值达到 2 万亿美元的芯片制造商,在专注于为人工智能模型提供动力的硬件(如H100和即将推出的H200 GPU)之后,英伟达实现了快速增长。这些英伟达(NVIDIA)芯片将开发者锁定在使用英伟达(NVIDIA)的CUDA架构上,比其他芯片制造商目前生产的任何产品都要优越,但爆炸性的需求造成了产品稀缺,而竞争对手却在继续开发自己的替代品。在 2023 年的 Computex 主题演讲中,NVIDIA 首席执行官黄仁勋表示,有 400 万开发者正在使用 CUDA计算模型。UXL表示,该项目最初的目标是为人工智能应用和高性能计算应用开放选项,但该小组计划最终也支持NVIDIA的硬件和代码。UXL 正在寻求更多芯片制造商以及微软和亚马逊等云计算公司的援助,以确保该解决方案可以部署在任何芯片或硬件上。据传,微软去年曾与 AMD合作开发替代人工智能芯片,以挑战 NVIDIA 在该行业的有效垄断地位。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人