Nvidia 禁止使用转译层让 CUDA 软件在其他芯片上运行

Nvidia 禁止使用转译层让 CUDA 软件在其他芯片上运行 Nvidia 现在已禁止使用转译层在其他硬件平台上运行基于 CUDA 的软件。CUDA 11.5 中的一条新条款写道:“您不得对使用软件元素生成的输出的任何部分进行逆向工程、反编译或反汇编,以将此类输出工件转换为目标非 Nvidia 平台。”这似乎是为了阻止 ZLUDA 计划,一个让其他平台兼容 CUDA 的转译层。更重要的是,可以阻止中国 GPU 制造商利用带有转译层的 CUDA 代码。虽然 Nvidia 可能短期内无法阻止所有人在其他硬件平台上运行 CUDA ,然而该公司已经为此设置法律障碍。

相关推荐

封面图片

NVIDIA 禁止使用转译层让 CUDA 软件在其他芯片上运行 (英文)2024-02-22 2023-12-17

封面图片

英伟达早在2021年就禁止逆向或反编译CUDA 因此多数转换层都是违规的

英伟达早在2021年就禁止逆向或反编译CUDA 因此多数转换层都是违规的 英伟达的硬件配合 CUDA 技术已经被证实非常高效,因此越来越多的应用程序依赖 CUDA 技术,但如果不是英伟达显卡那该怎么办呢?CUDA 转换层类技术:目前已经有一些 CUDA 转换层类软件,例如 ZLUDA,这种转换层可以让 CUDA 技术在非英伟达硬件上使用,这对于其他显卡制造商来说具有吸引力。然而 CUDA 本身就是英伟达的专有技术,而在非英伟达硬件上运行 CUDA 显然会威胁到英伟达的市场和地位,因此英伟达严禁对 CUDA 技术进行逆向工程、反编译或反汇编。英伟达最近的新动作:该公司最近在 CUDA 技术文档中已经添加关于 EULA 的文本文件,EULA 指的是最终用户许可协议 (End-user license agreement)。英伟达最早是从 2021 年开始在 NVIDIA 官网中的 EULA 文件中声明版权禁止逆向和反编译的,不过最近在 CUDA 新版本 (11.6+) 中也包含了这部分内容的 EULA 文件。显然英伟达现在属于客气的阶段,在文件中添加提醒,如果转换层类开发商仍然不放弃 CUDA 相关技术以及转换层,那么就可能会被英伟达起诉。 ... PC版: 手机版:

封面图片

SCALE 让 CUDA 应用无需修改运行在 AMD GPU 上

SCALE 让 CUDA 应用无需修改运行在 AMD GPU 上 英伟达通过其私有工具 CUDA 建立了护城河,成为 AI 热的最大赢家,大部分 AI 应用都是基于 CUDA 直接运行在英伟达的硬件上。英国公司 Spectral Compute Ltd 开发了一个 GPGPU 工具包 SCALE,允许 CUDA 应用无需修改就能编译运行在 AMD GPU 上,类似性能的 AMD GPU 通常比英伟达 GPU 更便宜。SCALE 目前支持 RDNA 2.0 和 RDNA 3.0 系列显卡,对旧一代的显卡如 Vega 10 和 GCN 5.0 的支持还在开发之后。 via Solidot

封面图片

Jim Keller:NVIDIA的CUDA不是护城河,是沼泽!

Jim Keller:NVIDIA的CUDA不是护城河,是沼泽! “CUDA 是沼泽,而不是护城河,”凯勒在 X 帖子中写道。“x86 也是一片沼泽。[…] CUDA 并不漂亮。它是通过一次堆积一件东西来构建的。” 确实,就像x86一样,CUDA在保持软件和硬件向后兼容性的同时逐渐增加了功能。这使得英伟达的平台完整且向后兼容,但它影响了性能并使程序开发变得更加困难。同时,很多开源软件开发框架可以比CUDA更高效地使用。“基本上没有人编写 CUDA,”Jim Keller在后续帖子中写道。“如果你确实编写 CUDA,它可能不会很快。[...] Triton、Tensor RT、Neon 和 Mojo 的存在是有充分理由的。”甚至NVIDIA本身也有不完全依赖 CUDA 的工具。例如,Triton Inference Server 是 NVIDIA 的一款开源工具,可简化 AI 模型的大规模部署,支持 TensorFlow、PyTorch 和 ONNX 等框架。Triton 还提供模型版本控制、多模型服务和并发模型执行等功能,以优化 GPU 和 CPU 资源的利用率。NVIDIA的TensorRT是一种高性能深度学习推理优化器和运行时库,可加速NVIDIA GPU上的深度学习推理。TensorRT 从各种框架(例如 TensorFlow 和 PyTorch)中获取经过训练的模型,并对其进行优化以进行部署,从而减少延迟并提高图像分类、对象检测和自然语言处理等实时应用程序的吞吐量。但是,尽管像Arm、CUDA 和x86这样的架构可能会被认为是“沼泽”,因为它们的演进速度相对较慢、必须向后兼容并且体积庞大,但这些平台也不像GPGPU这样分散,这可能根本不是一件坏事。目前尚不清楚 Jim Keller 对 AMD 的ROCm和英特尔的OneAPI有何看法,但很明显,尽管他花了很多年时间设计 x86 架构,但他并不迷恋其未来前景。他的言论还暗示,尽管他曾在世界上一些最大的芯片制造商工作过一段时间,包括苹果、英特尔、AMD、博通(现在是Tenstorrent)等公司,但我们可能不会在NVIDIA的名单上看到他的名字。 ... PC版: 手机版:

封面图片

NVIDIA不再允许其他芯片模拟跑CUDA

NVIDIA不再允许其他芯片模拟跑CUDA 如今,CUDA 11.6版本开始,安装的时候就会在EULA协议中看到相关警告条款。其中一条是这么写的:“你不能逆向工程、反编译或反汇编使用此SKD生成的任何结果,并在非NVIDIA平台上进行转译。”这一招,应该是针对Intel、AMD都有参与的ZLUDA等第三方项目,以及登临科技GPU+、沐曦科技等中国厂商的兼容方案。目前,NVIDIA尚未明确指向谁,而且只是在协议中警告,并未采取实际行动,但不排除未来采取进一步措施。 ... PC版: 手机版:

封面图片

AMD显卡可以原生跑NVIDIA CUDA应用了 速度还挺快

AMD显卡可以原生跑NVIDIA CUDA应用了 速度还挺快 之后在AMD的支持下,ZLUDA重启了该项目,能够让AMD显卡原生运行CUDA应用,不需要任何转移,也不需要调整代码。唯一要做的,就是用ZLUDA库替代CUDA。虽然它不能保证每一款CUDA应用都跑起来,但已经是以一个巨大的突破。非常可惜,AMD支持这一项目做了两年,也给停了不知道是不是受到了NVIDIA的压力。幸运的是,ZLUDA项目并未彻底消散,已经免费开源,感兴趣有能力的开发者都可以使用,而且确认可以在AMD ROCm平台上无缝运行CUDA应用。比如说,可以将CUDA作为Blender 4.0或者V-Ray的渲染API,尤其是Blender本来就有Radeon HIP计算渲染器,如今跑在ZLUDA上速度还会更快。Andrzej Janik也在继续研究ZLUDA,其中一个目标就是要让AMD显卡运行NVIDIA DLSS。内部测试表明,对比OpenCL方案,其性能大部分时候都更好,最多可以领先超过75%,但因为还在开发之中,部分时候效率反而更低。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人