护城河啊

None

相关推荐

封面图片

Google 和 OpenAI 都未建立 AI 的护城河

Google 和 OpenAI 都未建立 AI 的护城河 根据一份泄露的内部备忘录,Google 声称它和 OpenAI 都未建立 AI 的护城河,开源 AI 将会是最后的赢家。该文件被匿名人士公布在 Discord 上。文件称,在 Google 和 OpenAI 展开 AI 军备竞赛的同时,代表开源的第三方正在吞食其阵地。Google 和 OpenAI 的模型在质量上仍然稍微占优,但差距正在快速缩小。开源模型更快,定制性更高,隐私保护更好,同等规模时性能更强。130 亿参数的开源模型训练只需要 100 美元,而 Google 和 OpenAI 有 5400 亿参数的模型训练要花费 1000 万美元。大语言模型不存在什么秘方,参数太多的大模型反而造成拖累,最佳的模型是能快速迭代的。Google 备忘录认为关注开源模型的开发有助于避免重新发明轮子。来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

南通 如皋文峰 护城河 #泡水车 +1

封面图片

Google 和 OpenAI 都未建立 AI 的护城河

Google 和 OpenAI 都未建立 AI 的护城河 根据一份泄露的内部备忘录,Google 声称它和 OpenAI 都未建立 AI 的护城河,开源 AI 将会是最后的赢家,开源模型更快,定制性更高,隐私保护更好,同等规模时性能更强。 130 亿参数的开源模型训练只需要 100 美元,而 Google 和 OpenAI 有 5400 亿参数的模型训练要花费 1000 万美元。 大语言模型不存在什么秘方,参数太多的大模型反而造成拖累,最佳的模型是能快速迭代的,关注开源模型的开发有助于避免重新发明轮子。 频道 @WidgetChannel 投稿 @WidgetPlusBot

封面图片

安北-护城河夜战(29分).mp4

封面图片

Jim Keller:NVIDIA的CUDA不是护城河,是沼泽!

Jim Keller:NVIDIA的CUDA不是护城河,是沼泽! “CUDA 是沼泽,而不是护城河,”凯勒在 X 帖子中写道。“x86 也是一片沼泽。[…] CUDA 并不漂亮。它是通过一次堆积一件东西来构建的。” 确实,就像x86一样,CUDA在保持软件和硬件向后兼容性的同时逐渐增加了功能。这使得英伟达的平台完整且向后兼容,但它影响了性能并使程序开发变得更加困难。同时,很多开源软件开发框架可以比CUDA更高效地使用。“基本上没有人编写 CUDA,”Jim Keller在后续帖子中写道。“如果你确实编写 CUDA,它可能不会很快。[...] Triton、Tensor RT、Neon 和 Mojo 的存在是有充分理由的。”甚至NVIDIA本身也有不完全依赖 CUDA 的工具。例如,Triton Inference Server 是 NVIDIA 的一款开源工具,可简化 AI 模型的大规模部署,支持 TensorFlow、PyTorch 和 ONNX 等框架。Triton 还提供模型版本控制、多模型服务和并发模型执行等功能,以优化 GPU 和 CPU 资源的利用率。NVIDIA的TensorRT是一种高性能深度学习推理优化器和运行时库,可加速NVIDIA GPU上的深度学习推理。TensorRT 从各种框架(例如 TensorFlow 和 PyTorch)中获取经过训练的模型,并对其进行优化以进行部署,从而减少延迟并提高图像分类、对象检测和自然语言处理等实时应用程序的吞吐量。但是,尽管像Arm、CUDA 和x86这样的架构可能会被认为是“沼泽”,因为它们的演进速度相对较慢、必须向后兼容并且体积庞大,但这些平台也不像GPGPU这样分散,这可能根本不是一件坏事。目前尚不清楚 Jim Keller 对 AMD 的ROCm和英特尔的OneAPI有何看法,但很明显,尽管他花了很多年时间设计 x86 架构,但他并不迷恋其未来前景。他的言论还暗示,尽管他曾在世界上一些最大的芯片制造商工作过一段时间,包括苹果、英特尔、AMD、博通(现在是Tenstorrent)等公司,但我们可能不会在NVIDIA的名单上看到他的名字。 ... PC版: 手机版:

封面图片

Jim Keller 批评英伟达:CUDA 是沼泽,不是护城河

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人