元戎启行与英伟达达成合作 成为 DRIVE Thor 芯片首批智驾用户

元戎启行与英伟达达成合作成为DRIVEThor芯片首批智驾用户3月20日,元戎启行CEO周光在英伟达主办的GTC大会上发表演讲,并宣布已与英伟达达成合作。据悉,元戎启行将于2025年采用英伟达的DRIVEThor芯片适配公司的端到端智能驾驶模型,成为业内首批使用DRIVEThor芯片适配端到端模型的企业。目前,元戎启行已经率先把端到端模型应用于量产车上,该批量产车将于今年投入消费者市场。

相关推荐

封面图片

元戎启行推出新一代智驾平台 IO 数款合作量产车今年面市

元戎启行推出新一代智驾平台IO数款合作量产车今年面市4月25日,元戎启行在北京国际汽车展览会正式对外展示了即将量产的高阶智驾平台DeepRouteIO。在导航地图覆盖的范围内,IO平台可实现全域点到点高阶智能驾驶。端到端模型为平台输入“驾驶经验”,保证所到之处都能开、任何场景都好开。元戎启行同时展出首款基于IO平台的解决方案,基于此方案,元戎启行已与国内某头部车企展开量产合作,数款合作车型将于2024年陆续推向消费者市场。

封面图片

元戎启行周光:端到端模型将于今年上车

元戎启行周光:端到端模型将于今年上车3月17日,在中国电动汽车百人会汽车新质生产力论坛上,元戎启行CEO周光表示,智能驾驶端到端模型将会成就一位“超级AI司机”,开启物理世界通用人工智能技术的新纪元。目前,公司已经成功将端到端模型适配到量产车上,该批量产车将于今年投入消费者市场。据了解,在当前的国内消费市场,智能驾驶系统仍然采用模块化模型,而端到端模型将感知、预测、规划三个模型融为一体,赋予机器自主学习、思考和分析的能力。

封面图片

英伟达黄仁勋:下一代智能汽车芯片与三家中国车企达成合作

英伟达黄仁勋:下一代智能汽车芯片与三家中国车企达成合作美国时间3月18日下午,英伟达2024GTC大会在加州圣何塞中心盛大开幕。在发布会上,黄仁勋宣布,英伟达下一代汽车智能芯片DRIVEThor专为Transformer引擎设计,并将被比亚迪采用。此外,广汽埃安旗下的昊铂品牌也宣布,下一代L4级自动驾驶汽车将采用DRIVEThor芯片,并计划于2025年开始量产。昊铂与英伟达将在高性能计算、智能驾驶技术和深度学习领域展开合作。(第一财经)来源:雪球7X24资讯

封面图片

莱迪思半导体与英伟达达成合作,以加速边缘 AI 应用开发

莱迪思半导体与英伟达达成合作,以加速边缘AI应用开发美东时间12月5日,莱迪思半导体在开发者大会上宣布推出一种新型参考传感器桥接设计,以加速使用NVIDIAJetsonOrin和IGXOrin平台的边缘AI应用程序的开发。该开源参考板基于Latticefpga和NVIDIAOrin,旨在满足开发人员在设计用于医疗保健、机器人和嵌入式视觉的高性能边缘AI应用程序时对连接各种传感器和接口、设计可扩展性和低延迟的需求。(界面)

封面图片

美初创公司 Ampere 与高通达成合作,新芯片将于明年推出

美初创公司Ampere与高通达成合作,新芯片将于明年推出当地时间5月16日,美国初创公司AmpereComputing表示,它将与高通公司合作推出一款新型芯片,旨在降低人工智能芯片的运行能耗。Ampere公司由英特尔前总裁ReneeJames创立,主打Arm架构服务器通用芯片,专注于制造比英特尔和AMD更节能的芯片。Ampere表示,新芯片将于明年推出,采用台积电3纳米制造工艺。双方表示,它们已将各自芯片集成到一台数据中心服务器。

封面图片

英伟达最新AI芯片H200或将成为其史上最赚钱产品之一

英伟达最新AI芯片H200或将成为其史上最赚钱产品之一根据英伟达官网的消息,基于英伟达的“Hopper”架构,H200是该公司首款采用HBM3e内存的芯片。这种内存速度更快,容量更大,使其更适用于大型语言模型。英伟达表示,H200使用HBM3e内存能够以每秒4.8TB的速度提供141GB的容量,相比于A100,其容量几乎翻了一倍,带宽提高了2.4倍。预计H200将于2024年第二季度上市,届时将与AMD的MI300XGPU展开竞争。与H200相似,AMD的新芯片相比前代产品拥有更多内存,这对运行大型语言模型的推理计算有帮助。英伟达还表示,H200将与H100兼容,这意味着那些已经在使用H100进行训练的AI公司无需更改他们的服务器系统或软件即可适应H200。英伟达副总裁IanBuck称:“为了训练生成式AI和高性能计算应用,必须使用高性能GPU。有了H200,行业领先的AI超级计算平台可以更快地解决一些世界上最重要的挑战。”英伟达的加速计算首席产品经理DionHarris表示:“观察市场上的动态,可以看到大型模型的尺寸正在迅速扩大。这是我们继续引领最新、最伟大技术的又一例证。”据美国金融机构RaymondJames透露,H100芯片的成本仅为3320美元,但英伟达对其客户的批量价格却高达2.5万至4万美元。这使得H100的利润率可能高达1000%,成为有史以来最赚钱的芯片之一。在训练大型语言模型时,通常需要数千个H100集群协同工作,因此科技巨头、初创公司和政府机构都在争夺英伟达有限的芯片供应。由于对其产品的需求看似无穷无尽,英伟达今年的销售额大幅增长,股价上涨了230%,市值突破了1.2万亿美元大关。截至周一收盘,该股收涨0.59%,报486.2美元。相关文章:NVIDIA发布HopperH200GPU与基于GraceHopper的Jupiter超算项目...PC版:https://www.cnbeta.com.tw/articles/soft/1396697.htm手机版:https://m.cnbeta.com.tw/view/1396697.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人