ROCBOSSPHP是一个开源的轻型社区系统,自2014年推出以来深受用户喜爱。它具有优雅、简约、高效和强大的性能,非常适合垂直

ROCBOSSPHP是一个开源的轻型社区系统,自2014年推出以来深受用户喜爱。它具有优雅、简约、高效和强大的性能,非常适合垂直类社区平台的交流需求。其特性包括:1.前后端分离架构,服务模块化,没有过多冗余设计,易于横向扩展。2.提供丰富的注释和文档,使二次开发变得简单。3.设计了漂亮、精致、大气的用户界面。4.提供简单冒泡/文章长文双模式,最大程度地满足用户的发言角色需求。5.支持图文、视频、附件等多媒体文件。6.能够支持内容加密和付费功能。ROCBOSSPHP适用于开源社区、论坛和社区平台。https://gocodehub.com/2799.html

相关推荐

封面图片

2023年最新CRMEB商城盲盒源码重新优化介绍

2023年最新CRMEB商城盲盒源码重新优化介绍最新的CRMEB商城盲盒源码于2023年推出,包括后台管理系统、前端uniapp、后台vue以及H5注册页uniapp,可在多平台上运行并支持任意二次开发定制。此外,还提供了详细的搭建教程,方便用户轻松上手。优势和特点1.该盲盒源码完全开源,方便二次开发和自定义定制。每个组件都有详细的代码注释,易于理解。2.适用于多个平台的运行,包括iOS、Android、Web等。3.支持多种功能扩展,包括分享、支付、客服等。4.界面设计简洁明了,易于使用和操作。使用该盲盒源码非常简单。用户只需下载源码,然后按照内附的搭建教程进行配置即可。如果需要二次开发,可以根据需求进行修改。此外,该盲盒源码还提供了详细的API文档和示例代码,方便用户更好地理解和掌握相关技术和方法。#全新#商城#改版#程序#介绍。https://gocodehub.com/3458.html

封面图片

AlmaLinux成立高性能计算与人工智能小组

AlmaLinux成立高性能计算与人工智能小组该小组的工作重点和动机似乎与CentOSHyperscalerSIG类似,是为了确保那些在HPC和AI环境中部署AlmaLinux的用户的需求得到满足,并确保AlmaLinux继续成为此类AI/HPC用例中具有吸引力的Linux平台。这个新的AlmaLinuxSIG的负责人是HPE的人工智能开源社区经理HaydenBarnes。目前,该小组刚刚起步,似乎还没有任何直接的成果,只是在今天发布了一份相当简单的新闻稿。有关AlmaLinux新HPC/AISIG的更多详细信息,请访问AlmaLinux.org。...PC版:https://www.cnbeta.com.tw/articles/soft/1429431.htm手机版:https://m.cnbeta.com.tw/view/1429431.htm

封面图片

Created by NewBing

EMBY和PLEX是两款流行的媒体服务器软件,可以让用户在不同的设备上享受自己的本地媒体文件,如电影、剧集、音乐等。它们都有免费和收费的版本,都支持硬解、直播、海报墙等功能,都可以通过网页或客户端进行管理和播放。但是,它们也有各自的优缺点,下面简要对比一下。EMBY的优点是:-开源,有活跃的社区和开发者,功能更新较快;-可以读取自定义的元数据文本,方便用户编辑和管理媒体库;-支持多种插件,可以扩展更多功能,如豆瓣刮削、弹幕、同步播放等;-支持多用户管理,可以设置不同的权限和偏好;-支持中文界面,易于使用。EMBY的缺点是:-收费较贵,每月4.99美元,每年54美元,终身119美元;-界面设计较为简陋,没有PLEX那么精美和流畅;-海报墙匹配不够准确,有时需要手动修改;-直播功能不够稳定,有时会出现卡顿或无法播放的情况。PLEX的优点是:-界面设计优美,操作流畅,用户体验良好;-海报墙匹配较为准确,自动获取媒体信息和封面;-支持多种流媒体频道,可以观看在线视频和电台;-支持远程访问和共享媒体库,可以邀请朋友观看自己的内容;-支持中文界面,易于使用。PLEX的缺点是:-封闭源代码,功能更新较慢,没有EMBY那么灵活和可定制;-不支持自定义元数据文本,只能在PLEX服务器里修改媒体信息;-插件数量较少,功能扩展有限;-收费较贵,每月4.99美元,每年39.99美元,终身119.99美元。综上所述,EMBY和PLEX都是优秀的媒体服务器软件,各有千秋。用户可以根据自己的需求和喜好选择适合自己的软件。如果你追求开源、可定制、多功能的媒体服务器,那么EMBY可能更适合你;如果你追求美观、流畅、简单的媒体服务器,那么PLEX可能更适合你。CreatedbyNewBing#emby#plex

封面图片

“少数人”的胜利 Midjourney走上AIGC神坛

“少数人”的胜利Midjourney走上AIGC神坛新版Midjourney,用户使用风格化命令,就能轻而易举地生成大师级作品。以高频迭代速度不断优化使用体验,一时间,针对Midjourney的极简入门法则、使用攻略、进阶玩法、变现指南等在网上被广泛传播。大量新用户的涌入,再加上GPU临时性短缺,导致Midjourney付费用户的服务陷入了瘫痪。为此,公司只好叫停免费试用。有机构用“产品效果惊艳”评价Midjourney。作为文生图领域的“领跑者”,Midjourney由DavidHolz创立于2021年8月,仅拥有11名全职员工,成立至今未融过资,却凭借着付费订阅的商业模式,实现年营收1亿美元。资料来源:Theinformation官网就是这样一个仅有11人的小公司,没有任何外部重金投入,却成为AI绘画领域的“当红明星”,甚至将同类型的公司都甩在其后。现如今,Midjourney在聊天软件Discord上已经积累了将近1500万用户,这家公司也成了了解AI绘画无法绕开的公司。创始人曾两次拒绝苹果“我们没有压力销售什么东西,也不用成为上市公司,只是为了未来十年能够有一个家,可以从事很多比较有意义的、酷的项目,希望不仅是对我,还是对世界有意义,并且享受乐趣。”一年半前,Midjourney创始人DavidHolz在接受媒体采访时表示。在DavidHolz的蓝图中,他要打造的是一个“想象力引擎”,他认为想象力是人们在世界上所需东西的重要支柱。而同时,人们可以把AIGC变成一种力量,扩展人类的想象力。图源:Midjourney官网Midjourney官网上,关于DavidHolz的此前经历的介绍非常简洁:LeapMotion创始人;NASA和MaxPlanck研究员。图源:Midjourney官网"这很Midjourney。”一位AIGC领域创业者说,它的风格就是简单、直接、高效,就像他们做产品的思路一样:“所有精力集中在模型上,不做app,也不做网站。”高中时期的DavidHolz感兴趣的是设计,也做过设计生意。上大学后,他学了与设计几乎不相干的物理和数学。研究生期间,他希望能选择与现实有关的专业,于是读了应用数学专业。之后,他又攻读了流体力学博士。创业的想法很偶然。“有一次我不知所措,把所有的事情放在一边。所以我搬到了旧金山,创办了LeapMotion。”DavidHolz曾在接受媒体采访时说。LeapMotion成立于2010年,彼时VR、AR行业还未开始火热。两年后,极具极客气质的LeapMotion控制器诞生。这个看起来像U盘一般大小的盒子尽管看似毫不起眼,但一经展示便立即吸引了大量的关注。这个控制器内装有多种传感设备,能追踪到小到0.01毫米的动作,当你把手放在它正上方,便可以跟踪十指动作,并借助计算机视觉技术,让你的手部动作投射在虚拟空间中。这款充满着想象和憧憬的产品推出后,LeapMotion一炮而红。2013年经过B轮融资之后达到巅峰状态,估值达到3.06亿美元。彼时,苹果的AR项目还在初期,希望通过收购将优秀的团队和项目整合到自己的项目中。然而理念的差异让苹果吃了闭门羹。这是DavidHolz第一次拒绝苹果。五年后的2018年,LeapMotion已没有昔日的名气,但技术实力依然不弱。接到苹果再次邀约之后,双方开始了谈判,但在交易进展到尾声阶段时,收购再一次叫停。在之后的公开报道中,DavidHolz间接解释了拒绝苹果的原因,他认为苹果已经失去了创造力,甚至直言:“我永远不会为那些家伙工作,他们是魔鬼。”MidJourney的创始人大卫·霍尔茨最终在2019年,DavidHolz以3000万美元将LeapMotion卖给了竞争对手UltraHaptics。Midjourney是DavidHolz在AI艺术领域探索新机会的产物。后面的这次创业,DavidHolz没有融资,但靠“刷脸”解决了Midjourney算力问题。据报道,DavidHolz给一个云供应商的负责人发邮件,希望对方提供10000个GPU。很快,Midjourney获得了云供应商的支持,原因便是他们了解到DavidHolz,知道他以前的创业经历。低使用门槛抢占用户心智“相比其他同类产品,Midjourney的Prompt简短,用户门槛低。”一家第三方研究机构在其报告中写到。Midjourney使用起来极为简单,注册Discord账号之后,即可进入Midjourney频道,随后可以加入公测服务器。使用时,用户只需要输入命令提示符,就可以生成对应的高品质图形。它可以让用户避开复杂的使用技巧,同时可以用算法让机器想象你输入命令的样子。这也是Midjourney能够脱颖而出的地方。凭借简单的Prompt,Midjourney借助Discord社区持续迭代,社区用户将近1500万。图源:Discord一位Midjourney使用者告诉全天候科技,Midjourney给人的感觉是用起来简单而且无约束,“有一种不可思议的力量和流动,就像一款能让我上瘾的游戏。”而在前述AIGC领域从业者看来,Midjourney拥有游戏的所有元素:能够让你想象任何实物的可靠核心圈层,魔咒一般灵巧的指令符,以及基于社区的开放文化。Midjourney生成的人物图图源:Twitter账号NickSt.Pierre为何不直接做一个iOS拍照应用?而是选择Discord用户界面。最初其实是因为Midjourney团队是一个远程工作的团队,所以建立了一个机器人。后来,团队用同样的机器人在Discord上做了一个用户测试,得到的结果是:用户很喜欢这个实时交流想法,富有想象力的环境。这也让DavidHolz看到了Discord体验的神奇之处。“我们发现人们真的喜欢一起想象,所以我们让Midjourney更具社交性。我们有一个巨大的Discord社区,用户在这些共享空间中共同想象。”DavidHolz曾在公开采访中表示。他认为,人们想要一起做事情,如果是在iOS平台去做,就必须做自己的社交网络,这非常困难。但相反,如果用户想要自己的社交体验,Discord是很好的选择。作为一款适用于游戏玩家一体化语音和文字聊天软件,Discord平台的社交属性也让Midjourney抢占了更多的用户心智。“它在Discord上更像是一个艺术AI的社交空间,能够让它易于迭代、学习、发现和发展。”上述AIGC领域从业者说。Midjourney生成的“卡塔尔世界杯”画面。图源:小红书博主Ai船长换言之,Discord社区生态帮助了Midjourney的推广。反过来,庞大的用户能够根据自身需求针对性地训练模型并快速迭代产品。作为AI绘画领域的两个“领头羊”,人们总会把Midjourney和StableDiffusion放在一起对比。对比而言,StableDiffusio是一个免费开源的模型,完全免费、不限次数、任何人都可用的。因而,StableDiffusion的优势在于其无需任何成本即可使用。同时还可以在GitHub上找到完整的源代码和文档。另外,开源前提下,模型代码迭代的速度也增快,优化效率高于闭源模型。但缺点也显而易见:如果没有其它护城河,商业化问题难以解决,很容易成为别人前进的垫脚石。而Midjourney则需要付费使用。和大部分软件类应用类似,Midjourney采用付费订阅的模式,按月向用户收取费用,共有3种收费套餐:10美元/月、30美元/月、60美元/月。图源:Midjourney官网相较而言,收费模式容易劝退用户,在社区支持和维护方面也逊于开源的StableDiffusion。然而,相对封闭也成为Midjourney构建自身护城河的重要方式。因为没有公开其源代码,因此无法被广泛地研究、改进和应用,Midjourney积累的数据集具有独家性,可以进行针对性训练。Midjourney的成功或许包含了多种因素,比如:清晰的目标定位,快速在一个仍然混沌的市场中找到合适的产品形态;专注在有价值的具体业务方面,迅速形成技术优势;找到一个有充沛流量的场景Discord,实现低成本获客,低成本营销等。想象力的空间已经打开,AIGC的竞争越加激烈,Midjourney还能赢在未来吗?...PC版:https://www.cnbeta.com.tw/articles/soft/1357099.htm手机版:https://m.cnbeta.com.tw/view/1357099.htm

封面图片

老黄深夜炸场:世界最强AI芯片H200震撼发布 性能飙升90%

老黄深夜炸场:世界最强AI芯片H200震撼发布性能飙升90%全世界的AI公司都陷入算力荒,英伟达的GPU已经千金难求。英伟达此前也表示,两年一发布的架构节奏将转变为一年一发布。就在英伟达宣布这一消息之际,AI公司们正为寻找更多H100而焦头烂额。英伟达的高端芯片价值连城,已经成为贷款的抵押品。谁拥有H100,是硅谷最引人注目的顶级八卦至于H200系统,英伟达表示预计将于明年二季度上市。同在明年,英伟达还会发布基于Blackwell架构的B100,并计划在2024年将H100的产量增加两倍,目标是生产200多万块H100。而在发布会上,英伟达甚至全程没有提任何竞争对手,只是不断强调“英伟达的AI超级计算平台,能够更快地解决世界上一些最重要的挑战。”随着生成式AI的大爆炸,需求只会更大,而且,这还没算上H200呢。赢麻了,老黄真的赢麻了!141GB超大显存,性能直接翻倍!H200,将为全球领先的AI计算平台增添动力。它基于Hopper架构,配备英伟达H200TensorCoreGPU和先进的显存,因此可以为生成式AI和高性能计算工作负载处理海量数据。英伟达H200是首款采用HBM3e的GPU,拥有高达141GB的显存。与A100相比,H200的容量几乎翻了一番,带宽也增加了2.4倍。与H100相比,H200的带宽则从3.35TB/s增加到了4.8TB/s。英伟达大规模与高性能计算副总裁IanBuck表示——要利用生成式人工智能和高性能计算应用创造智能,必须使用大型、快速的GPU显存,来高速高效地处理海量数据。借助H200,业界领先的端到端人工智能超算平台的速度会变得更快,一些世界上最重要的挑战,都可以被解决。Llama2推理速度提升近100%跟前代架构相比,Hopper架构已经实现了前所未有的性能飞跃,而H100持续的升级,和TensorRT-LLM强大的开源库,都在不断提高性能标准。H200的发布,让性能飞跃又升了一级,直接让Llama270B模型的推理速度比H100提高近一倍!H200基于与H100相同的Hopper架构。这就意味着,除了新的显存功能外,H200还具有与H100相同的功能,例如TransformerEngine,它可以加速基于Transformer架构的LLM和其他深度学习模型。HGXH200采用英伟达NVLink和NVSwitch高速互连技术,8路HGXH200可提供超过32Petaflops的FP8深度学习计算能力和1.1TB的超高显存带宽。当用H200代替H100,与英伟达GraceCPU搭配使用时,就组成了性能更加强劲的GH200GraceHopper超级芯片——专为大型HPC和AI应用而设计的计算模块。下面我们就来具体看看,相较于H100,H200的性能提升到底体现在哪些地方。首先,H200的性能提升最主要体现在大模型的推理性能表现上。如上所说,在处理Llama2等大语言模型时,H200的推理速度比H100提高了接近1倍。因为计算核心更新幅度不大,如果以训练175B大小的GPT-3为例,性能提升大概在10%左右。显存带宽对于高性能计算(HPC)应用程序至关重要,因为它可以实现更快的数据传输,减少复杂任务的处理瓶颈。对于模拟、科学研究和人工智能等显存密集型HPC应用,H200更高的显存带宽可确保高效地访问和操作数据,与CPU相比,获得结果的时间最多可加快110倍。相较于H100,H200在处理高性能计算的应用程序上也有20%以上的提升。而对于用户来说非常重要的推理能耗,H200相比H100直接腰斩。这样,H200能大幅降低用户的使用成本,继续让用户“买的越多,省的越多”!上个月,外媒SemiAnalysis曾曝出一份英伟达未来几年的硬件路线图,包括万众瞩目的H200、B100和“X100”GPU。而英伟达官方,也公布了官方的产品路线图,将使用同一构架设计三款芯片,在明年和后年会继续推出B100和X100。B100,性能已经望不到头了这次,英伟达更是在官方公告中宣布了全新的H200和B100,将过去数据中心芯片两年一更新的速率直接翻倍。以推理1750亿参数的GPT-3为例,今年刚发布的H100是前代A100性能的11倍,明年即将上市的H200相对于H100则有超过60%的提升,而再之后的B100,性能更是望不到头。至此,H100也成为了目前在位最短的“旗舰级”GPU。如果说H100现在就是科技行业的“黄金”,那么英伟达又成功制造了“铂金”和“钻石”。H200加持,新一代AI超算中心大批来袭云服务方面,除了英伟达自己投资的CoreWeave、Lambda和Vultr之外,亚马逊云科技、Google云、微软Azure和甲骨文云基础设施,都将成为首批部署基于H200实例的供应商。此外,在新的H200加持之下,GH200超级芯片也将为全球各地的超级计算中心提供总计约200Exaflops的AI算力,用以推动科学创新。在SC23大会上,多家顶级超算中心纷纷宣布,即将使用GH200系统构建自己的超级计算机。德国尤里希超级计算中心将在超算JUPITER中使用GH200超级芯片。这台超级计算机将成为欧洲第一台超大规模超级计算机,是欧洲高性能计算联合项目(EuroHPCJointUndertaking)的一部分。Jupiter超级计算机基于Eviden的BullSequanaXH3000,采用全液冷架构。它总共拥有24000个英伟达GH200GraceHopper超级芯片,通过Quantum-2Infiniband互联。每个GraceCPU包含288个Neoverse内核,Jupiter的CPU就有近700万个ARM核心。它能提供93Exaflops的低精度AI算力和1Exaflop的高精度(FP64)算力。这台超级计算机预计将于2024年安装完毕。由筑波大学和东京大学共同成立的日本先进高性能计算联合中心,将在下一代超级计算机中采用英伟达GH200GraceHopper超级芯片构建。作为世界最大超算中心之一的德克萨斯高级计算中心,也将采用英伟达的GH200构建超级计算机Vista。伊利诺伊大学香槟分校的美国国家超级计算应用中心,将利用英伟达GH200超级芯片来构建他们的超算DeltaAI,把AI计算能力提高两倍。此外,布里斯托大学将在英国政府的资助下,负责建造英国最强大的超级计算机Isambard-AI——将配备5000多颗英伟达GH200超级芯片,提供21Exaflops的AI计算能力。英伟达、AMD、英特尔:三巨头决战AI芯片GPU竞赛,也进入了白热化。面对H200,而老对手AMD的计划是,利用即将推出的大杀器——InstinctMI300X来提升显存性能。MI300X将配备192GB的HBM3和5.2TB/s的显存带宽,这将使其在容量和带宽上远超H200。而英特尔也摩拳擦掌,计划提升GaudiAI芯片的HBM容量,并表示明年推出的第三代GaudiAI芯片将从上一代的96GBHBM2e增加到144GB。英特尔Max系列目前的HBM2容量最高为128GB,英特尔计划在未来几代产品中,还要增加Max系列芯片的容量。H200价格未知所以,H200卖多少钱?英伟达暂时还未公布。要知道,一块H100的售价,在25000美元到40000美元之间。训练AI模型,至少需要数千块。此前,AI社区曾广为流传这张图片《我们需要多少个GPU》。GPT-4大约是在10000-25000块A100上训练的;Meta需要大约21000块A100;StabilityAI用了大概5000块A100;Falcon-40B的训练,用了384块A100。根据马斯克的说法,GPT-5可能需要30000-50000块H100。摩根士丹利的说法是25000个GPU。SamAltman否认了在训练GPT-5,但却提过“OpenAI的GPU严重短缺,使用我们产品的人越少越好”。我们能知道的是,等到明年第二季度H200上市,届时必将引发新的风暴。...PC版:https://www.cnbeta.com.tw/articles/soft/1396699.htm手机版:https://m.cnbeta.com.tw/view/1396699.htm

封面图片

从亏钱生意到利润1000% 英伟达靠什么成为万亿GPU霸主?

从亏钱生意到利润1000%英伟达靠什么成为万亿GPU霸主?GPU芯片在超级计算和全球巨头大模型训练战中地位举足轻重,而掌握全球80%GPU市场份额的英伟达赚得盆满钵满。然而,这种垄断式的市场占有率不是一夜砌成的“城墙”。据Tractica数据,预计到2025年全球AI硬件市场收入将达到2349亿美元,其中GPU的收入占23.2%。英伟达在GPU市场的构筑的护城河,CUDA是其中至关重要的一环。一套完善的编译器生态2006年,正是在AMD收购了ATI、英特尔依然蝉联全球第一大芯片厂商的时候,英伟达推出了CUDA(ComputeUnifiedDeviceArchitecture),它是英伟达研发的平行运算平台及编程模型。AI大神吴恩达简单评价了CUDA的意义:“在CUDA出现之前,全球能用GPU编程的可能不超过100人,有CUDA之后使用GPU就变成一件非常轻松的事。”多数CUDA的推荐者认为,CUDA完善的编译器生态是英伟达GPU在高性能计算领域成功的关键。具体来讲,CUDA具有易部署、开发接口灵活、编程语言适配、工具及代码库完备等优点,并且兼容Windows、Linux和MacOS多个操作系统。CUDA的开发让GPU不再是简单的图形处理器,适用对象也从游戏制作人变为科学家、工程师或艺术家。随着不断迭代,CUDA在针对AI或神经网络深度学习领域推出了非常多的加速库,构成了CUDA的软硬件生态站。大卫·罗森塔尔在Acquired.FM中介绍,CUDA的代码库是经过优化的,开发人员调用这些库开发程序更加便利。因此,CUDA有庞大的社区资源,2023年5月注册开发者增加至400万人。投入过百亿的CUDA生态英伟达凭借CUDA几乎垄断了训练芯片市场,业界也几乎没有巨头对CUDA生态造成颠覆性冲击。英伟达为CUDA生态铺垫了十余年。2007年,英伟达的GPU研发技术已占据强势地位,次年英特尔的大客户苹果将MacBook除CPU外直接替换成英伟达Tesla架构的GPU便印证了这一点。据报道,经年累计英伟达对CUDA总投入早已超过100亿美元。在黄仁勋商业化考虑之下,CUDA生态需要培养潜在开发者,成为受到程序员和企业欢迎的技术平台。在2006年推出CUDA后,英伟达的第一个战略便瞄准了“软件开发人员”,投入巨资让开发者习惯使用CUDA平台。初期,开发者社区有这样一句话:CUDA在编程语言和共享存储器两个层次的并行都简化了编程,使得本科生也能使用CUDA写出大规模高性能计算程序。为扩大覆盖率,英伟达将CUDA引入大学课堂,与伊利诺伊大学等高校合作完善函数库。在2010年时,已有250所大学开放CUDA的教学课程,并有相关论文数千篇。以此为基础完善生态,英伟达建立研究中心、教学中心、认证计划,到2015年已有800所大学开发相关课程。再从业界来看,英伟达投入资金做inception计划(初创加速计划),让初创公司运用CUDA做项目铺垫基础。至今,已有超过100家初创公司利用了CUDA。此外,英伟达开源了Cub、NCCL等通用场景下的开发库,并优化中间件性能的基础库给厂家使用,再次扩大了生态系统。因此,许多开发者依赖于CUDA,同时凭借强大的核心能力在消费市场上受到青睐。2012年,在ImageNet竞赛一举夺冠的AlexNet面世后,CUDA已迭代至5.0版本,支持了动态库和GPU指针。2016年,OpenAI成立之时,CUDA8.0已经支持半精度浮点数和张量核心,软件生态已由学界和业界人士熟知、互相推荐。2022年底,ChatGPT的发布将生成式AI送到人们眼前,CUDA12.0支持了新的NVIDIAHopper和NVIDIAAdaLovelace架构功能,并为所有GPU提供了额外的编程模型增强。等到大模型热度吹进各家企业时,英伟达已经深化了他们在行业中的差异化,成为市场玩家购物篮的第一选择。目前为止,基于CUDA的GPU销量超过百万。而众多GPU芯片厂家中,为什么是英伟达做出了唯一的CUDA开发环境?从亏钱生意到利润1000%回顾世纪初期,英伟达与微软、ATI、AMD、英特尔五家巨头的混战,英伟达在图形处理市场中逐渐占据优势。2006年7月,AMD以54亿美元溢价收购ATI,芯片市场重新洗牌。同年,英伟达的首席科学家DavidKirk提出了“将GPU技术通用化”的思路,从主要做3D渲染的任务中脱离出来,探索通用计算任务。这个思路就是CUDA。而当时,愿意担起这门费钱费力的技术活的也是英伟达。几大家芯片公司中,老对手AMD买下ATI后GPU研发进入弱势地位,英特尔取消了自研GPU计划。英伟达则在GPU技术方面将巨头们甩在了身后。17年前,研发CUDA是一个超前的决定,英伟达的CUDA进化并非一帆风顺,黄仁勋则坚持“加速计算”是未来。英伟达和英特尔在2006年秋天共同开发了基于CUDA的新型GPU,即G80GPU。而两者的合作持续不长久,CUDA的研发决策需要英伟达长久地投入大量资金。从产品特性上来说,CUDA逻辑电路在硬件产品中增加会导致芯片的散热需求增高,由此也会带来成本上升、故障增多的风险。从财报表现来看,CUDA也是一门亏钱生意,在2008年金融危机前后表现得更为明显。在最艰难的时候,黄仁勋也没有中断CUDA,直到2012年辛顿教授带队以GPU代替CPU训练AI模型做出了AlexNet。2020年,黄仁勋在接受Barron周刊时强调:“英伟达将推动下一个人工智能大爆炸。”这5年,为了迎接人工智能,英伟达做了3件事。第一,2019年3月,英伟达以69亿美元收购了高性能计算互联技术公司Mellanox。这家公司的主要产品InfiniBand,被认为速度更快、带宽更高,是数据传输的有效方式,而Mellanox是唯一的InfiniBand规范提供商。第二,英伟达于2022年9月发布新一代AI芯片“DriveThor”,专为大规模GPU集群协调设计,是英伟达一款完全集成的解决方案。第三,英伟达推出专为加速计算和生成式AI打造的Hopper架构,H100便是基于此架构的GPU。市场消息称,H100是英伟达利润率高达1000%的产品,出货量超过900吨。随着ChatGPT发布,带动AI服务器出货量和价格上涨,英伟达的GPU芯片价格水涨船高。英伟达的DGXH100售价总价为268495美元,包含8GPU+4NVSwitch基板等,每台毛利率接近190000美元。英伟达的财务收入令人瞩目,据悉,过去3个财年的复合年增长率(CAGR)达到35.2%,预计2023年收入将飙升51.4%至408亿美元。CUDA构筑的壁垒能被打破吗?2016年,AMD推出基于开源项目的GPU生态系统ROCm,类似英伟达的CUDA系统,然而ROCm技术相较落后,在2023年4月才登录Windows平台。由于切入时间较晚,AMD开发者数量远也低于英伟达。在Github上,贡献CUDA软件包仓库的开发者超过32600位,而ROCm只有不到600个。英伟达大约占据全球80%的GPU市场份额,光从销量来看,都是一家独大。而英伟达的垄断市场的优势可以持续多久?针对这一问题,SemiAnalysis首席分析师DylanPatel给出观点:随着PyTorch支持更多GPU厂商,再加上OpenAI的Triton搅局,英伟达手中的利器CUDA逐渐锋芒不再。软件生态来看,CUDA的霸主地位确实受到各方攻击。近年,AI开发框架PyTorch因灵活的eager模式使用比率逐渐超越了TensorFlow,PyTorch2.0版本将会对AMD、英特尔、特斯拉、谷歌等GPU和加速器进行支持完善。OpenAI则直接推出了“简化版CUDA:Triton”,操作难度低于CUDA。2023年第一季度,AMD宣布ROCm系统融入PyTorch2.0框架,TensorFlow和Caffe深度学习框架也已加入第五代ROCm。其6月发布下一代数据中心加速处理器(APU)AMDMI300软件方面能够全面兼容英伟达CUDA生态,被业内认为有机会挑战英伟达在人工智能的行业地位。尽管如此,从算力角度来看,英伟达H100的升级产品DGXGH200解决了大规模AI的关键瓶颈,适配资金充沛且性能要求高的潜在客户。短期内,CUDA生态仍然稳健,大多数需要训练芯片的用户在仍然会选择英伟达。...PC版:https://www.cnbeta.com.tw/articles/soft/1390713.htm手机版:https://m.cnbeta.com.tw/view/1390713.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人