谷歌宣布新的人工智能处理芯片和云 “超级计算机”

谷歌宣布新的人工智能处理芯片和云“超级计算机”据科技新闻网站Engadget报道,谷歌已经宣布创建其最强大的TPU(正式名称为张量处理单元),CloudTPUv5p,以及来自谷歌云的人工智能超级计算机。CloudTPUv5p是一个人工智能加速器,训练和服务模型。CloudTPUv5p是在之前的版本(如v5e和v4)基础上进行的改进。根据谷歌的说法,与TPUv4相比,TPUv5p的浮点运算性能(FLOPs)提升了两倍,每个机架的FLOPs性能扩展性提高了四倍。此外,它训练LLM模型的速度比TPUv4快2.8倍,嵌入密集模型的速度比TPUv4快1.9倍。而新的人工智能超级计算机,包括一个集成系统,具有开放软件、性能优化硬件、机器学习框架和灵活的消费模型。其想法是,与单独看待每个部分相比,这种合并将提高生产力和效率。

相关推荐

封面图片

广东:到 2027 年,人工智能手机产量达到 1 亿台以上 ,人工智能计算机产量达到 3000 万台以上

广东:到2027年,人工智能手机产量达到1亿台以上,人工智能计算机产量达到3000万台以上广东省发布关于人工智能赋能千行百业的若干措施。其中提到,创新操作系统打造人工智能手机。支持操作系统深度融合高效低损的轻量化大模型,推动端侧模型算法与架构的应用和创新。支持企业在AIOS上结合多模态自然交互技术,增强实时交互能力、拓展手机应用场景,打造个人专属数字助手。到2027年,人工智能手机产量达到1亿台以上。部署专属模型打造人工智能计算机。利用人工智能技术不断学习用户个人数据和习惯,形成端侧不出端、不上云、可迁移、可继承、可成长的个人本地知识库,结合模型压缩等轻量化技术,形成个人专属模型和新型智能生产工具。到2027年,人工智能计算机产量达到3000万台以上。

封面图片

谷歌首次公布AI超级计算机技术细节 希望摆脱英伟达芯片依赖

谷歌首次公布AI超级计算机技术细节希望摆脱英伟达芯片依赖谷歌研究人员当地时间4月4日在线发表一篇论文,首次公布了用于训练人工智能模型的超级计算机的技术细节,并宣称该系统比英伟达的超算系统更快且功耗更低。谷歌新发表的这篇题为《TPUv4:用于机器学习的光学可重构超级计算机,硬件支持嵌入》的文章介绍了谷歌自己设计的定制TPU芯片。谷歌目前90%以上的人工智能训练工作都使用这些芯片。PC版:https://www.cnbeta.com.tw/articles/soft/1353147.htm手机版:https://m.cnbeta.com.tw/view/1353147.htm

封面图片

MIT的人工智能模型加快了自动驾驶汽车的高分辨率计算机视觉速度

MIT的人工智能模型加快了自动驾驶汽车的高分辨率计算机视觉速度自动驾驶汽车必须快速、准确地识别所遇到的物体,从停在街角的空转送货车到呼啸驶向十字路口的骑车人。用于高分辨率计算机视觉的机器学习模型可以在边缘设备上实现计算密集型视觉应用,如自动驾驶或医疗图像分割。图为艺术家对自动驾驶技术的诠释。图片来源:麻省理工学院新闻为此,自动驾驶汽车可能会使用强大的计算机视觉模型,对场景高分辨率图像中的每个像素进行分类,这样就不会忽略低质量图像中可能被遮挡的物体。但是,这项被称为语义分割的任务非常复杂,在图像分辨率较高的情况下需要进行大量计算。来自麻省理工学院、麻省理工学院-IBM沃森人工智能实验室和其他机构的研究人员开发出了一种更高效的计算机视觉模型,大大降低了这项任务的计算复杂度。他们的模型可以在硬件资源有限的设备上实时准确地执行语义分割,例如可以让自动驾驶汽车做出瞬间决策的车载计算机。优化实时处理近期最先进的语义分割模型直接学习图像中每对像素之间的相互作用,因此它们的计算量会随着图像分辨率的提高而呈四倍增长。正因为如此,这些模型虽然准确,但速度太慢,无法在传感器或移动电话等边缘设备上实时处理高分辨率图像。麻省理工学院的研究人员为语义分割模型设计了一种新的构建模块,它能实现与这些最先进模型相同的能力,但计算复杂度仅为线性,而且操作具有硬件效率。由此产生了一个用于高分辨率计算机视觉的新模型系列,当部署在移动设备上时,其执行速度比以前的模型快达九倍。重要的是,这一新的模型系列显示出与这些替代模型相同或更高的精度。EfficientViT可使自动驾驶汽车高效地执行语义分割,这是一项高分辨率计算机视觉任务,涉及对场景中的每个像素进行分类,以便汽车能够准确识别物体。图为演示视频中的一张照片,显示了用于物体分类的不同颜色。图片由研究人员提供近距离观察解决方案这项技术不仅能帮助自动驾驶汽车实时做出决策,还能提高其他高分辨率计算机视觉任务的效率,例如医学图像分割。"虽然研究人员使用传统的视觉变换器已经有很长一段时间了,而且它们也取得了令人惊叹的成果,但我们希望人们也能关注这些模型的效率方面。我们的工作表明,大幅减少计算量是有可能的,这样就可以在设备本地进行实时图像分割。"电子工程与计算机科学系(EECS)副教授、麻省理工学院-IBM沃森人工智能实验室(MIT-IBMWatsonAILab)成员、描述新模型的论文的资深作者韩松(音译)说。与他一起撰写论文的还有论文的第一作者、电子工程与计算机科学系研究生蔡涵、浙江大学本科生李俊彦、清华大学本科生胡慕妍以及麻省理工学院-IBM沃森人工智能实验室的主要研究人员甘创。这项研究将在计算机视觉国际会议上发表。简化的解决方案对机器学习模型来说,对可能有数百万像素的高分辨率图像中的每个像素进行分类是一项艰巨的任务。最近,一种被称为视觉转换器的强大新型模型得到了有效应用。变换器最初是为自然语言处理而开发的。在这种情况下,它们将句子中的每个单词编码为一个标记,然后生成一个注意力图谱,该图谱捕捉每个标记与所有其他标记之间的关系。当模型进行预测时,该注意力图有助于理解上下文。使用相同的概念,视觉转换器会将图像分割成像素片,并将每个小片编码为一个标记,然后生成注意力图。在生成这张注意力图时,模型会使用一个相似度函数,直接学习每对像素之间的相互作用。这样,该模型就形成了所谓的全局感受野,这意味着它可以访问图像的所有相关部分。由于高分辨率图像可能包含数百万像素,并分成数千个片段,因此注意力图谱很快就会变得非常庞大。因此,随着图像分辨率的提高,计算量也会呈四倍增长。在名为EfficientViT的新模型系列中,麻省理工学院的研究人员采用了一种更简单的机制来构建注意力图谱--用线性相似函数取代非线性相似函数。因此,他们可以重新安排运算顺序,在不改变功能和丢失全局感受野的情况下减少总计算量。在他们的模型中,预测所需的计算量随着图像分辨率的提高而线性增长。"但天下没有免费的午餐。线性注意力只能捕捉到图像的全局背景,会丢失局部信息,从而使准确性变差,"Han说。为了弥补精度损失,研究人员在模型中加入了两个额外的元素,每个元素只增加少量计算量。其中一个组件可以帮助模型捕捉局部特征的相互作用,减轻线性函数在局部信息提取方面的弱点。第二个元素是实现多尺度学习的模块,帮助模型识别大型和小型物体。蔡涵说:"这里最关键的部分是,我们需要仔细平衡性能和效率。"他们设计的EfficientViT采用了硬件友好型架构,因此更容易在不同类型的设备上运行,如VR头显或自动驾驶汽车的边缘计算机。他们的模型还可以应用于其他计算机视觉任务,如图像分类。简化语义分割当他们在用于语义分割的数据集上测试他们的模型时,他们发现该模型在NVIDIA图形处理器(GPU)上的运行速度比其他流行的视觉变换器模型快9倍,而且准确率相同或更高。韩松说:"现在,我们可以两全其美,降低运算速度,使其足以在移动和云设备上运行。"在这些成果的基础上,研究人员希望将这项技术应用于加速生成式机器学习模型,例如用于生成新图像的模型。他们还希望继续扩大EfficientViT在其他视觉任务中的应用。AMD公司人工智能算法高级总监LuTian说:"韩松教授团队首创的高效变换器模型现已成为检测和分割等各种计算机视觉任务中尖端技术的支柱。他们的研究不仅展示了变换器的效率和能力,还揭示了其在现实世界应用中的巨大潜力,例如提高视频游戏中的图像质量。""模型压缩和轻量级模型设计是实现高效人工智能计算的关键研究课题,尤其是在大型基础模型方面。韩松教授的研究小组在压缩和加速现代深度学习模型,特别是视觉变换器方面取得了显著进展。"甲骨文公司人工智能和机器学习全球副总裁杰伊-杰克逊(JayJackson)补充说,他没有参与这项研究。"甲骨文云计算基础架构一直在支持他的团队推进这项具有影响力的研究,以实现高效、绿色的人工智能。"...PC版:https://www.cnbeta.com.tw/articles/soft/1383321.htm手机版:https://m.cnbeta.com.tw/view/1383321.htm

封面图片

Google 与 Hugging Face 达成协议,为开源人工智能提供“超级计算机”力量

根据TheVerge报道,开发者现在可以在不需要付费GoogleCloud订阅费的情况下建立、训练和部署人工智能模型。通过HuggingFace平台,外部开发者将获得“经济实惠”的使用权,可以访问Google的张量处理单元(TPU)和GPU超级计算机,其中包括数千台受需求大且受出口限制的NvidiaH100。HuggingFace是较为流行的人工智能模型库之一,存储着开源基础模型如Meta的Llama2和StabilityAI的StableDiffusion,并提供多个模型训练数据库。此合作将使HuggingFace用户能够在2024年上半年开始使用AI应用构建平台VertexAI和帮助训练和微调模型的Kubernetes引擎。Google表示,该合作进一步支持GoogleCloud对开源人工智能生态系统的发展。via匿名标签:#Google#Hugging频道:@GodlyNews1投稿:@GodlyNewsBot

封面图片

计算的未来包括生物学 由人类脑细胞驱动的人工智能计算机

计算的未来包括生物学由人类脑细胞驱动的人工智能计算机在2月27日发表在《科学前沿》杂志上的一篇文章中,该团队概述了生物计算机如何在某些应用中超越今天的电子计算机,同时使用今天的计算机和服务器群所需电力的一小部分。类器官智能(OI)是一个新兴的科学领域,旨在创建生物计算机,其中实验室培养的大脑类器官作为"生物硬件"。在发表于《科学前沿》的文章中,Smirnova等人概述了追求这一愿景所需的多学科战略:从下一代器官和脑机接口技术,到新的机器学习算法和大数据基础设施。他们从制造由干细胞培育的5万个脑细胞组成的小集群开始,这些细胞被称为有机体。这大约是一个果蝇大脑的三分之一大小。他们的目标是1000万个神经元,这将是一个乌龟大脑中的神经元数量。相比之下,人类大脑平均有超过800亿个神经元。这篇文章强调了人脑如何在特定任务中继续大规模地超越机器。例如,人类只需使用几个样本就能学会区分两种类型的物体(如狗和猫),而人工智能算法则需要成千上万个。而且,虽然人工智能在2016年击败了围棋世界冠军,但它是在16万场比赛的数据基础上训练出来的--相当于每天下5个小时,超过175年。大脑有机体资料来源:约翰霍普金斯大学大脑也更加节能。我们的大脑被认为能够储存相当于普通家用电脑100多万倍的容量(2.5PB),而使用的电力只相当于几瓦。相比之下,美国的数据农场每年使用超过15000兆瓦的电力,其中大部分是由几十个燃煤发电站产生的。在这篇论文中,作者概述了他们的"类器官智能"计划,或称OI,用细胞培养的大脑类器官。虽然脑器官不是"迷你大脑",但它们在大脑功能和结构的关键方面是相同的。器官体将需要从目前的大约5万个细胞大幅扩展。"高级作者、巴尔的摩约翰-霍普金斯大学的托马斯-哈同教授说:"对于OI,我们需要将这个数字增加到1000万。布雷特-卡根博士资料来源:Cortical实验室布雷特和他在Cortical实验室的同事已经证明,基于人类脑细胞的生物计算机是可能的。最近发表在《神经元》上的一篇论文显示,脑细胞的平面培养可以学习玩视频游戏Pong。"我们已经证明,我们可以与活的生物神经元互动,迫使它们修改它们的活动,导致类似于智能的东西,"卡根谈到相对简单Ponf游戏的DishBrain时说。"与哈同教授及其同事为这个有机体智能合作而组建的惊人团队合作,皮质实验室现在正试图用大脑有机体复制这项工作。""我想说,用有机体复制[皮质实验室]的实验已经满足了OI的基本定义,"托马斯说。从这里开始,它开始一个建立社区、工具和技术的问题,以实现OI的全部潜力。布雷特说:"这个新的生物计算领域有望在计算速度、处理能力、数据效率和存储能力方面取得前所未有的进步--所有这些都需要较低的能源。这项合作特别令人激动的方面是其形成的开放和协作精神。将这些不同的专家聚集在一起,不仅对优化成功至关重要,而且为行业合作提供了一个关键的接触点"。而这项技术还可以使科学家们更好地研究从患有神经疾病(如阿尔茨海默病)的病人的皮肤或小血样中开发出来的个性化大脑器官,并进行测试,研究遗传因素、药物和毒素如何影响这些情况。...PC版:https://www.cnbeta.com.tw/articles/soft/1348871.htm手机版:https://m.cnbeta.com.tw/view/1348871.htm

封面图片

Google人工智能击败超级计算机 实现快速准确的天气预报

Google人工智能击败超级计算机实现快速准确的天气预报著名的"蝴蝶效应"认为,一场风暴的发生与否,可能会受到世界上另一个地方的一只蝴蝶扇动翅膀这么小的事情的影响。天气预报的工作就是把这些众所周知的蝴蝶变成精确的模型,告诉你是否应该继续计划下周六的野餐。这就是所谓的"数值天气预报"(NWP),它使用全球当前的天气观测数据作为输入数据,并通过超级计算机上运行的复杂物理方程进行计算。但现在,Google发布了一款名为GraphCast的人工智能系统,它可以在功能更弱的硬件上以更快的速度计算数据。这种人工智能是根据卫星图像、雷达和气象站收集的40年天气再分析数据训练出来的。GraphCast提取六小时前的天气状况和当前的天气状况,然后利用其数据宝库预测六小时后的天气状况。在此基础上,它可以以6小时为增量向前推算,从而做出长达10天的天气预报。GraphCast在地球表面100多万个网格点上进行预测,每个网格点的经度和纬度均为0.25度。在每个网格点上,该模型都会考虑地表的温度、气压、湿度、风速和风向等五个变量,以及37个不同高度大气层中的六个变量。在测试中,在一台GoogleTPUv4机器上运行的GraphCast与目前天气预报的黄金标准--在超级计算机上运行的名为高分辨率预报(HRES)的模拟系统--进行了比较。GraphCast能够在一分钟内做出10天的预报,在90%的测试变量和预报准备时间上都比HRES更准确。当模型集中在对流层(大气层的最底层,准确的预测对日常生活最有用)时,GraphCast在99.7%的时间里都优于HRES。更令人印象深刻的是,GraphCast比HRES更早识别出恶劣天气事件,尽管它没有经过专门的训练。在一个真实的例子中,人工智能提前九天就准确预测出了飓风的登陆地点,而传统的预报只能提前六天确认。Google表示,GraphCast的代码是开源的,全世界的科学家都可以对其进行实验,并将其应用到日常的天气预报中。对于人工智能来说,这种数字运算是最理想的工作,因此它们可以把艺术和写作留给我们人类。这项研究发表在《科学》杂志上。了解更多:https://deepmind.google/discover/blog/graphcast-ai-model-for-faster-and-more-accurate-global-weather-forecasting/...PC版:https://www.cnbeta.com.tw/articles/soft/1397117.htm手机版:https://m.cnbeta.com.tw/view/1397117.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人