日本电信公司KDDI将进军人工智能超级计算机业务。

None

相关推荐

封面图片

谷歌宣布新的人工智能处理芯片和云 “超级计算机”

谷歌宣布新的人工智能处理芯片和云“超级计算机”据科技新闻网站Engadget报道,谷歌已经宣布创建其最强大的TPU(正式名称为张量处理单元),CloudTPUv5p,以及来自谷歌云的人工智能超级计算机。CloudTPUv5p是一个人工智能加速器,训练和服务模型。CloudTPUv5p是在之前的版本(如v5e和v4)基础上进行的改进。根据谷歌的说法,与TPUv4相比,TPUv5p的浮点运算性能(FLOPs)提升了两倍,每个机架的FLOPs性能扩展性提高了四倍。此外,它训练LLM模型的速度比TPUv4快2.8倍,嵌入密集模型的速度比TPUv4快1.9倍。而新的人工智能超级计算机,包括一个集成系统,具有开放软件、性能优化硬件、机器学习框架和灵活的消费模型。其想法是,与单独看待每个部分相比,这种合并将提高生产力和效率。

封面图片

Google人工智能击败超级计算机 实现快速准确的天气预报

Google人工智能击败超级计算机实现快速准确的天气预报著名的"蝴蝶效应"认为,一场风暴的发生与否,可能会受到世界上另一个地方的一只蝴蝶扇动翅膀这么小的事情的影响。天气预报的工作就是把这些众所周知的蝴蝶变成精确的模型,告诉你是否应该继续计划下周六的野餐。这就是所谓的"数值天气预报"(NWP),它使用全球当前的天气观测数据作为输入数据,并通过超级计算机上运行的复杂物理方程进行计算。但现在,Google发布了一款名为GraphCast的人工智能系统,它可以在功能更弱的硬件上以更快的速度计算数据。这种人工智能是根据卫星图像、雷达和气象站收集的40年天气再分析数据训练出来的。GraphCast提取六小时前的天气状况和当前的天气状况,然后利用其数据宝库预测六小时后的天气状况。在此基础上,它可以以6小时为增量向前推算,从而做出长达10天的天气预报。GraphCast在地球表面100多万个网格点上进行预测,每个网格点的经度和纬度均为0.25度。在每个网格点上,该模型都会考虑地表的温度、气压、湿度、风速和风向等五个变量,以及37个不同高度大气层中的六个变量。在测试中,在一台GoogleTPUv4机器上运行的GraphCast与目前天气预报的黄金标准--在超级计算机上运行的名为高分辨率预报(HRES)的模拟系统--进行了比较。GraphCast能够在一分钟内做出10天的预报,在90%的测试变量和预报准备时间上都比HRES更准确。当模型集中在对流层(大气层的最底层,准确的预测对日常生活最有用)时,GraphCast在99.7%的时间里都优于HRES。更令人印象深刻的是,GraphCast比HRES更早识别出恶劣天气事件,尽管它没有经过专门的训练。在一个真实的例子中,人工智能提前九天就准确预测出了飓风的登陆地点,而传统的预报只能提前六天确认。Google表示,GraphCast的代码是开源的,全世界的科学家都可以对其进行实验,并将其应用到日常的天气预报中。对于人工智能来说,这种数字运算是最理想的工作,因此它们可以把艺术和写作留给我们人类。这项研究发表在《科学》杂志上。了解更多:https://deepmind.google/discover/blog/graphcast-ai-model-for-faster-and-more-accurate-global-weather-forecasting/...PC版:https://www.cnbeta.com.tw/articles/soft/1397117.htm手机版:https://m.cnbeta.com.tw/view/1397117.htm

封面图片

日本政府据悉将向软银牵头的人工智能超级计算机业务提供高达421亿日元的补贴。

封面图片

Google 与 Hugging Face 达成协议,为开源人工智能提供“超级计算机”力量

根据TheVerge报道,开发者现在可以在不需要付费GoogleCloud订阅费的情况下建立、训练和部署人工智能模型。通过HuggingFace平台,外部开发者将获得“经济实惠”的使用权,可以访问Google的张量处理单元(TPU)和GPU超级计算机,其中包括数千台受需求大且受出口限制的NvidiaH100。HuggingFace是较为流行的人工智能模型库之一,存储着开源基础模型如Meta的Llama2和StabilityAI的StableDiffusion,并提供多个模型训练数据库。此合作将使HuggingFace用户能够在2024年上半年开始使用AI应用构建平台VertexAI和帮助训练和微调模型的Kubernetes引擎。Google表示,该合作进一步支持GoogleCloud对开源人工智能生态系统的发展。via匿名标签:#Google#Hugging频道:@GodlyNews1投稿:@GodlyNewsBot

封面图片

800+门计算机科学相关视频课程列表,包括人工智能、机器学习、深度学习等#计算机科学

封面图片

OpenAI 和微软计划耗资 1000 亿美元,打造人工智能超级计算机数据中心项目

OpenAI和微软计划耗资1000亿美元,打造人工智能超级计算机数据中心项目微软和OpenAI正打算搞个大动作,他们计划投资超过1150亿美元建个超级大的数据中心,放一个主打AI的超级计算机,内部代号叫“Stargate”。这玩意儿计划用上百万个GPU,成本可能是现在最大的数据中心的100倍那么贵,目标是2028年搞定投入使用。他们还想在2026年先弄个成本低一点的第四阶段系统。由于这超级计算机电力需求巨大,微软和OpenAI还在考虑可能得用到核能这种大招。他们也在头疼怎么把这么多GPU塞进一个机架里,同时还得想办法让它们不那么热。线索:@ZaiHuabot投稿:@TNSubmbot频道:@TestFlightCN

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人