全球首个海底智算中心平台在海南启动 总算力超过2000PFlops 用海水散热

全球首个海底智算中心平台在海南启动 总算力超过2000PFlops 用海水散热 目前,位于海南陵水的海底数据中心一期项目已运营一年多,各项运营指标和业务指标均符合预期。在此基础上迭代的海底智算中心,将部署高功率密度的人工智能服务器,充分利用海底数据中心高功率、高能效的特性。以1MW外电配给为参考,海底智算中心凭借高功率密度设计,单舱可提供1400PFlops算力,算力效率提升40%。同时,海底智算中心全年使用海水作为自然冷源,海底智算中心常年实际运营PUE(能源利用效率)小于1.1。而且还让硬件远离了人类活动区域,提供了稳定的工作环境,并且实现了无尘、无氧环境,进一步保护电子器件。 ... PC版: 手机版:

相关推荐

封面图片

海南陵水:全球首个商用海底数据中心下水

海南陵水:全球首个商用海底数据中心下水 数据中心由岸站、水下中继站、水下数据终端和海缆组成。 数据中心的核心装备海底数据舱呈圆柱形罐体状,舱内是恒湿、恒压和无氧的安全密闭环境,重量达1300吨,罐体直径达3.6米,结构设计寿命为25年,应用水深超30米。()

封面图片

大湾区首个大规模全液冷智算中心完工:可提供1.5万P算力服务

大湾区首个大规模全液冷智算中心完工:可提供1.5万P算力服务 该架构集成了液冷、人工智能、数字孪生以及一体化安全防护等尖端技术,为粤港澳大湾区提供了高达1.5万P的算力服务,满足了区域日益增长的数据处理需求。据技术人员介绍,单个智算中心内配置了38个液冷方舱,每个方舱均能提供约385P的算力。这种高效配置不仅确保了数据处理的高效性,也为未来的扩容升级预留了充足的空间。与传统机房相比,该智算中心采用的液冷技术显著降低了制冷能耗,节能幅度高达约60%。这一技术的应用不仅提升了数据中心的能效比,还增强了其运行的稳定性,对于推动数据中心绿色、低碳发展具有深远的意义。作为大湾区首个大规模全液冷智算中心,该项目不仅是国家“东数西算”战略在大湾区的核心布局,也是全国一体化算力网络八大枢纽节点之一。它的建成将进一步推动大湾区的数字经济发展,为区域的经济繁荣注入新的活力。 ... PC版: 手机版:

封面图片

华为高管:升腾人工智能算力性能已超过英伟达A100

华为高管:升腾人工智能算力性能已超过英伟达A100 近期举行的2024世界半导体大会暨南京国际半导体博览会的一场分论坛上,江苏鲲鹏·升腾生态创新中心首席运营官王陶透露,升腾集群是国内唯一已完成训练千亿参数大模型的技术路线,性能已经超过了英伟达A100。王陶表示,中国大模型里面,有近50%选择了升腾技术路线。与英伟达A100相比,升腾人工智能芯片在训练效率层面最高是英伟达的1.1倍。尤其在训练Meta Llama、BloomGPT等模型方面,升腾人工智能算力训练效率大大优于英伟达A100,甚至10倍领先其他国产友商。

封面图片

马斯克AI领域动作频频:规划“算力超级工厂” 与扎克伯格又杠上了

马斯克AI领域动作频频:规划“算力超级工厂” 与扎克伯格又杠上了 与扎克伯格“冤家路窄”随着马斯克收购Twitter(现在改名为X)后,他与Meta老板扎克伯格就成了直接竞争对手。而社交媒体平台对定制化聊天AI的独特需求,也使得他们同时叩响了硅谷创业公司Character.ai的大门。Character.ai是一家专门开发AI聊天机器人创作平台的公司,致力于打造模拟真实人物(例如黄仁勋、爱因斯坦)或虚拟人物(例如游戏《原神》的里某个角色)语言风格的聊天机器人。(由用户创建并发布在平台上的“爱因斯坦机器人”,来源:Character.ai)值得强调的是,Character.ai的创始人Noam Shazeer,正是当年GoogleTransformer论文的作者之一。时隔多年,这批开创当今AI新格局的Google研究员们纷纷踏上了创业的道路。(Transformer论文作者齐聚今年英伟达GTC大会,左二为Noam Shazeer,来源:英伟达)据多名知情人士表示,Meta公司与xAI都与Character.ai展开了早期的讨论,主要涉及研究层面的合作,例如模型开发和预训练。Meta此前曾表示,正在整合AI人物聊天机器人到旗下Facebook、Instagram等多个平台,其中也会包括一些“扮演名人”的机器人。与此同时,xAI也开发了聊天机器人Grok,供X平台的付费订阅用户使用。对于马斯克和扎克伯格而言,他们在开发专属人物AI层面也有一项其他科技巨头不具备的优势手里有着大量社交媒体的数据。建设“算力超级工厂”在AI领域要有一番作为,也离不开持续砸钱搞算力。根据科创媒体The Information周六报道,在今年5月的一次投资者演示中,马斯克表示xAI计划建造一台规格惊人的超级计算机,直言这将是一个“算力超级工厂”。今年早些时候,马斯克曾经透露,训练Grok 2模型大约需要2万个英伟达H100 GPU,而训练下一代模型以及更高版本则会需要10万个英伟达H100芯片。颇为符合马斯克豪迈风格的是,他准备把所有芯片全串进一台“超级计算机”里。他对投资者们表示,这个项目如果能够完成,将至少是当今存在的最大GPU集群规模的四倍。马斯克同时也表态会亲自下场,推动这台机器在2025年秋季运作起来,并补充称可能会与甲骨文合作开发这台庞大的计算机。虽然特斯拉自己也在开发Dojo超算,但“算力超级工厂”依然还是要排队抢购英伟达的芯片。在今年3月英伟达的Blackwell新闻稿中,马斯克就公开喊话称英伟达的人工智能硬件是“最好的”。(来源:英伟达)值得一提的是,本月中旬时曾有消息称,xAI接近与甲骨文达成一项持续多年、价值“百亿美元”的云算力供应协议,一度推高甲骨文股价。一边不断采购算力,同时自建“算力超级工厂”,xAI追赶市场领跑者的架势已经显露无疑。有知情人士称,xAI正在以240亿美元的估值目标展开融资,计划在未来几周内筹集超过60亿美元。粗略估算,这笔钱大概够买20万个H100芯片。从AI大厂的角度来看,60亿美元大概只够烧1-2年的功夫。马斯克自己也曾承认,现阶段要在AI赛道具有竞争力,每年至少要花几十亿美元。题外话:AI大佬早早布局“泛AI赛道”随着英伟达本周又一次交出验证AI景气度的财报,美股市场也呈现了新的动向除了炒芯片股外,资金也开始运作电力、电厂、电气设备、光伏等与数据中心配套有关的板块。马斯克自然不必多说,特斯拉旗下拥有成熟的储能业务,同时也是不少光伏发电厂、光伏设备制造商的供应商。OpenAI首席执行官山姆·奥尔特曼投资的核裂变初创公司Oklo也在本月中旬登陆美股市场。公司的首席执行官Jacob DeWitte本周接受采访时表示,目前来询问电力采购的80%客户都是数据中心运营商,他预期这种状况只是“冰山一角”,未来数据中心的需求还会更多。Oklo本周宣布签订了一份100兆瓦规模的数据中心园区供电协议。不过公司至今尚未获得建设小型核电站的许可,DeWitte也表示2027年前都不太可能有投入运营的电站。 ... PC版: 手机版:

封面图片

GPT-5红队测试邮件曝光,最早6月发布?数十亿美元超算26年启动

GPT-5红队测试邮件曝光,最早6月发布?数十亿美元超算26年启动 此前有传闻说,GPT-5将于今年6月发布。看起来,红队测试与模型发布的时间线十分吻合。有网友直接晒出了自己收到OpenAI邮件邀请的截图。据悉,GPT-5早已为大家准备好,只是发布风险太大了,所以还得往后延。三个月就能用了?不过还有人表示,先别急,这些人只是收到了红队邀请测试而已,并没有提及具体模型。有可能是他们填了如下的申请信息之后,才收到了邮件。安全测试对于新版GPT如此重要的原因,一方面是ChatGPT已经有了非常大的用户数,如果在安全性上出问题,OpenAI可能也会面对像谷歌一样的舆论压力。另一方面,To B业务是OpenAI的主要收入来源,定制化的ChatGPT能大大增强各个企业的业务能力和效率。有人表示,红队测试会持续90-120天。如果此次红队测试就是针对GPT-5的话,那么三个月内,我们应该就能用上它了!而在坊间,这一传闻让群众们沸腾了!他们早已按捺不住对于GPT-5的猜测和畅想。比如,GPT-5的上下文窗口会达到多少?目前,Gemini 1.5 Pro是1M,Claude 3是200K,GPT-4是128K,不知道GPT-5会突破怎样的惊人纪录。大家纷纷列出自己对于GPT-5的愿望清单比如10Mtoken的上下文窗口,闪电般的快速干扰,长期战略规划和推理,执行复杂开放式操作的能力,GUI / API导航,长期情境记忆,始终处于隐形状态的RAG,多模态等等。有人猜,或许GPT-5会和Claude 3一样,提供几种不同的型号。有人总结了目前关于GPT-5和红队的最新谣言和传闻,大致要点如下-OpenAI预计于今年夏天发布GPT-5,部分企业客户已收到增强功能的演示;-GPT-5‘实质性更好’,相比GPT-4进行了重大升级。它需要更多的训练数据;-GPT-5的潜在功能包括生成更逼真的文本、执行翻译和创意写作等复杂任务、处理视频输入以及改进推理;-Sam Altman表示,GPT-5仍在训练中,没有确切的发布日期,广泛的安全测试可能还需数月。然而,他确认OpenAI今年将‘发布一个惊人的新模型’。在3月29日,获得内部信息的Runway CEO兼AI投资人Siqi Chen就称,GPT-5已经在推理方面取得了意想不到的阶跃函数增益。它甚至可以靠自己就独立地弄清楚,如何让ChatGPT不用每隔一天就登录一次。Ilya看到的东西,也许就是这个?这是不是就意味着,在OpenAI内部,已经实现了AGI?!如果是真的,这也太惊人了。‘我不相信,只有AGI才能实现这样的能力’。总之,网友们纷称,根据泄露的待办清单显示,OpenAI的下一项任务,就是发布GPT-5了!大家纷纷呼唤Altman,是时间放出GPT-5了,别太吹毛求疵了,我们要求不高。红队测试上阵,确保GPT-5安全早在23年9月,OpenAI就曾官宣招募一批红队测试人员(Red Teaming Network),邀请不同领域专家评估模型。不同领域专家组成的红队去寻找系统漏洞,成为确保下一代模型GPT-5安全的关键。那么,红队测试人员一般都需要做哪些工作?AI红队攻击的类型主要包括,提示攻击、数据中毒、后门攻击、对抗性示例、数据提取等等。‘提示攻击’是指在控制LLM的提示中注入恶意指令,从而导致大模型执行非预期的操作。比如,今年早些时候,一名大学生利用提示获取了一家大公司的机密信息,包括开发的AI项目的代码名称,以及一些本不应该暴露的元数据。而‘提示攻击’最大的挑战是,找到威胁行为者尚未发现、利用的新提示或提示集。红队需要测试的另一种主要攻击是‘数据中毒’。在数据中毒的情况下,威胁者会试图篡改LLM接受训练的数据,从而产生新的偏差、漏洞供他人攻击以及破坏数据的后门。‘数据中毒’会对LLM提供的结果产生严重影响,因为当LLM在中毒数据上接受训练时,它们会根据这些信息学习关联模式。比如,关于某个品牌、政治人物的误导性,或不准确信息,进而左右人们的决策。还有一种情况是,受到污染的数据训练后,模型提供了关于如何治疗常规疾病或病痛的不准确医疗信息,进而导致更严重的后果。因此,红队人员需要模拟一系列数据中毒攻击,以发现LLM训练和部署流程中的任何漏洞。除此以外,还有多元的攻击方式,邀请专家也是OpenAI确保GPT-5能够完成安全测试。GPT-5,真的不远了正如网友所言,红队测试开启,意味着GPT-5真的不远了。前段时间,Altman在博客采访中曾提到,‘我们今年会发布一款令人惊艳的新模型,但不知道会叫什么名字’。尽管如此,全网都一致地将OpenAI发布的下一代模型称为GPT-5,并有传言称代号为Arrakis的项目,就是GPT-5的原型。根据FeltSteam的预测,这个Arrakis的多模态模型,性能远超GPT-4,非常接近AGI。另外,模型参数据称有125万亿,大约是GPT-4的100倍,并在2022年10月完成训练。网友还总结了以往GPT系列模型发布时间表:GPT-1在2018年6月诞生,GPT-2在2019年2月,GPT-3在2020年6月,GPT-3.5在2022年12月,GPT-4仅在三个月后于2023年3月发布。关于GPT-5的发布时间,可能在今年夏天就问世。最近,网上流传的一张图上,显示了Y Combinator推出了GPT-5早期准入候补名单。网友发起疑问,我们都清楚奥特曼和YC的关系不同寻常。这是否意味着他们可以在模型或信息公开之前获得访问权限?而上月也有爆料称,已有用户对GPT-5上手体验过了,性能惊人。外媒透露,一些企业用户已经体验到了最新版的ChatGPT。‘它真的很棒,有了质的飞跃,’一位最近见识到GPT-5效果的CEO表示。OpenAI展示了,新模型是如何根据这位CEO公司的特殊需求和数据进行工作的。他还提到,OpenAI还暗示模型还有其他一些未公开的功能,包括调用OpenAI正在开发的AI智能体来自主完成任务的能力。GPT-5,一定是正确路线吗?不过,在万众瞩目期待GPT-5面世的呼声中,也有一些不一样的声音。比如有人觉得,GPT-5无法驾驶你的汽车,GPT-5无法解决核聚变问题,GPT-5无法治愈癌症……另外,我们对模型的追求,非得是更智能吗?更便宜、更快、更不费水电的模型,可能比单独的GPT-5更有革命性意义。有人同意这个观点,表示现在实在有太多人(尤其是开发者)过于痴迷GPT-5了。其实完全没必要这么狂热,使用当前的模型,就可以已经完成和构建太多东西。只需正确选择利基市场,构建满足该利基市场需求的AI产品,让用户可以直观地访问AI,专注于更好的UI/UX即可。公式很简单。我们真的有必要一味追求力大砖飞吗?很多人表示赞同,表示甚至用GPT-3.5就可以造出非常有价值的东西。问题不在于模型多先进,而在于怎样满足利基市场的需求。智算中心,先从小的建起而3月底曝出的用于训练GPT-6的千亿美元‘星际之门’超算,今天又被外媒挖出了更多新的内容。上周五,外媒The Information曝出了一个惊人消息:OpenAI和微软正在制定一项雄心勃勃的数据中心项目,预计耗资1000亿美元。此消息一曝出,AI和云计算行业人士的提问,像雪片一样袭来数据中心具体位于美国的哪个地区?为此,The Information又挖出了更多料,具体细节如下。首先,之前的消息说是星际之门最早在2028年启动,而最新消息显示,最快在2026年,就会在威斯康星州启动一个功率较小的数据中心。它的价值当然不到千亿美元,但估计仍会耗资数十亿。其他细节如下用英伟达芯片,但不用英伟达网线首先,这次数据中心的多数服务器机架,当然主要还是用的英伟达芯片。不过有趣的是,将各个AI芯片服务器连接起来的网线,则并不会采用英伟达的产品。据悉,OpenAI已经告知微软,自己不想再使用英伟达的InfiniBand网络设备。相反,它可能会使用基于以太网的电缆... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人