Nvidia刚刚发布了Blackwell,这是其用于人工智能的下一代GPUNvidiaGB200GraceBlackwellSu

None

相关推荐

封面图片

谷歌利用 YouTube 开发其下一代人工智能

谷歌利用YouTube开发其下一代人工智能据透露,谷歌的研究人员一直在利用YouTube开发其下一个大型语言模型“双子座Gemini”,该模型展示了在其他任何模型中都看不到的多模态能力。而OpenAI也已经秘密地使用了YouTube的数据来训练其一些人工智能模型,但谷歌能够拥有YouTube更全面的视频数据。人工智能开发者在寻找用于训练和改进模型的高质量数据方面面临着新的障碍。从Reddit到StackExchange再到DeviantArt的主要网站出版商正越来越多地阻止开发者为该目的下载数据。来源,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

家居巨头宜家引入AI 下一代沙发将由人工智能设计

家居巨头宜家引入AI下一代沙发将由人工智能设计据悉,该项目由SPACE10与设计公司Panter&Tourron合作,双方使用Runway和Midjourney等生成式AI来摆脱传统的沙发设计。在操作上,他们通过输入“平台”、“轻量级”、“可持续”等关键词,逐步引导AI设计出这款沙发。这款由AI设计的沙发被命名为“CouchinanEnvelope”(装在信封里的沙发),采用轻巧且模块化的设计,重量仅10kg,并被放入了一个形似大号信封的包装中。在易用性方面,这款沙发可以在不需要任何工具的情况下进行组装和拆卸,更轻便的选材也使得这款沙发易于配送和运输。同时,由于采用了模块化设计,用户可以组合多个单元、拆下靠背或者将其拼合成平躺床。目前,该沙发还处在实验阶段,尚未量产。...PC版:https://www.cnbeta.com.tw/articles/soft/1366375.htm手机版:https://m.cnbeta.com.tw/view/1366375.htm

封面图片

英伟达发布用于人工智能的“世界上最强大芯片”Blackwell B200 GPU

英伟达发布用于人工智能的“世界上最强大芯片”BlackwellB200GPU英伟达的H100AI芯片使其成为价值数亿美元的公司,其价值可能超过Alphabet和亚马逊,而竞争对手一直在奋力追赶。但也许英伟达即将通过新的BlackwellB200GPU和GB200“超级芯片”扩大其领先地位。该公司在加州圣何塞举行的GTC大会上表示,新的B200GPU拥有2080亿个晶体管,可提供高达20petaflops的FP4算力,而GB200将两个GPU和单个GraceCPU结合在一起,可为LLM推理工作负载提供30倍的性能,同时还可能大大提高效率。英伟达表示,在具有1750亿个参数的GPT-3LLM基准测试中,GB200的性能是H100的7倍,而英伟达称其训练速度是H100的4倍。——

封面图片

下一代人工智能芯片尝试模仿人脑以节省电能

下一代人工智能芯片尝试模仿人脑以节省电能胡萨姆-阿姆鲁奇(HussamAmrouch)开发出了一种可用于人工智能的架构,其功能是同类内存计算方法的两倍。据《自然》(Nature)杂志报道,这位慕尼黑工业大学(TUM)的教授利用被称为铁电场效应晶体管(FeFET)的特殊电路应用了一种新的计算模式。几年内,这可能会被证明适用于生成式人工智能、深度学习算法和机器人应用。基本理念很简单:以前的芯片只在晶体管上进行计算,而现在它们也是数据存储的位置。这样既省时又省力。慕尼黑工业大学(TUM)人工智能处理器设计教授胡萨姆-阿姆鲁奇(HussamAmrouch)说:"因此,芯片的性能也得到了提升。"未来的芯片必须比早期的芯片更快、更高效。因此,它们的发热速度不能太大。如果要支持无人机飞行等场景的实时计算等应用,这一点至关重要。对于计算机来说,这样的任务极其复杂且耗能。HussamAmrouch教授为能源密集型应用开发强大的人工智能芯片。图片来源:AndreasHeddergott/TUM对芯片的这些关键要求可以用数学参数TOPS/W来概括:"每秒每瓦特的太赫兹运算量"。这可以看作是未来芯片的重要技术指标:当提供一瓦(W)功率时,处理器每秒(S)能执行多少万亿次运算(TOP)。博世与弗劳恩霍夫IMPS合作开发的新型人工智能芯片在生产过程中得到了美国GlobalFoundries公司的支持,可提供885TOPS/W。这使得它比同类人工智能芯片(包括三星公司的MRAM芯片)的功能强大一倍。而目前普遍使用的CMOS芯片的运行速度在10-20TOPS/W之间。最近发表在《自然》杂志上的研究结果证明了这一点。受人脑启发的芯片架构研究人员从人类那里借鉴了现代芯片架构的原理。阿姆鲁奇说:"在大脑中,神经元负责处理信号,而突触则能够记住这些信息,他描述了人类如何能够学习和回忆复杂的相互关系。"为此,芯片使用了"铁电"(FeFET)晶体管。这种电子开关具有特殊的附加特性(施加电压时极性反转),即使在切断电源的情况下也能存储信息。此外,它们还能保证在晶体管内同时存储和处理数据。阿姆鲁奇认为:"现在,我们可以构建高效的芯片组,用于深度学习、生成式人工智能或机器人等应用,例如,在这些应用中,数据必须在生成的地方进行处理。"面向市场的芯片之路研究人员的目标是利用这种芯片运行深度学习算法,识别太空中的物体,或处理无人机在飞行过程中产生的数据,而不会出现时滞。不过,慕尼黑工业大学慕尼黑机器人与机器智能综合研究所(MIRMI)的教授认为,要实现这一目标还需要几年时间。他认为,适合实际应用的首款内存芯片最快也要三到五年后才能问世。其中一个原因是工业界的安全要求。例如,在汽车行业使用这种技术之前,仅有可靠的功能是不够的。它还必须符合该行业的特定标准。硬件专家阿姆鲁奇说:"这再次凸显了与计算机科学、信息学和电气工程等不同学科的研究人员开展跨学科合作的重要性。"他认为这是MIRMI的一大优势。...PC版:https://www.cnbeta.com.tw/articles/soft/1396473.htm手机版:https://m.cnbeta.com.tw/view/1396473.htm

封面图片

下一代Ai人工智能工具集合-Vondy#趣站#AI#人工智能https://www.ahhhhfs.com/38576/

封面图片

Google的下一代人工智能模型Gemini 1.5已基本准备就绪

Google的下一代人工智能模型Gemini1.5已基本准备就绪Gemini1.5有很多改进:Gemini1.5Pro(Google系统中的通用模型)与该公司最近才推出的高端GeminiUltra能力不相上下,而且在87%的基准测试中,它都优于Gemini1.0Pro。它采用了一种越来越常见的技术,即"专家混合"(MoE),这意味着当你发送查询时,它只运行整个模型的一部分,而不是一直处理整个模型。这种方法能让用户更快地使用模型,也能让Google更高效地运行模型。但是,Gemini1.5中的一个新功能让整个公司都特别兴奋:Gemini1.5有一个巨大的上下文窗口,这意味着它可以处理更大的查询,一次查看更多的信息。这个窗口高达100万个tokens,而OpenAI的GPT-4为12.8万个,目前的GeminiPro为3.2万个。"这大约相当于是10或11个小时的视频,数万行代码"。上下文窗口意味着可以一次性向人工智能机器人询问所有内容。GoogleCEO皮查伊还表示,研究人员正在测试一个1000tokens的上下文窗口--这就好比是将《权力的游戏》的整个系列同时播出,或者把整个《指环王》三部曲都放进这个上下文窗口中。这允许在查询时添加大量个人上下文和信息,就像我们极大地扩展了查询窗口一样。目前,Gemini1.5只能通过Google的顶点人工智能(VertexAI)和人工智能工作室(AIStudio)提供给企业用户和开发人员。最终,它将取代Gemini1.0,而Gemini专业版的标准版本--每个人都可以在gemini.google.com和公司的App中使用的版本将是1.5专业版,拥有128000个tokens的上下文窗口,而需要支付额外的费用才能获得百万级的权限。Google还在测试该模式的安全性和道德底线,尤其是新增加的上下文窗口。当全球企业都在试图制定自己的人工智能战略--以及是与OpenAI、Google还是其他公司签署开发者协议时,Google正在为打造最好的人工智能工具而展开一场激烈的竞赛。就在本周,OpenAI公布了ChatGPT的"记忆能力",同时似乎准备进军网络搜索领域。到目前为止,Gemini似乎给人留下了深刻印象,尤其是对于那些已经进入Google生态系统的人来说,但各方都还有很多工作要做。最终,所有这些1.0、1.5、Pro、Ultras和企业之争对用户来说并不重要。人们将只需要感受AI,这就像使用智能手机,而不必总是关注手机里面的处理器是怎么工作的。...PC版:https://www.cnbeta.com.tw/articles/soft/1418373.htm手机版:https://m.cnbeta.com.tw/view/1418373.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人