MIAA-570 #miaa570

MIAA-570 #miaa570 标题:MIAA-570 清醒的巨乳同学如果没钱在酒吧打工,性欲会积累太多,私自背锅生!之后,它在商店外争先恐后,反向射精 3P Riho Takahashi Miso Suwon - 高桥りほ

相关推荐

封面图片

MIAA-687 #miaa687

MIAA-687 #miaa687 标题:MIAA-687 “你永远不会发现,因为它在你的衣服里”我在长裙下偷偷与一个甜美悲伤的美少女发生性关系,她通过低语引诱我反向拾音器......只有在射精的那一刻她被拉出来我的猫和我让我的公鸡裸露。'Ruindo Orgasm' 性交 Hana White Peach - 白桃花

封面图片

马斯克:AI竞赛好比扑克游戏 每年要投资数十亿美元

马斯克:AI竞赛好比扑克游戏 每年要投资数十亿美元 马斯克在社交平台X上发帖称:“5亿美元,这显然不是一笔小数目,但也只相当于大约10000块英伟达的H100 AI芯片。”马斯克还称:“特斯拉今年将在英伟达硬件上投入更多资金。要想在AI领域具有竞争力,每年至少要投入数十亿美元。”当前,世界上最大的科技公司现在都在争先恐后地获得尽可能多的英伟达H100图形处理器。该芯片的价格在2.5万美元到3万美元之间,在eBay上甚至达到了4万美元。本月早些时候,Meta CEO马克·扎克伯格曾表示,Meta正在建立一个巨大的GPU库存,目标是在今年年底前积累总计60万块AI芯片。特斯拉也是如此,马斯克称,除了英伟达,特斯拉今年还将从AMD购买AI芯片。马斯克之前曾表示,特斯拉是一家AI和机器人公司,而不只是汽车制造商。 ... PC版: 手机版:

封面图片

Meta在印度和非洲的即时通信软件中尝试部署其AI聊天机器人

Meta在印度和非洲的即时通信软件中尝试部署其AI聊天机器人 在其他大型科技公司、OpenAI 等纷纷采取人工智能大动作之后,这家社交媒体巨头一直在争先恐后地推出更多人工智能服务。Meta 公司宣布,计划在2023 年 2 月建立聊天机器人和其他人工智能工具并进行实验。印度用户最近开始注意到 Meta 人工智能聊天机器人的出现,这对该公司来说是一个非常重要的市场:印度拥有 5 亿多 Facebook 和 WhatsApp 用户,是 Meta 最大的单一市场。发展中市场的智能手机用户增长速度快于美国等发达市场(后者的增长已趋于平稳),这也是 Facebook 尝试更多服务以吸引受众的一大目标。非洲用户也报告了 WhatsApp 中出现 Meta AI 的迹象。Meta 在一份声明中证实了这一举措。"Meta 发言人告称:"我们的人工智能生成式体验正在不同阶段进行开发,我们正在有限的范围内公开测试其中的一系列体验。"Meta 公司于 2023 年 9 月推出了通用助理Meta AI。该人工智能聊天机器人旨在直接回答用户在聊天中提出的问题,并能根据文字提示生成逼真的图片。在 Instagram 上,有证据表明它也被用于搜索查询。在为用户构建和推出人工智能工具方面,Meta 已经有些姗姗来迟。在某种程度上,其团队认为生成式人工智能技术还没有准备好进入黄金时代。OpenAI 显然证明了这一观点是错误的,这让 MetaAI 雪上加霜。图灵奖获得者、Meta 公司首席人工智能科学家 Yann LeCun 本周早些时候在该公司位于伦敦的办公室举办的"人工智能日"活动上说:"ChatGPT 的出现不知不觉地吸引了公众的注意力和热情。让我这样的人对 ChatGPT 感到惊讶的不是它的技术或系统性能。而是它引起了公众多大的兴趣。这让所有人都感到惊讶。这也让 OpenAI 感到惊讶。他解释说,Meta 公司认为人工智能聊天机器人并不特别受欢迎......事实上,其中一些聊天机器人还遭到了人们的厌倦。现在,他认为公司以及更广泛的技术社区"更加开放,也更乐于发布模型"。而这正是 Meta 目前正在做的事情。不过,从更实际的角度来看,有三个原因可以解释 Meta 为什么要继续推进其人工智能战略。首先,为了留住用户(用户现在希望看到并希望在他们的应用程序中使用人工智能工具;如果 Meta 不提供这些工具,担心这些用户会离开)。其次是为了留住投资者(投资者当然希望获得丰厚的收益,但在科技领域,他们也希望看到 Meta 致力于支持和构建许多人认为将是下一代计算技术的迹象)。第三,为了自己的骄傲(过去十年来,它在移动应用、社交媒体和广告等领域一直引领潮流,而且拥有包括著名人工智能学者 Yann LeCun 在内的大批人才。难道它真的要一蹶不振,错失这一切吗?)Instagram和WhatsApp拥有数十亿月活跃用户,其庞大的全球用户群无疑为Meta提供了扩大其人工智能产品规模的独特机会。通过将 Meta AI 集成到 WhatsApp 和 Instagram 中,这家 Facebook 母公司可以将其先进的语言模型和图像生成能力展示给大量受众,从而有可能使其竞争对手的覆盖范围相形见绌至少在纸面上是这样。该公司在本周早些时候分别确认,将在下个月推出其开源大型语言模型的下一个版本Llama 3。 ... PC版: 手机版:

封面图片

SRAM,不能微缩?还能救救

SRAM,不能微缩?还能救救 而后者SRAM与之相比,因其无需周期性更新存储的数据,通电情况下数据可一直保存,具有访问速度快的优点,通常用于CPU的高速缓存上面,但它处理1比特数据需要六个晶体管,而DRAM仅需一个晶体管,也导致了集成度较低,在相同体积下容量较小,存在体积大、成本较高等缺点。新思界产业研究中心的报告显示,2021年,全球半导体存储器市场规模达到1540亿美元左右,其中SRAM市场规模仅占极小一部分,2021年全球SRAM市场规模约为4亿美元。在全球范围内,美国是最大的SRAM需求市场,其次是日本。全球范围内,SRAM市场主要被美国赛普拉斯(Cypres)、日本瑞萨电子(Renesas)、美国ISSI公司(被北京君正收购)三家厂商所占据,合计市场占有率达到82%。在2023年以前,SRAM向来是最被冷落的存储技术之一,但随着近一年AI的爆火,情况正在悄然改变。AI带火SRAM2024年2月,GoogleTPU第一代设计者Jonathan Ross所创立的Groq公司正式宣布,其新一代LPU在多个公开测试中,以几乎最低的价格,相比GPU推理速度翻倍,后续有三方测试结果表明,该芯片对大语言模型推理进行优化效果显著,速度相较于英伟达GPU提高了10倍。在首次公开基准测试结果中,Groq搭载的Llama2或Mistreal模型在计算和响应速度上远超ChatGPT。这一成绩背后,是Groq团队为大语言模型(LLM)量身定制的专用芯片(ASIC),它使得Groq每秒可以生成高达500个 token。相比之下,目前ChatGPT-3.5的公开版本每秒只能生成大约40个token。根据知情人士透露,LPU的工作原理与GPU截然不同。它采用了时序指令集计算机(Temporal Instruction Set Computer)架构,这意味着它无需像使用高带宽存储器(HBM)的GPU那样频繁地从内存中加载数据。这一特点不仅有助于避免HBM短缺的问题,还能有效降低成本。有从事人工智能开发的用户称赞,Groq是追求低延迟产品的“游戏规则改变者”,低延迟指的是从处理请求到获得响应所需的时间。另一位用户则表示,Groq的LPU在未来有望对GPU在人工智能应用需求方面实现“革命性提升”,并认为它可能成为英伟达A100和H100芯片的“高性能硬件”的有力替代品。更重要的是,不同于其他GPU依赖于高速数据传输,Groq的LPU并没有采用高带宽存储器(HBM),它选择的正是SRAM,其速度比GPU所用的存储器快约20倍。一时间,和SRAM相关的概念股都成了香饽饽,不少人争先恐后地在投资平台询问AI相关,SRAM俨然成了又一个HBM。不过,很快就有专业人士给这波突如其来的热潮降温了:SRAM早就是个非常成熟的技术了,CPU中的寄存器和缓存都用的是SRAM,SRAM早已以IP内核形式完成在SoC的集成,本身的技术价值没有更大的突破。虽然SRAM确实要比DRAM快,但其价格很贵,容量较小,LPU乃至其他计算芯片,大量使用SRAM时需要有所权衡。此外,也有人指出Groq选择了SRAM的理由,主要是它只负责推理、不训练,而推理所需要的存储空间比训练要小得多,所以Groq的单板卡只有230MB的内存,由于成本和容量限制,需要谨慎看待SRAM这轮爆火。即便如此,AI还是给体量较小的SRAM打开了一条透着光的缝隙,一个全新的应用领域,就意味着更多的增长机会,而不是局限在之前的一亩三分地上。有意思的是,早在Groq官宣新的LPU前,国外网站半导体工程已经与 Alphawave Semi 首席技术官 Tony Chan Carusone、Quadric 首席营销官 Steve Roddy 和西门子 EDA 存储技术专家 Jongsin Yun 就人工智能和 SRAM 的最新问题进行了讨论。西门子 EDA 存储技术专家 Jongsin Yun表示, SRAM 与 CMOS 逻辑工艺兼容,这使得 SRAM 在从一种技术迁移到另一种技术时,可以跟踪逻辑性能的提高。SRAM 是芯片内的本地可用存储器。因此,它能提供即时访问的数据,这也是它在人工智能应用中受到青睐的原因。凭借数十年的制造经验,我们了解其大部分潜在问题以及如何最大限度地发挥其优势。就性能而言,SRAM 是我们迄今所知性能最高的内存解决方案,因此成为人工智能的首选。Quadric 首席营销官 Steve Roddy 则表示,SRAM 是任何人工智能处理解决方案的关键要素,SRAM 的用量在很大程度上取决于你谈论的是数据中心还是设备,或者是训练还是推理。但不论何种应用,在处理元件旁边都会有大量的 SRAM。不同类型计算实现之间的所有架构差异,归根结底都是管理内存、管理权重和激活流的不同策略,而这又极大地依赖于可用和可选的内存类型。任何芯片架构师都要根据自己的部署方案有效地规划内存层次结构,但在任何方案中,都必须有 SRAM。Alphawave Semi 首席技术官 Tony Chan Carusone也表示,SRAM 对人工智能至关重要,尤其是嵌入式 SRAM。它的性能最高,而且可以直接与高密度逻辑集成在一起。仅从这些原因来看,它就非常重要。逻辑的扩展性要好于 SRAM。因此,SRAM 变得更加重要,并占用了更大一部分芯片面积。一些处理器上有大量的 SRAM,而且这种趋势可能会继续下去,这将成为整个处理器的一个重要成本驱动因素。一个新趋势是,将这些已达到视网膜极限的大型芯片分解成多个芯片组,并通过适当的互连,使它们能够像一个大型芯片一样运行,从而集成更多的计算和更多的 SRAM。反过来,大量的 SRAM 又进一步推动了向基于芯片的实现过渡。通过这几位专家的讨论我们可以发现,即便是不像Groq那样直接把SRAM当作内存来使用,AI依旧和SRAM脱不开干系,SRAM未来也有望随着AI的火热来焕发第二春。SRAM的绊脚石但困扰SRAM的,远不止应用,还有技术。前面提到过,SRAM采用的是6晶体管架构(逻辑区通常包含4个晶体管/单元),但是,在跟上 CMOS 缩放的步伐时,SRAM 却表现不佳,这对功耗和性能产生了影响。随着人工智能设计对内部存储器访问的要求越来越高,如何在技术节点迁移过程中进一步扩大 SRAM 的功耗和性能优势已成为一项重大挑战。在2022年底,台积电的一篇论文带来了可怕的坏消息虽然逻辑仍在或多或少地沿着历史趋势线扩展,但 SRAM 扩展似乎已经完全崩溃。台积电曾在正式推出 N3 制造技术时表示,与 N5(5 纳米级)工艺相比,新节点的逻辑密度将提高 1.6 倍和 1.7 倍,而台积电在论文却承认,与 N5 相比,新技术的 SRAM 单元几乎没有扩展。台积电 N3 的 SRAM 位元尺寸为 0.0199µm^²,与 N5 的 0.021 µm^² SRAM 位元相比,仅缩小了约 5%。改进后的 N3E 情况更糟,因为它配备了 0.021 µm^² SRAM 位元组(大致相当于 31.8 Mib/mm^²),这意味着与 N5 相比完全没有缩放。随着芯片性能的增长,对缓存和 SRAM 的需求只会增加,但 N3(仅用于少数产品)和 N3E 却无法减少 SRAM 占用的芯片面积,也无法降低新节点比 N5 更高的成本。从根本上说,这意味着高性能处理器的芯片尺寸将增大,成本也将增加,同时SRAM 单元也会与逻辑单元一样容易出现缺陷。虽然芯片设计人员将能够利用台积电 N3 的 FinFlex 创新技术(在一个区块中混合和匹配不同种类的 FinFET,以优化其性能、功耗或面积)来缓解 SRAM 单元变大的问题,但无法根治SRAM无法扩展这一问题事实上,早在 20nm 制程中,SRAM 就无法与逻辑相应地扩展,这也注定了当片上存储器变得比芯片本身还要大时,会面临功耗和性能方面的挑战。而针对这些问题,系统设计人员和硬件开发人员也从那时就在不断提出新的解决方案和开发新的技术。AMD采取了不同的方法。它推出了一种名为 3D V-Cache 的技术,该技术允许将单独芯片上的附加 SRAM 高速缓存存储器堆叠在处理器顶部,从而增加处理器内核可用的高速缓存量。额外的芯片增加了成本,但允许访问额外的 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人