:全新的文本转语音(TTS)解决方案,具有高度自定义和灵活性,支持Linux和Windows系统,需要2GB的GPU内存进行推理

:全新的文本转语音(TTS)解决方案,具有高度自定义和灵活性,支持Linux和Windows系统,需要2GB的GPU内存进行推理,使用Flash-Attn进行推理和训练,支持VQGAN和Text2Semantic模型

相关推荐

封面图片

软件Edge TTS功能:文字转语音

软件Edge TTS 软件功能:文字转语音 支持平台:#Windows 软件简介:一个基于微软文字转语音技术的应用程序,该工具特别增加了用户界面和停顿功能。 用户可以输入文本,应用程序将转换成语音。提供多种声音选项,可以调整语音的速度和音量。可以选择不同的声音进行语音合成。 软件下载:点击下载 频道 群聊 投稿 商务

封面图片

YouTube同声传译:字幕文本转语音TTS(适用于沉浸式翻译)

YouTube同声传译:字幕文本转语音TTS(适用于沉浸式翻译) 这是一个专为YouTube设计的油猴脚本,可以将沉浸式翻译生成的双语字幕自动转换为语音播放。将YouTube上的沉浸式翻译双语字幕转换为语音播放,支持更改音色和调整语音速度,支持多语言,自动检测并朗读沉浸式翻译生成的双语字幕,支持多种语言和音色。 智能语音队列管理,确保字幕朗读不重叠,新字幕出现时会等待当前语音播放完成 脚本地址:

封面图片

Google:引领AI推理工作量的是CPU而非GPU

Google:引领AI推理工作量的是CPU而非GPU 人工智能的生命周期分为两个部分:训练和推理。在训练过程中,需要大量的计算能力和巨大的内存容量,以便将不断扩大的人工智能模型装入内存。最新的模型,如 GPT-4 和 Gemini,包含数十亿个参数,需要数千个 GPU 或其他加速器并行工作,才能高效地进行训练。另一方面,推理所需的计算强度较低,但仍能从加速中获益。在推理过程中,会对预先训练好的模型进行优化和部署,以便对新数据进行预测。虽然推理所需的计算量比训练少,但延迟和吞吐量对实时推理至关重要。Google发现,虽然 GPU 是训练阶段的理想选择,但模型通常在 CPU 上进行优化和推理。这意味着,有些客户出于各种原因选择 CPU 作为人工智能推理的媒介。这可能是成本和可用性的问题。与高端 GPU 或专门的人工智能加速器相比,CPU 往往更便宜,也更容易获得。对于许多应用而言,CPU 能以较低的成本提供足够的推理性能。CPU 还具有灵活性。由于大多数系统已经配备了 CPU,它们为较小的人工智能模型提供了便捷的部署途径。GPU 通常需要专门的库和驱动程序,而基于 CPU 的推理可以利用现有的基础设施。这使得将人工智能集成到现有产品和工作流程中变得更加简单。延迟和吞吐量的权衡也会发挥作用。GPU 擅长大规模并行推理吞吐量。但 CPU 通常可以为实时请求提供更低的延迟。对于需要亚秒级响应的在线推荐等应用,CPU 推理可能是首选。此外,CPU 对推理的优化进展迅速。在更快的时钟、更多的内核以及英特尔 AVX-512 和 AMX 等新指令的推动下,性能不断提高,仅靠 CPU 就能流畅运行人工智能工作负载,如果服务器配置了不止一个插槽,意味着有更多的人工智能引擎存在,服务器就能高效处理数十亿参数大小的人工智能模型,则性能尤其出色。英特尔指出,一般来说,参数不超过200 亿的模型在 CPU 上可以正常运行,而更大的模型则必须使用专门的加速器。像 GPT-4、Claude 和 Gemini 这样的人工智能模型都是庞大的模型,参数规模可达一万亿以上。然而,它们是多模式的,也就是说,它们处理文本和视频。现实世界中的企业工作负载可能是一个人工智能模型推断公司的本地文档,以回答客户支持问题。对于这种解决方案来说,运行 GPT-4 这样的模型就显得多余了。相比之下,像LLAMA 2或 Mistral 这样小得多的模型可以很好地实现类似目的,而不需要第三方 API 访问,只需在本地或云服务器上运行几个 CPU 即可。这就降低了总体拥有成本(TCO),简化了人工智能管道。 ... PC版: 手机版:

封面图片

英特尔Xe2 GPU正式发布:性能提升 50% 包含全新光线追踪内核

英特尔Xe2 GPU正式发布:性能提升 50% 包含全新光线追踪内核 英特尔 Xe2 正式发布,并将应用于 Lunar Lake CPU 和代号为"Battlemage"的下一代 Arc 独立显卡阵容。英特尔 Xe2 的部分目标是提高利用率、改善工作分配和减少软件开销。Xe2 是一项从头开始的设计,修复了 Xe"Alchemist"GPU 存在的几个主要问题。一开始,英特尔就用一张 IP 性能效率图向观众展示了高达 12.5 倍的显著收益,让人惊叹不已。我们将深入介绍 Xe2 是什么,以及英特尔是如何实现这些收益的。英特尔表示,Xe2 架构与 Xe 架构一样,具有高度的可扩展性,这将促使其集成到 Lunar Lake 等低功耗移动 SoC 中,并集成到稍后推出的具有独立选项的高端 Arc 显卡中。第二代 Xe 内核或 Xe2 配备了多种计算资源,这些资源被重新划分为本地 SIMD16 引擎,以提高效率。Xe2 核心功能8 个 512 位矢量引擎8 个 2048 位 XMX 引擎支持 64b 原子运算192KB 共享 L1$/SLM矢量引擎也已更新,其中包括:SIMD16 本地 ALU -支持 SIMD16 和 SIMD32 操作Xe 矩阵扩展(支持 INT2、INT4、INT8、FP16、BF16)扩展数学和 FP64 -常数:正弦、余弦、对数、指数3 向共同发行 -FP + INT/EM + XMXAlchemist"Xe"GPU 上也有 Xe 矩阵引擎或 XMX 单元,但现在的变化是,它们支持更多数据类型,运行速度更快,FP16 额定频率为 2048 OPS/时钟,INT8 额定频率为 4096 OPS/时钟。让我们来看看这些新引擎是如何在 Xe2 渲染片段(Xe2 GPU 的基本模块)中堆叠的。这些渲染片可根据需要进行堆叠和扩展,并经过优化,以减少延迟、消除停滞并改善硬件/软件握手。这些渲染片连接到命令前端,该命令前端本机支持间接执行。渲染片还包括一个新的几何引擎,具有 3 倍的顶点获取吞吐量和 3 倍的网格着色性能(具有顶点重用功能);新的 L1$/SLM 缓存,用于顺序外采样(具有压缩纹理);2 倍的无过滤采样吞吐量和可编程偏移;一个新的 HiZ 单元,缓存增加了 50%,并支持对小型基元进行早期 HiZ 剔除。最后,还有两个新的像素后端(Pixel Backends),可提供两倍的混合吞吐量,像素颜色缓存增加了 33%,并可将目标预取渲染至 L2$。Xe2 的最新光线跟踪单元在 Xe1 的基础上进行了改进。Xe2 内核的一个主要部分是 RTU(光线跟踪单元),它具有 3 条遍历管道、18 个方框交叉点(每个方框交叉点 6 个,每个 RTU 3 个方框)和 2 个三角形交叉点。以上就是英特尔 Xe2 GPU 架构的基本概述:第 2 代 Xe2 内核增强型矢量引擎深度缓存新型 XMX 发动机性能和效率 - 优化前端本机硬件支持 exectue 间接命令更大的光线跟踪装置总体而言,英特尔的 Xe2 GPU 架构旨在与游戏更加兼容,并实现更高的利用率。新的执行间接块被游戏用来加速绘制调用,由于它被虚幻引擎等引擎大量使用,因此获得 12.5 倍的提升对游戏玩家来说是个好兆头。第一款采用 Xe2 GPU 的产品是集成配置的 Lunar Lake。Lunar Lake 中的多个区块都与 GPU 有关,如媒体引擎和显示引擎。在谈这些之前,我们先来谈谈 Lunar Lake 的 Xe2 配置:8 个 Xe2 内核64 个矢量引擎2 几何管道8 个采样器4 个像素后端8 个光线追踪单元8 MB L2$Lunar Lake Xe2 GPU 有 8 个 Xe2 内核,每个 Xe2 内核有 8 个 XMX 和 8 个矢量单元、一个负载/存储单元、一个线程排序单元和一个专用的 L1/L$ 缓存。这 4 个 Xe2 内核中的每一个都能生成一个渲染片。那么,与 Meteor Lake 的 Xe GPU 相比,这一切的性能表现如何呢?英特尔表示,Xe2 GPU 在 ISO 下的性能提高了 50%,在性能不变的情况下,功耗大幅降低。XMX 块也是一个重要部分,它涌入了 67 个峰值 INT8 TOPS,为 Lunar Lake CPU 的整体 AI 能力锦上添花。该芯片总共提供 120 个平台 TOPS,其中 48 个 TOPS 来自 NPU4,5 个 TOPS 来自 CPU 本身。月球湖的 Xe 显示引擎现在,我们从 GPU 转向 Lunar Lake CPU 本身的其他模块,首先是显示引擎。显示引擎配备 3 个显示管道,最高支持 8K60 HDR,最高支持 3x 4K60 HDR,最高支持 1080p360 或 1440p360。显示引擎支持 HDMI 2.1、DisplayPort 2.1 和新的 eDP 1.5 功能。显示引擎的前端包括解码/解密和流缓冲区。在像素处理流水线方面,每个流水线有 6 个平面,支持色彩转换和合成的硬件,同时具有灵活性和高能效。此外,还有一个额外的低功耗优化流水线,带有面板重放功能(空闲帧期间的功率门控)和一个带有 LACE(本地自适应对比度增强)功能的全新亮度传感器。在压缩和编码方面,显示流压缩引擎支持 31 种视觉无损压缩和传输编码(HDMI 和 DisplayPort 协议的流编码)。路由器和端口包括流组装和端口路由,最多支持 4 个端口,增加了灵活性。回到带有面板重放功能的 eDP(eDisplayPort)1.5,它被称为面板自刷新的进化版,具有早期传输和自适应同步支持的选择性更新。新的显示功能可减少抖动,改善播放效果,同时提供更高的能效。用于 Lunar Lake 的 Xe 媒体引擎支持 VVC、侧缓存和更好的编码Lunar Lake SOC 与 Xe2 GPU 连接的最后一个区块是媒体引擎,它现在拥有自己专用的 8 MB 共享侧缓存。芯片的其他部分可以使用这个新缓存,但没有必要,因为其他内核本身就有专用缓存。这种侧缓存可为 Lunar Lake 节省大量带宽,因为跨媒体工作负载的系统内存流量减少了。这也大大降低了编码工作负载的功耗。媒体引擎支持最高达 8k60 10 位 HDR 解码、高达 8k60 10 位 HDR 编码、AVC、VP9、H.265 HEVC、AV1 和全新的 VVC 引擎。VVC 引擎大大降低了比特率,同时提供与 AV1 相同的质量(文件大小最多减少 10%)。它还支持自适应分辨率流和屏幕内容编码。最后,我们的 Windows GPU 软件栈已经为 Xe2 GPU 做好了准备。英特尔表示,它花了大量时间调整 Alchemist"Xe"GPU 的 API 级性能,尤其是 DX9,但所有这些软件工作都将转移到 Xe2,并支持所有最新的 API 和框架及其运行时。Xe2 是一种全新的图形架构,它为 Lunar Lake 等集成解决方案和即将推出的 Arc Battlemage 系列的独立选项带来了巨大的性能提升和最新的功能集。公司将在今年晚些时候分享更多有关 Battlemage 独立产品的信息。 ... PC版: 手机版:

封面图片

三星电子迎接史上最大规模罢工 存储芯片涨价浪潮难停

三星电子迎接史上最大规模罢工 存储芯片涨价浪潮难停 据了解,这也是三星电子成立55年以来规模最大的罢工行动,三星电子乃全球存储芯片市场份额最高的领导者,此次罢工可能对全球存储芯片供应造成一定程度影响,自今年以来的这波DRAM与NAND存储芯片涨价浪潮可能停不下来。据了解,韩国最规模工会之一的三星电子工会(NSEU)大约3万名成员占三星电子韩国员工总数的约24%,该工会希望公司对于工会的员工给予更多的年假,并且希望改变员工奖金制度。然而,有分析师对此表示,低参与率和自动化生产规模意味着这一次大规模罢工不太可能对这家全球最大存储芯片制造商的产量产生重大性质的影响,但不排除存储芯片继续涨价趋势。此外,随着全球科技公司纷纷拥抱人工智能,在芯片行业的关键产能提升和创新时刻,这标志着三星电子员工忠诚度明显下降。上个月,工会进行了第一次劳工罢工行动,主要是协调更多的年假,有效地发动了大规模罢工。三星电子在当时表示,这一罢工行动对商业活动没有重大影响。但是该公司拒绝就周一的罢工置评。该工会没有透露上个月具体的工人罢工情况。该工会近日表示,本周将有6540名工人参加现场罢工集会,主要集中在三星电子的生产基地和产品开发部门,还包括监控自动化生产线和设备的工人,因此可能会影响正常的生产运营。周一,工人们聚集在首尔以南华城的三星总部附近。工会主席Son Woo-mok反驳了媒体关于低参与率的报道,他告诉媒体,这个五年前成立的新工会没有足够的时间来教育普通工会成员。“对工会成员和雇员们的工会教育还不够。但我不认为参与率低,因为我们的工会与其他工会相比还很年轻。”工会高级领导人Lee Hyun-kuk上周曾表示,如果这次的要求得不到满足,可能还会出现新一轮大规模罢工。这位高级领导人表示,三星方面的提议包括提高薪资和年假条件方面的灵活性,但并未满足工会增加薪资和更多休假的要求。此外,工会官员们坚称三星电子的奖金制度非常不公平,因为它是通过从营业利润中扣除资本成本来进行测算,而高管们的奖金则基于个人绩效目标。。自从这家韩国科技巨头在2020年承诺不再阻碍有组织劳工的发展以来,三星工会的成员人数大幅增加。有分析师表示,这一增长表明员工忠诚度下降,这是三星在人工智能(AI)应用芯片竞争中面临的除HBM认证资质以外的另一个难题。“我告诉人们,我为在三星电子工作而感到自豪,但事实并非如此,”20 岁的Park Jun-ha接受采访时说道。他是三星芯片先进封装线的一名重要工程师,于今年 1 月加入该公司。他还表示,自己对三星“不透明”的奖金计划感到不满。AI热潮刺激存储需求激增,三星电子Q2利润料迎来爆炸式增长上周五,三星电子预计第二季度营业利润将增长逾15倍,因为人工智能热潮推动HBM存储系统,以及更广泛的DRAM和NAND存储价格大幅反弹,提振了一年前较低的比较基数。尽管如此,其股价表现,以及HBM认证进度仍远远落后于同类型芯片的竞争对手SK海力士(SK Hynix)。三星电子公布了多年来最快的销售和利润增长速度,反映出随着全球人工智能发展加速,存储芯片需求呈现激增态势。在全球企业纷纷斥巨资布局AI的这股狂热浪潮中,存储需求可谓迈入迅猛增长阶段。这家全球最大规模存储芯片以及智能手机制造商上周五公布,截至6月30日的第二季度初步统计业绩显示,营业利润增长逾15倍,至10.4万亿韩元(合75亿美元),大幅超出市场预期。销售额增长约23%,是自2021年新冠疫情以来的最大增幅。三星电子将于7月31日公布包括各部门详细数据在内的最终业绩。随着人工智能技术发展迭代,全球企业对存储芯片需求激增。SK海力士已成为英伟达核心的HBM供应商,三星也在力争加入这一行列。在当前存储领域最为火热的HBM市场方面,截至2022年,三大原厂HBM市占率分别为SK海力士50%、三星电子约40%、美光约10%,由于SK海力士在HBM领域最早发力,早在2016年已涉足这一领域,因此占据着绝大多数市场份额。有业内人士表示,2023年SK海力士HBM市场份额分布将在55%左右,位列绝对主导地位。三星电子在存储芯片领域堪称最核心地位韩国是世界上最大规模两家存储芯片生产商SK海力士与三星的所在地,其中,全球HBM霸主SK海力士已经成为英伟达最核心的HBM供应商,英伟达H100 AI GPU所搭载的正是SK海力士生产的HBM存储系统。此外,英伟达H200 AI GPU以及最新款基于Blackwell架构的B200/GB200 AI GPU的HBM也将搭载SK海力士所生产的最新一代HBM存储系统HBM3E,另一大HBM3E供应商则是来自美国的存储巨头美光,美光HBM3E大概率将搭载英伟达H200以及最新推出的性能无比强劲的B200/GB200 AI GPU。另一大来自韩国的存储巨头三星,则是全球最大规模的DRAM与NAND存储芯片供应商,并且近期也在力争成为英伟达HBM以及更新一代的HBM3E供应商之一。三星在DRAM主流应用之一的DDR系列存储芯片领域(如DDR4、DDR5) 以及NAND存储主流应用之一的SSD,市场份额遥遥领先于其他存储芯片制造商。不同于HBM大规模应用于AI数据中心,DDR系列存储主要用于PC系统的主存储器,提供足够的内存容量和带宽,支持多任务处理和消费电子端数据集的处理,LPDDR(Low Power DDR)系列则应用于智能手机端。从上图能够看出,韩国企业在存储市场占据主导地位,三星电子和SK海力士占据全球存储芯片市场绝大多数份额,其中三星电子占比甚至接近50%。自从2023年以来席卷全球企业的AI热潮已带动AI服务器需求激增,戴尔科技(DELL.US)以及超微电脑(SMCI.US)等全球顶级数据中心服务器制造商在其AI服务器中通常使用三星与美光DDR系列产品,以及NAND存储主流应用之一的三星/美光SSD则大量用于计算系统的服务器主存储体系,而SK海力士HBM存储系统则与英伟达AI GPU全面绑定在一起使用。DRAM主要用于计算系统的主存储器,为CPU和GPU提供临时数据存储和中间计算结果,以及数据加载和预处理。虽然NAND存储的读写速度不如整个DRAM以及归属于DRAM细分领域的HBM,但其容量大、成本低,是长时间存储数据的理想选择,在生成式AI计算系统中,NAND通常用于保存规模庞大的训练/推理数据集和已训练模型,当需要进行训练或再推理负载时,将数据极速加载到DRAM或HBM中进行处理。这也是HBM存储系统,以及整个DRAM与NAND存储需求激增的重要逻辑。随着全球存储芯片持续复苏,主流存储芯片厂商已经率先开启了涨价模式,TrendForce集邦咨询最新调查显示,第二季度整个DRAM合约价格环比涨幅高达13%-18%。有业内人士表示,从2023年年底开始,全球半导体存储产业逐步进入上行周期,今年已多次收到上游存储芯片厂提高合约价的通知。服务器制造商戴尔近日预计DRAM和SSD价格将在下半年上涨15%至20%。此外,受AI数据中心对大容量NAND需求的推动,以及苹果Apple Intelligence所引领的端侧AI大模型融入消费电子端的热潮,也有望推动DRAM与NAND需求迈入激增阶段,近期三星电子和SK海力士已将NAND工厂的开工率由去年的20-30%升至70%以上。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人