【讨厌马赛克?Google 表示你可以修复它了】Google的 AI 团队提到了一个新的图片算法,并展现了其最新的研究成果,从效

【讨厌马赛克?Google 表示你可以修复它了】Google的 AI 团队提到了一个新的图片算法,并展现了其最新的研究成果,从效果来看十分震撼通过两种不同的算法,能将 64 X 64 像素的照片还原成 1024 X 1024 像素分辨率,并且细节效果非常逼真。 #抽屉IT

相关推荐

封面图片

未发布的 Moto G64 5G 出现在 Google Play Console上

未发布的 Moto G64 5G 出现在 Google Play Console上 摩托罗拉 Moto G64 5G 最近在Google Play Console上被曝光,同时还公布了一些基本细节。它内置联发科 Dimensity 7020 芯片组,这是一款来自 2023 年的 5G 6nm 芯片,本质上是 Dimensity 930 的换代产品,拥有两个主频高达 2.2 GHz 的 Cortex-A78 内核和六个主频高达 2.0 GHz 的 Cortex-A55 内核,以及一个 IMG BXM-8-256 GPU。Google Play 控制台列出了 Moto G64y 的两个版本一个配备 8GB 内存,一个是 12GB。我们不知道显示屏的对角线尺寸,但我们知道其 FullHD+ 分辨率为 1080 x 2400 像素,像素密度为 400 ppi。从附带的设备图片中,我们还可以看到显示屏上有一个自拍打孔。音量键和电源键似乎也位于手机的右侧。值得注意的是,几天前,Google Play 控制台也发现了一款据称规格完全相同的 Moto G64y 5G,但现在已不在该列表中。也许是为了反映该设备的新名称而对列表进行了编辑。我们还不知道这款新机型与去年的Moto G54 有何不同,后者似乎非常相似。 ... PC版: 手机版:

封面图片

破解ChatGPT惊人耗电 DeepMind新算法训练提效13倍,能耗暴降10倍

破解ChatGPT惊人耗电 DeepMind新算法训练提效13倍,能耗暴降10倍 随着AI计算需求的膨胀,还需要用水来冷却计算系统。研究称,微软用水量从2021年到22年飙升了34%,ChatGPT每处理5-50个提示就会消耗接近半升水。针对这种现状,我们有更好的解决策略吗?最近,GoogleDeepMind研究团队提出了一种加快AI训练的新方法多模态对比学习与联合示例选择(JEST),大大减少了所需的计算资源和时间。JEST以13倍更少的迭代次数,以及10倍更少的计算量,超越了最先进的模型!预训练的参考模型,已经学习了什么样的数据是有“优质的”或“有用的”。然后通过模型,来引导数据选择那些精心筛选过的小型数据集。这一发现揭示了,数据筛选水平可以作为评判Scaling Law的一个新维度。网友激动表示,“我没想到这么快就会发生。模型能够自主选择训练数据的能力是巨大的,因为它使训练变得显著更容易,你不再需要猜测什么是高质量的训练数据,你有一个能够『理解』什么样的数据对自身学习最有价值的模型”。前Google、苹果软件工程师称赞道,这项研究非常令人印象深刻。从“超级batch”中筛选数据无论是语言、视觉还是多模态模型,数据质量是预训练性能的重要驱动因素。比如Phi-3、Gemma 2等模型的成功让我们看到了,更少、更高质量的数据有可能实现更强大的性能。要筛选出高质量的数据,数据管道的建立就成为重要的工作。现有的方法大体可以分为两种:1)手动管理 2)基于模型的数据管理,用正在训练模型的特征选择高质量数据。前者成本高昂且难以扩展,后者则有望为多模态LLM实现Scaling Law。然而,现有方法忽略了一个事实。如果仅在单个数据点的层面进行筛选,就没有考虑到数据集以及batch的总体组成。毕竟,训练数据是以batch为单位,数据点之间的依赖性不可忽视。许多计算机视觉的研究都曾表明,hard negatives(表达空间中相近但标签不同的样本)相比可被平凡解的数据簇,能提供更有效的学习信号。那么如何让模型以batch为单位筛选数据呢?论文提出的JEST算法正是要解决这个问题,原理很好理解:就是直接从“超级batch”中筛选出“子batch”。技术介绍用数学语言来描述这个问题,就是从大小为B的“超级batch”中提取出与学习最相关的子batch ℬ={,∈[1,…,]}⊂,过滤比率可以写作=1−/。之前的优先采样(prioritized sampling)会使用基于模型的评分函数对每个数据点打分,再按比例采样。JEST则直接对整个子batch评分,再按照batch级别的分数采样。一种最直观的启发式方法就是在现有模型参数 : hard⁢(ℬ|)=ℓ⁢(ℬ|) 中,直接选择损失值最高的batch,这种方法可被称之为“硬学习”(hard learner)。这种方法具有丢弃琐碎数据的理想属性,已被证明适用于小型、干净的数据集;然而对于较大、较少管理的数据集往往弊大于利,因为它依旧会采样到噪声数据。另一种方法常用于多模态,使用具有参数 ∗:^easy⁢(ℬ|∗)=−ℓ⁢(ℬ|∗) 的参考模型为预训练模型采样数据。但作者依旧否定了这个方案,因为它无法直接反映模型当前的状态,可能过度依赖参考模型的选择,而且不易于扩展。最后,论文选择借鉴ICML 2022年的一篇论文中提到的方法,将上述两方面的评分结合起来:^learn⁢(ℬ|,∗)=hard⁢(ℬ|)+^easy⁢(ℬ|∗)=ℓ⁢(ℬ|)−ℓ⁢(ℬ|∗),并将这种启发式方法称为“可学习性评分”(learnability score)。其中,batch上的损失值ℓ⁢(ℬ|)是各数据点之和,使用sigmoid对比损失函数计算(sigmoid-contrastive loss),因为相比softmax对比损失而言,它的扩展性更强。由于batch上的对比损失可以分解为每个样本的条件损失之和,因此可学习性评分可被分解为单个样本可学习性评分⁢(|,∗,ℬ)之和,写作:使用的顺序采样方法则受到了block Gibbs采样的启发。在第n次迭代、对第B_n个batch进行采样时,依据如下概率公式对块{X_k}进行无替换采样:将X_k块添加到B_n中来更新当前采样的batch,直至迭代数n=N时终止。算法的总体流程如下图所示:实验中发现,使用迭代数N=16且每次迭代时独立采样b/N=2048个样本时,就足以恢复出学习性非常高的batch。可学习性评分中涉及到使用参考模型为数据点打分,之前的方法惯常使用额外的小型模型,但这会增加每次迭代的计算成本,降低总体FLOP效率增益。因此论文使用了在线模型近似的方法以及效率较高的FlexiViT架构,只使用降低分辨率的32×32的patch来评估“超级batch”,与全分辨率、patch大小为16×16的方法相比减少了72%的FLOP,以及67%的挂钟时间(wall-clock time)。此外,论文还提出了进行多分辨率训练的技巧。将每个batch随机分成两半,使用不同分辨率编码后再拼接起来,提升了评分过程和训练的效率。下图详细描述了全分辨率JEST和多分辨率Flexi-JEST方法的伪代码实现。所有JEST实验都在WebLI数据集上运行,包含经过宽松过滤的十亿规模的英语图像-文本对,参考模型的训练则使用其中经过高质量过滤100M大小的子集(被称为WebLI-curated)。在WebLI的基础上,作者还额外从网络上抓取了6亿个文本-图像对并经过同样强度的过滤,组成WebLI-curated++数据集训练参考模型,拓展出JEST++/FlexiJEST++方法,来探索对数据管理的扩展。论文所报告的平均性能包括4个多模态规范基准:ImageNet 0-Shot和10-Shot 分类以及COCO图像到文本和文本到图像的top-1检索。实验结果图1中可以看到,使用JEST或FlexiJEST方法的最明显优势就是效率提升。左图中,相比原有的SigLIP基线模型,JEST++可以在训练数据量减少13.1×的情况下达到相同准确率。即使考虑到额外引入的打分成本,也有近10×的FLOP效率提升(中图)。右图展现了JEST++/FlexiJEST++(绿色)与先前方法(灰色)的比较,相比CLIP、EVA-CLIP经典模型实现了计算成本和性能的双重提升。左图和中图的平均准确率由8个下游任务得出,右图性能由ImageNet和COCO基准测试得出产生可学习batch研究人员首先评估了JEST在选择可学习batch方面的效果。为了直观地理解这一方法,作者们先将可学习性矩阵进行可视化,即学习模型和参考模型之间,对batch中所有示例对的损失差异。JEST就是按照示例子矩阵的可学习性总和比例进行采样。由于矩阵明显非对角关系(图2,左),独立选择显然是次优的。经过少量迭代(对应于用N=16个块填充batch),作者发现子batch的可学习性快速增加,达到了需要数千次迭代的暴力吉布斯采样(Gibbs sampling )所提取batch的可学习性(图2,中)。对于0.5、0.8和0.9的过滤比例,他们从大小分别为65,536、163,840和327,680的超级batch中选择32,768个示例的子batch。在图2右侧,研究者还发现子batch的可学习性随着更大的过滤比例而增加。总之,JEST算法是在训练过程中选择高度可学习batch的有效,且高效的方法。加速多模态学习接下来,研究人员使用JEST算法选择的可学习batch,检验训练模型的效果。所有实验都使用在WebLI-curated上训练的参考模型,这是一个ViT-B/16和Bert-B图像-文本双编码器,30亿训练样本,采用sigmoid对比损失函数。图3(左)显示了在训练过程中多个下游任务(ImageNet 0-Shot/10-Shot准确率和COCO图像到文本/文本到图像检索)的平均性能。结果还发现,JEST显著加速了学习过程。在使用50%、80%和90%的过滤比例时,分别只需20亿、10亿和6.7亿训练样本就达到了30亿均匀基准的最终性能。在更大的过滤比例下,坐着观察到类似于更大batch size时的训练不稳定性,需要修改Adam优化器(β2 = 0.95)以稳定训练,这表明JEST的数据筛选可以被视为增加了有效batch ... PC版: 手机版:

封面图片

OpenAI王炸模型引爆科技圈 官方技术报告说了什么?

OpenAI王炸模型引爆科技圈 官方技术报告说了什么? 而在2024年开年,OpenAI就发布了王炸文生视频大模型Sora,它能够仅仅根据提示词,生成60s的连贯视频,“碾压”了行业目前大概只有平均“4s”的视频生成长度。为了方便理解,我们简单总结了这个模型的强大之处:1、文本到视频生成能力:Sora能够根据用户提供的文本描述生成长达60S的视频,这些视频不仅保持了视觉品质,而且完整准确还原了用户的提示语。2、复杂场景和角色生成能力:Sora能够生成包含多个角色、特定运动类型以及主题精确、背景细节复杂的场景。它能够创造出生动的角色表情和复杂的运镜,使得生成的视频具有高度的逼真性和叙事效果。3、语言理解能力:Sora拥有深入的语言理解能力,能够准确解释提示并生成能表达丰富情感的角色。这使得模型能够更好地理解用户的文本指令,并在生成的视频内容中忠实地反映这些指令。4、多镜头生成能力:Sora可以在单个生成的视频中创建多个镜头,同时保持角色和视觉风格的一致性。这种能力对于制作电影预告片、动画或其他需要多视角展示的内容非常有用。5、从静态图像生成视频能力:Sora不仅能够从文本生成视频,还能够从现有的静态图像开始,准确地动画化图像内容,或者扩展现有视频,填补视频中的缺失帧。6、物理世界模拟能力:Sora展示了人工智能在理解真实世界场景并与之互动的能力,这是朝着实现通用人工智能(AGI)的重要一步。它能够模拟真实物理世界的运动,如物体的移动和相互作用。可以说,Sora的出现,预示着一个全新的视觉叙事时代的到来,它能够将人们的想象力转化为生动的动态画面,将文字的魔力转化为视觉的盛宴。在这个由数据和算法编织的未来,Sora正以其独特的方式,重新定义着我们与数字世界的互动。一反常态,OpenAI在模型公布后的不久,就公布了相关的技术Paper,我们第一时间“啃”了这篇技术报告,希望能够帮助大家理解到底有哪些神奇的技术,让Sora能够有如此强大的魔力。01 以下为OpenAI文生视频模型Sora官方技术报告我们探索了利用视频数据对生成模型进行大规模训练。具体来说,我们在不同持续时间、分辨率和纵横比的视频和图像上联合训练了以文本为输入条件的扩散模型。我们引入了一种transformer架构,该架构对视频的时空序列包和图像潜在编码进行操作。我们最顶尖的模型Sora已经能够生成最长一分钟的高保真视频,这标志着我们在视频生成领域取得了重大突破。我们的研究结果表明,通过扩大视频生成模型的规模,我们有望构建出能够模拟物理世界的通用模拟器,这无疑是一条极具前景的发展道路。这份技术报告主要聚焦于两大方面:首先,我们详细介绍了一种将各类可视数据转化为统一表示的方法,从而实现了对生成式模型的大规模训练;其次,我们对Sora的能力及其局限性进行了深入的定性评估。需要注意的是,本报告并未涉及模型的具体技术细节。在过去的研究中,许多团队已经尝试使用递归网络、生成对抗网络、自回归Transformer和扩散模型等各种方法,对视频数据的生成式建模进行了深入研究。然而,这些工作通常仅限于较窄类别的视觉数据、较短的视频或固定大小的视频上。相比之下,Sora作为一款通用的视觉数据模型,其卓越之处在于能够生成跨越不同持续时间、纵横比和分辨率的视频和图像,甚至包括生成长达一分钟的高清视频。将可视数据转换成数据包(patchs)在可视数据的处理上,我们借鉴了大语言模型的成功经验。这些模型通过对互联网规模的数据进行训练,获得了强大的通用能力。同样,我们考虑如何将这种优势引入到可视数据的生成式模型中。大语言模型通过token将各种形式的文本代码、数学和自然语言统一起来,而Sora则通过视觉包(patchs)实现了类似的效果。我们发现,对于不同类型的视频和图像,包是一种高度可扩展且有效的表示方式,对于训练生成模型具有重要意义。图注:OpenAI专门设计的解码器模型,它可以将生成的潜在表示重新映射回像素空间在更高层次上,我们首先将视频压缩到一个低维度的潜在空间:这是通过对视频进行时间和空间上的压缩实现的。这个潜在空间可以看作是一个“时空包”的集合,从而将原始视频转化为这些包。视频压缩网络我们专门训练了一个网络,专门负责降低视觉数据的维度。这个网络接收原始视频作为输入,并输出经过压缩的潜在表示。Sora模型就是在这个压缩后的潜在空间中接受训练,并最终生成视频。此外,我们还设计了一个解码器模型,它可以将生成的潜在表示重新映射回像素空间,从而生成可视的视频或图像。时空包当给定一个压缩后的输入视频时,我们会从中提取出一系列的时空包,这些包被用作转换token。这一方案不仅适用于视频,因为视频本质上就是由连续帧构成的,所以图像也可以看作是单帧的视频。通过这种基于包的表示方式,Sora能够跨越不同分辨率、持续时间和纵横比的视频和图像进行训练。在推理阶段,我们只需在适当大小的网格中安排随机初始化的包,就可以控制生成视频的大小和分辨率。用于视频生成的缩放TransformersSora是一个扩散模型,它接受输入的噪声包(以及如文本提示等条件性输入信息),然后被训练去预测原始的“干净”包。重要的是,Sora是一个基于扩散的转换器模型,这种模型已经在多个领域展现了显著的扩展性,包括语言建模、计算机视觉以及图像生成等领域。在这项工作中,我们发现扩散转换器在视频生成领域同样具有巨大的潜力。我们展示了不同训练阶段下,使用相同种子和输入的视频样本对比,结果证明了随着训练量的增加,样本质量有着明显的提高。丰富的持续时间、分辨率与纵横比过去,图像和视频生成方法常常需要将视频调整大小、裁剪或修剪至标准尺寸,如4秒、256x256分辨率的视频。但Sora打破了这一常规,它直接在原始大小的数据上进行训练,从而带来了诸多优势。采样更灵活Sora具备出色的采样能力,无论是宽屏1920x1080p视频、垂直1080x1920视频,还是介于两者之间的任何视频尺寸,它都能轻松应对。这意味着Sora可以为各种设备生成与其原始纵横比完美匹配的内容。更令人惊叹的是,即使在生成全分辨率内容之前,Sora也能以较小的尺寸迅速创建内容原型。而所有这一切,都得益于使用相同的模型。图注:Sora可以为各种设备生成与其原始纵横比完美匹配的内容改进构图与框架我们的实验结果显示,在视频的原始纵横比上进行训练,能够显著提升构图和框架的质量。为了验证这一点,我们将Sora与一个将所有训练视频裁剪为方形的模型版本进行了比较。结果发现,在正方形裁剪上训练的模型有时会生成仅部分显示主题的视频。而Sora则能呈现出更加完美的帧,充分展现了其在视频生成领域的卓越性能。图注:将所有训练视频裁剪为方形的模型相比(左),Sora能呈现出更加完美的帧语言理解深化为了训练文本转视频生成系统,需要大量带有相应文本字幕的视频。为此,我们借鉴了DALL·E3中的re-captioning技术,并应用于视频领域。首先,我们训练了一个高度描述性的转译员模型,然后使用它为我们训练集中的所有视频生成文本转译。通过这种方式,我们发现对高度描述性的视频转译进行训练,可以显著提高文本保真度和视频的整体质量。与此同时,与DALL·E3类似,我们还利用GPT技术将简短的用户提示转换为更长的详细转译,并将其发送... PC版: 手机版:

封面图片

PCIe一统江湖背后:英特尔漂亮的翻身仗

PCIe一统江湖背后:英特尔漂亮的翻身仗 访问:NordVPN 立减 75% + 外加 3 个月时长 另有NordPass密码管理器 基础标准的最佳示例之一是外围组件互连 (PCI:peripheral component interconnect),它出现于 20 世纪 90 年代初,并于 30 年前出现在一些本世纪最早的消费类机器中。时至今日,PCI 插槽仍用于通过传输数据和控制信号的总线将网卡、声卡、磁盘控制器和其他外围设备连接到计算机主板。PCI 的经验教训逐渐影响了 USB 等其他标准,并最终使计算机不再那么令人沮丧。那么我们是如何得到它的呢?拥抱标准:计算行业给自己的礼物在 20 世纪 80 年代,当你使用 Apple II、Commodore 64 或 MS-DOS 机器时,你基本上被锁定在一个生态系统中。软盘通常不兼容。外围设备无法跨平台工作。如果您想在 20 世纪 80 年代销售硬件,您就会陷入构建同一设备的多个版本的困境。例如,KoalaPad是 20 世纪 80 年代初销售的常见绘图工具,适用于多种平台,包括Atari 800、Apple II、TRS-80、Commodore 64和IBM PC。每个平台上的设备本质上都是相同的,然而 KoalaPad 的制造商 Koala Technologies 必须制造该设备的五个不同版本,采用五种不同的制造工艺、五种不同的连接器、五种不同的软件包以及大量的开销。这是一种浪费,使硬件制造商的成本更高,并增加了消费者的困惑。这种情况在 1982 年左右开始慢慢发生变化,当时IBM PC 克隆市场开始腾飞。这是一次令人愉快的意外IBM 决定在其 PC 中使用大量现成组件,意外地将它们变成了事实上的标准。渐渐地,计算平台变得越来越难以成为自己的孤岛。即使 IBM 本身尝试向计算世界推销其PS/2 系列的一系列专有标准但失败了,它也没有奏效。秘密已经泄露了,一切都已经太迟了。那么我们是如何制定出今天的标准,特别是 PCI 扩展卡标准的呢?PCI 并不是唯一的游戏 例如,您可能会争辩说,如果情况不同,我们都会使用NuBus或微通道(Micro Channel )架构。但它似乎是一个长期的标准,远远超出了同时代的其他竞争标准。谁负责牵头制定该标准?英特尔。虽然 PCI 是一种跨平台技术,但事实证明,在 IBM 已经放弃了动力,选择专注于自己的 PowerPC 架构和更窄的PC 架构之际,它被证明是芯片制造商巩固其在 PC 市场权力的重要战略。相反,它的功能类似于ThinkPad,并且不再塑造 PC 的架构。PCI 的愿景很简单:一种互连标准,并不局限于一行处理器或一条总线。但不要将标准化误认为是合作。PCI 是一颗棋子与 PC 制造商所玩的游戏不同的一部分。20 世纪 90 年代初,英特尔需要一场胜利在 1993 年英特尔奔腾芯片组问世之前的几年里,似乎有人对英特尔能否保持其在桌面计算领域的领先地位表示怀疑。在低端消费机器领域,Advanced Micro Devices ( AMD ) 和Cyrix等厂商开始撼动自己的地位。在高端专业市场,Sun Microsystems、Silicon Graphics和Digital Equipment Corporation等公司的工作站级计算表明,从长远来看,英特尔没有生存空间。另一方面,该公司突然发现自己面临着 IBM、摩托罗拉和苹果的三重威胁,后者的PowerPC芯片即将上市。当时彭博社的一篇文章将英特尔描述为夹在这两个极端之间:如果其竞争对手继续获胜,英特尔最终可能会全面失利。这不是无谓的威胁。Cyrix Corp. 和 Chips & Technologies Inc. 重新创建并改进了英特尔的 386,他们称这没有侵犯版权或专利。AMD至少暂时在法庭上赢得了根据英特尔于 1985 年取消的许可协议生产 386 克隆产品的权利。在过去 12 个月里,AMD 赢得了 40% 的市场份额,自 1985 年以来,该市场为英特尔带来了 20 亿美元的利润和23亿美元现金储备。486 接下来可能会受到影响。英特尔降价速度之快超过其历史上任何新芯片的降价速度。5 月中旬,Cyrix 发布了一款具有一些类似功能的芯片后,一款型号的价格又增加了 50%。尽管486的平均价格仍然是386的四倍,但分析师表示,英特尔今年的利润可能增长不到5%,达到约8.5亿美元。英特尔的芯片还面临着另一个挑战。个人电脑需求的下降减缓了先进个人电脑的创新。这在桌面市场的顶端(也是利润最高的一端)留下了一个空白,Sun、惠普公司和其他强大工作站制造商正在努力填补这一空白。得益于基于 RISC(即简化指令集计算)技术的微处理器,工作站拥有令人眼花缭乱的图形和更多的功能,可以方便地执行复杂的任务并通过网络更快地移动数据。有些与高端个人电脑一样便宜。因此,工作站制造商现在正在向股票交易商、银行和航空公司等个人电脑买家进军。事实证明,这是对英特尔市场地位的严重低估。该公司实际上处于有利地位,可以通过标准化来塑造行业的方向。他们对数百万台计算机主板上出现的内容有直接的发言权,这赋予了他们令人印象深刻的运用能力。如果英特尔不想支持某个标准,那么该标准很可能会被搁置。英特尔的决定视频电子标准协会( VESA:Video Electronics Standards Association) 如今最出名的可能是其计算机显示器安装系统及其DisplayPort 技术。但在 20 世纪 90 年代初,它正在开发一种以视频为中心的工业标准架构(ISA) 内部总线的后继产品,该总线广泛用于 IBM PC 克隆产品。总线是让 CPU 与内部和外部外围设备通信的物理布线,是计算的基石,但如果设置不当,则会成为瓶颈。ISA 扩展卡插槽在 20 世纪 80 年代已成为事实上的标准,在其第一个十年中为 IBM PC 克隆市场提供了一些可以借鉴的东西。但到了 20 世纪 90 年代初,对于高带宽应用(尤其是视频)来说,它阻碍了创新。即使它已经从能够同时处理 8 位数据升级到 16 位数据,但它的速度仍然不够快。这就是 VESA 本地总线 (VL-Bus) 发挥作用的地方。该标准仅适用于视频卡,提供更快的连接,并且可以处理 32 位数据。它针对的是 Super VGA 标准,该标准在 Windows 最终开始占领市场时提供了更高的分辨率(高达 1280 x 1024 像素)和更丰富的色彩。为了克服 ISA 总线的限制,显卡和主板制造商开始在专有接口上进行合作,创建了一系列不兼容的图形总线。Super VGA 缺乏一致的体验导致了 VESA 的形成。新的 VESA 插槽试图解决这个问题,它通过一个额外的 32 位视频专用连接器扩展了现有的 16 位 ISA 总线。这并不是一个巨大的飞跃,更像是获得更好图形效果的权宜之计。英特尔似乎打算采用 VL-BUS。但有一个问题英特尔实际上并没有感觉到这一点,并且英特尔并没有向支持 VESA 标准机构的公司明确说明这一点,直到他们做出反应时为时已晚。据当时的报道:到目前为止,几乎每个人都期望 VESA 所谓的 VL-Bus 技术成为构建本地总线产品的标准。但就在 VESA 计划宣布其方案的前两周,英特尔向 VESA 本地总线委员会表示,它根本不会支持该技术。英特尔在致 VESA 本地总线委员会官员的一封信中表示,支持 VESA 本地总线技术“不再符合英特尔的最佳利益”。消息人士称,该公司随后建议 VESA 和英特尔应共同努力,尽量减少该决定可能产生的负面媒体影响。祝你好运,英特尔。因为现在英特尔计划宣布成立一个包括 IBM、康柏、NCR 和 DEC 等硬件巨头的竞争集团,客户和投资者(是的,还有媒体)将会想知道世界上到底发生了什么。毫不奇怪,为 VESA 工作的人们感到受伤、困惑和愤怒。“这是一场政治噩梦。我们对他们这样做感到非常惊讶,”该委员会主席兼 VESA 成员 Tseng Labs 的产品经理 Ron McCabe 说道。“我们仍然会赚钱,英特尔仍然会赚钱,但标准不再是一种,而是两种。最终受到伤害的是顾客。”但英特尔看到了在计算机行业留下印记的机会。这... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人