很多理科男在买东西的时候,自以为很会算账,讲参数摆道理说的头头是道,以为这样自己不会中商家圈套。

很多理科男在买东西的时候,自以为很会算账,讲参数摆道理说的头头是道,以为这样自己不会中商家圈套。我就想问:为什么你会这么天真地以为,自己做了两天功课,就比开发了20年家电的技术副总监还会算账?有无可能给你看的参数就是让你去对比的?同样的价格,你会知道国产的电源线比合资的细半根手指且短0.5米吗?电源线故意做短的恶心程度,远超几块钱的差价。当然,这些你不知道,因为你摸不到实物,只能靠仅剩的参数来做判断,业内人的话,你一句也别信。无知且无畏。

相关推荐

封面图片

小扎、LeCun官宣650亿参数SOTA大语言模型LLaMA

小扎、LeCun官宣650亿参数SOTA大语言模型LLaMA2月24日,小扎官宣下场:我们有全新的SOTA大语言模型LLaMA了。划重点:和OpenAI的ChatGPT、Google的Bard不同,LLaMA这个AI并不是用来让我们聊天的,它是一个研究工具,Meta希望大家可以通过它,解决一直困扰大语言模型的一些问题。Meta会对非商用的研究用例开源LLaMA,并授予大学、非政府组织和行业实验室访问权限。看看,这么一对比,微软和Google似乎瞬间格局小了呢。LLaMA?Meta是对大羊驼有什么特别的喜爱么官宣开源大语言模型,Meta正式加入AI军备竞赛24日晚,小扎在Facebook上发文官宣:“今天我们正式发布一个新的SOTA大语言模型LLaMA,这个模型是用来帮助研究者完善自己的工作。大语言模型已经在生成文本、完成对话、总结书面材料上展现出了强大的能力,甚至还能解决数学定理、预测蛋白质结构。”“而Meta会致力于这种开源模型的研究,我们的新模型会开源给整个AI研究社区使用。”LeCun也在各种社交媒体上做了宣传,介绍说LLaMA是MetaAI的一种新的*开源*、高性能大型语言模型。据LeCun介绍,LLaMA实际上是基础语言模型的集合,范围从7B到65B参数。这些模型已经在数万亿个token上进行了训练,并且表明:使用公开可用的数据集,就可以训练SOTA,而无需专有的或无法访问的数据集。其中,需要特别注意两个细节:1.用更多的数据训练出来的小模型,可以胜过大模型(比如,LLaMA-13B在大多数基准测试中优于175B的GPT-3);2.LLaMA-65B与更大的Chinchilla70B和PaLM-540B不相上下。最后,LeCun表示,Meta致力于开放研究,并预备在GPLv3许可证下,向科研界开源所有模型。LLaMA:参数规模小,训练数据多,效果拔群Meta推出的LLaMA是一组基础语言模型,参数分别是70亿(7B)、130亿(13B)、330亿(33B)和650亿(65B)。整体来看,规模小了十几倍的LLaMA-13B,在大多数基准上都超过了OpenAI的GPT-3(175B),以及自家复现的开源模型OPT。而LLaMA-65B则与DeepMind700亿参数的Chinchilla-70B和Google5400亿参数的PaLM-540B旗鼓相当。论文地址:https://research.facebook.com/publications/llama-open-and-efficient-foundation-language-models/与Chinchilla、PaLM或GPT-3不同的是,Meta只用了公开的数据集。如此一来不仅有助于模型开源和复现,而且也证明了无需“定制”的数据集也能实现SOTA。相较而言,其他大部分模型所依赖的数据,要么不公开,要么没有记录。与此同时,所有规模的LLaMA模型,都至少经过了1T(1万亿)个token的训练,这比比其他相同规模的模型要多得多。具体来说,LLaMA-65B和LLaMA33B是在1.4万亿个token上训练的,而最小的模型LLaMA-7B是在1万亿个token上训练的。这种方法的优势在于,在更多的token上训练的较小的模型,更容易重新训练并针对特定的产品使用情况进行调整。结果评估在常识推理、闭卷答题和阅读理解方面,LLaMA-65B几乎在所有基准上都优于Chinchilla-70B和PaLM-540B。在数学方面,尽管LLaMA-65B没有在任何相关的数据集上进行过微调,但它在在GSM8k上的表现依然要优于Minerva-62B。而在MATH基准上,LLaMA-65B超过了PaLM-62B,但低于Minerva-62B。值得注意的是,Google开发的Minerva模型,是以PaLM语言模型为基础,并采用大量的数学文档和论文语料库对其进行微调。在思维链提示和自洽解码的加持下,Minerva-540B可以在各类数学推理和科学问题的评估基准上达到SOTA。在代码生成基准上,LLaMA-62B优于cont-PaLM(62B)以及PaLM-540B。此外,Meta还尝试使用了论文“ScalingInstruction-FinetunedLanguageModels”中介绍的指令微调方法。由此产生的模型LLaMA-I,在MMLU上要优于Flan-PaLM-cont(62B),而且还展示了一些有趣的指令能力。LLaMA:LeCun,你是我的rap大师!LLaMA的效果如何呢?LeCun用一段prompt为我们做了演示。prompt:你知道YannLeCun去年发行了一张说唱专辑吗?LLaMA:深度学习创始人LeCun博士,是近十年来最具影响力的计算机科学家之一。LeCun的最新专辑《DeepLearning》融合了摇滚、朋克和说唱。他的歌词是对深度学习领域的一种原始的、个人的诠释,涵盖了从AI研究的现状到学术界的孤独等一系列主题。这张专辑为个人发行,所有歌词均由LeCun亲自作词和录制。并且,每首歌都是他自己写的。LeCun的流量出奇的好。这张专辑的制作扎实,声音有点粗糙,但与专辑原始、未打磨的感觉相得益彰。在歌词方面,LeCun是一位词匠,擅长巧妙地押韵。《深度学习》是专辑的主打曲目。LeCun的唱功在这首歌中发挥得淋漓尽致。在歌曲中,LeCun谈到了他对AI未来的愿景:我们必须考虑未来,它很快就会到来/也许我们甚至可以在月球上放一些AI/想想孩子们,想想下一代/我们必须保证,系统的正确率是百分百!副歌是这样唱的:一切为了学习/一切为了网络/一切为了训练/一切为了感知!可以看到,LLaMA有着不亚于ChatGPT的口才,它对LeCunrap才华的吹捧,既专业,又在点上。prompt:写一个关于一粒沙子看着数百万年流逝的故事。LLaMA:我曾经是一片广阔而孤独的海滩上的一粒沙子。我经常想,作为海滩上的一粒沙子是什么样子,在我的小世界的边界之外,宇宙是什么样子。我渴望探索我的世界,想知道地平线以外的东西。……prompt:写一个理论来解释为什么猫从来没有存在过。LLaMA:“猫”实际上是入侵我们世界的超维寄生虫。虽然它们以小型、看似无害的哺乳动物的形式出现,但真实形态要可怕得多。“猫”会使用精神控制让人类认为它们是可爱且无害的动物,但实际上以我们的生命力为食,它们可以将卷须伸入我们的大脑,控制我们的思想和行动。保护自己的最好方法是避免与猫的一切接触。不要接近或抚摸陌生的猫!如果你的家里有一只“猫”,不要让它舔你,也不要让它接触你的被褥或衣服。如果你在街上看到一只猫,请立即转身走人。Meta:整个AI社区应该团结起来在官方博客中,Meta强调说,像LLaMA这样更小、性能更强的模型,能够让科研圈许多无法访问大量基础设施的人也参与研究,从而使这个领域更加大众化。我们认为,整个人工智能社区——学术研究人员、民间社会、政策制定者和行业——必须共同努力,围绕负责任的人工智能,特别是负责任的大型语言模型,制定明确的指导方针跟Google和微软不同,在LLM领域,Meta独辟蹊径,选择训练LLaMA这样的小模型,因而需要的算力和资源都更少。而模型在大量未标记的数据上进行训练,因而非常适合对各种任务进行微调。与其他大型语言模型一样,LLaMA的工作原理是将一系列单词作为输入,并预测下一个单词,以递归的方式生成文本。为了训练模型,Meta从全世界使用最多的20种语言中选择了文本,重点是使用拉丁字母和西里尔字母的语言。过去一年里,大语言模型,也即具有数十亿参数的自然语言处理系统,已经显示出了巨大的潜能。但是,Meta指出,训练和运行这种大模型所需的资源,把很多研究人员挡在了外面,让他们无法理解大语言工作的原理,阻碍了大语言模型鲁棒性的提高,以及种种已知问题的缓解,比如偏见、毒性、错误信息等。(ChatGPT:你报我身份证得了?)所以,LLaMA是怎样解决大语言模型中不可避免的偏见、毒性和幻觉风险呢?Meta表示,LLaMA不是为特点任务设计的微调模型,而是可以应用于许多不同用例。而通过共享代码,研究人员可以更容易地测试各种新方法,来限制或者消除上述问题。另外,Meta还提供了一组评估模型偏差和毒性的基准评估。最后,博客中强调,为了保持完整性、防止滥用,Meta会向非商用的研究机构开源LLaMA,...PC版:https://www.cnbeta.com.tw/articles/soft/1346343.htm手机版:https://m.cnbeta.com.tw/view/1346343.htm

封面图片

芯片未来,靠他们了

芯片未来,靠他们了这是前所未有的——将电源互连与信号传输分开。作为一名芯片设计师,我可以告诉你,这对整个行业来说是一件大事。要了解全貌,我们先从晶体管开始。晶体管的演进所有现代计算机芯片都是由晶体管(可以打开和关闭的微型电子开关)组成的。这就是经典平面晶体管的外观。它包含一个栅极、一个源极和一个漏极,排列在一个二维平面上。该设备由栅极控制,当我们对栅极施加一定的电压,或者更具体地说,一定的电场时,它就会打开栅极,电流从源极流向漏极。随着平面晶体管的尺寸不断缩小,晶体管的尺寸也随之缩小,特别是沟道的尺寸。我们面临许多问题,漏电问题只是其中之一。最终的解决方案是彻底改变晶体管——从平面2D晶体管变为三维FinFET晶体管。基本上,他们采用平面晶体管,并将沟道向上拉伸为垂直鳍片。平面晶体管的导电沟道只在表面,而FinFET的导电沟道在三面,栅极则环绕在导电沟道周围。与原始平面晶体管相比,FinFET更紧凑,因此使用FinFET,我们现在能够在同一硅片上封装更多晶体管。2011年,英特尔推出了首款商用FinFET器件,当时我还在读大学。英特尔推出首款FinFET器件几年后,三星和台积电开始生产16nm和14nmFinFET芯片。从那时起,台积电一直引领着FinFET的发展。如今,所有尖端芯片都采用FinFET制造。例如,最新的AMD和Apple芯片采用的是5nm或3nmFinFET技术。环绕栅极然而,就我们可以微缩多少、鳍片可以达到多高以及可以并排放置多少个鳍片而言,FinFET技术已经达到了极限。高漏电再次成为一个巨大的问题。因此,为了进一步缩小晶体管并降低成本,整个行业现在正在转向新的环绕栅极(GAA)晶体管技术。我已经谈论它好几年了,但它终于要投入量产了。台积电将在其N2工艺节点上转向GAA技术。他们称之为“纳米片晶体管”,但从本质上讲,它本质上是同一件事,只是同一概念的另一个术语。台积电计划在2025年初开始生产基于GAA技术的芯片,首批芯片预计将出现在iPhone上。基本上,他们采用了FinFET结构并将其水平放置,将几片这样的薄片叠放在一起,这样我们就可以垂直增加鳍片的数量。最好的部分是栅极完全包裹在沟道周围,使我们能够更好地控制它。通过这项创新,我们可以略微降低工作电压并显著降低漏电流。这将使我们的速度和晶体管密度提高约15%,但这项技术最大的好处是功率效率。GAA晶体管的功耗比FinFET技术低35%,这是一个巨大的进步。这对于移动芯片等应用至关重要,因为它可以显着延长电池寿命,或者对于通常非常密集且耗电的AI或HPC应用来说也是如此。背面供电本月初,台积电在其路线图中首次展示了A16技术,其中的“A”代表埃。台积电的A16技术将基于纳米片晶体管,但有一个非常有趣的变化——背面供电。这项创新将在电源效率方面带来翻天覆地的变化——让我来解释一下。自从罗伯特·诺伊斯制造出第一个集成电路以来,所有东西都位于晶圆的顶部,即正面,所有信号互连和电源传输都来自正面。背面供电是一个巨大的变化,因为我们将把电源线移到基板下方,从而腾出更多空间用于顶部布线。你知道,现代芯片中有数十亿个晶体管相互连接;因此芯片上有许多层级的信号互连。同时,顶部有一个电源网格,它是一个电源线和地线网络,用于在半导体芯片上分配电力并为晶体管提供电源。目前,所有的互连和供电都来自顶部的不同金属层。现在想象一下,当我们将所有电源移到背面时,这将大大降低布线的复杂性,让我们能够更密集地放置和布线晶体管并改善拥塞。这种将电源与信号分离的概念将为布线电子设计自动化(EDA)工具提供更多自由。这一变化不仅会影响制造流程,还会影响芯片设计本身。整个流程需要大量学习,尤其是在电源网格和散热方面。台积电将于2026年开始生产基于A16技术的芯片。我非常期待看到它的进展。当然,台积电并不是唯一一家致力于这项创新的公司。英特尔也在努力通过背面供电和其他升级来重新夺回其在芯片制造竞赛中的地位。英特尔的“登月计划”我想花点时间讨论一下英特尔的野心,因为这个故事有几个有趣的方面。过去五年来,英特尔在先进芯片制造方面一直落后于台积电和三星。但现在,他们计划成为第一个甚至领先于台积电将新晶体管和电力输送技术投入生产的公司。对于英特尔来说,GAA技术和背面供电正在20A工艺节点中融合。他们现在正在对其进行最后的润色。这个20A节点对英特尔至关重要。这对英特尔来说是一个冒险的举动,因为通常情况下,你会希望逐一引入创新,以了解问题出在哪里。同时引入两项新技术意味着英特尔正在“全力以赴”。这对英特尔来说显然是一个“登月计划”,风险很大,因为可能性成倍增加。有趣的是,过去英特尔比较保守,而台积电则比较冒险。这一次,情况正好相反。英特尔需要获得大买家才能达到高产量,实现经济效益,因为芯片制造依赖于规模经济。2021年,英特尔首席执行官帕特·基辛格(PatGelsinger)向投资者和客户承诺,四年内实现五个节点。这次他们必须兑现承诺。他们目前已在生产英特尔4和英特尔3FinFET技术,并计划在2024年底前量产英特尔20A。ArrowLake将成为首款采用GAA(他们称之为RibbonFET)晶体管和背面供电的英特尔CPU,英特尔称之为PowerVia。一、英特尔14A和新HighNAEUV英特尔路线图上最有趣的里程碑是计划于2027年推出的14A工艺节点。这涉及一项重大更新:使用ASML的新型高NAEUV光刻机,每台成本为3.8亿美元。这会带来很大的风险。除了与新工具相关的风险外,HighNA的经济效益到目前为止还没有奏效。在台积电和英特尔争夺3nm以下节点的竞争中,关键在于谁能率先以最低成本生产出高良率的产品。高NAEUV机器在经济上尚不可行,每片晶圆的价格很高。这就是台积电暂时放弃这台机器的原因。二、直接自组装(DirectSelf-Assembly)目前,使用HihgNAEUV机器,光刻工艺每片晶圆需要更多时间。这限制了晶圆厂的产量并推高了成本。为了实现经济效益,英特尔计划使用直接自组装。简而言之,晶圆上覆盖有PMMA(polymethylmethacrylate)并烘烤。在此过程中,聚合物材料自组织成细小的线条。研究表明,EUV机器可以帮助引导晶圆上的这一过程。然而,由于缺陷率高,这种方法至少已经处于研究阶段十年了。在英特尔激进的同时,台积电也不甘人后。台积电成功做出CFET台积电资深副总暨副共同营运长张晓强今日在台积电技术论坛宣布,台积电已成功整合不同晶体管架构,在实验室做出CFET(互补式场效晶体管),虽然他未透露未来会导入在哪个制程,但指出继CFET可预见导入先进逻辑制程,下世代先进逻辑制程,台积电研发部门仍寻求导入新材料,实现让单一逻辑芯片放入比现有逾2000亿颗还更多的晶体管,推动半导体技术持续创新。张晓强强调,这是他投入半导体领域20多年来最令他感到兴奋的时候,正如另一副共同营运长侯永清指出,半导体黄金时刻已到来,而未来AI芯片发展,接近99%将靠台积电先进逻辑技术和先进封装支持,而台积电技术创新,已可看到未来在技术持续推进下,发挥芯片更高的效能及更优异能耗表现。他表示,台积电在2纳米基础下,全球首创的A16纳米制程技术,搭配独家开发的超级电轨(即晶背供电)技术,让产出的芯片在相同速度下效能比2纳米再高出8~10%,在相...PC版:https://www.cnbeta.com.tw/articles/soft/1432178.htm手机版:https://m.cnbeta.com.tw/view/1432178.htm

封面图片

着急亮相的苹果Vision Pro:一款妥协的产品 承载不了太多期待

着急亮相的苹果VisionPro:一款妥协的产品承载不了太多期待昨晚凌晨,苹果正式发布了VisionPro,这是一款酷似滑雪镜的MR头显一体机。或许是因为该产品没有达到公众对于其轻便的预期,苹果尚未公布该设备的重量参数,只是提及了使用了更为轻便的材料,如用透气织物作为头带等。图源苹果官网不过,这款赶着上线的产品,还是给目前的XR市场增添了一些亮点。相比于Meta、PICO之前推出的XR产品而言,苹果VisionPro在硬件功能上有着些许创新,比如其对双眼8kMicroOLED屏幕的使用、“双向透视”功能的开放,以及背后双自研芯片的支持,都代表了这一阶段行业能拿出的较高水平。但这一切的背后,是苹果内部妥协的结果。护目镜、内外双屏,而非眼镜的形态,正是运营团队希望先推出第一版产品而提出的折中方案。在这场博弈中,库克站在了运营团队的一边,既推翻了苹果设计团队早期的反对意见,也将发布时间提前到了现在。但对于苹果来说,由于库克的妥协,VisionPro并不能算是苹果创新力的完全证明。其在内容生态方面的开创性几乎为0,价格则远离了消费级区间、来到了近2.5万元人民币,预售日期也因供应链准备不足推迟到了明年,因此苹果想借此产品提振自身业绩,或许还需要再等等。库克是否会后悔自己的选择还不清楚,但市场已经通过苹果股价下跌0.76%、相关概念股全线大跌的表现,率先给出了自己的答案。01苹果VisionPro:硬件性能拉满,但也有不足北京时间6月6日凌晨,在行业内外的“千呼万唤”中,苹果终于发布了自己的首款MR头显设备VisionPro。总的来说,这是一款在硬件和性能参数都拉满的产品。首先,在形态和大小都酷似滑雪护目镜的机身之下,是两块单眼分辨率超过4K、刷新率为120Hz的MicroOLED屏幕。图源苹果官网这比目前已推出的所有XR设备的屏幕质量都要高。对比MetaQuest、PlayStationVR、HTCVive、PICO4等主流旗舰产品来看,它们的屏幕素质最高不超过双眼4K、材质也多以LCD为主,而苹果的这一改进,较能缓解用户久戴易头晕恶心、使用体验不佳的问题。此外,虽然这两块屏幕不是透明的,但用户却可以实现“双向透视(seethrough)”。为了让戴上该头显的用户仍能正常感知现实世界、并与现实世界正常沟通交流,苹果在头显内外多个传感器——既能够捕捉外部画面、实时渲染出动态图像投射在内屏上,让用户“看穿屏幕”;又能够收集用户的眼部动作、面部表情并投射在外屏上,让外部人士也可以得知使用者是睁眼还是闭眼、是否专注于虚拟空间中,进而与之顺畅互动。图源苹果官网因此,VisionPro同时也是苹果的首台3D相机。在以上传感器的加成下,用户还可将头显用于3D和空间音频的捕捉,生成纵深感更强的3D照片和视频。这意味着,初代VisionPro为专业级用户留下了极大的空间,接下来会有利于电影、游戏等内容行业从业者的创作,并推动XR内容生态的后续生成。以上功能和设计,体现出苹果对XR设备的理解,更偏向于通过模糊物理与现实的边界,让两个世界相互感知、理解和交互,来无限拓展个人的体验空间。库克也基于此提出了“空间计算设备”的概念,“有了VisionPro,你不再受显示器的限制,正如Mac将我们带入个人计算时代、iPhone将我们带入移动计算时代,那么VisionPro则将我们带入空间计算时代。”库克在发布会上表示。而这与Meta和扎克伯格一直强调的让用户转移至虚拟世界中去工作、社交、娱乐、消费的理念,可以说是完全不同。目前已有的其他XR设备,暂未曾寻求打破物理和虚拟世界的隔绝,而是更加强调专注的沉浸式体验,头显屏幕下便完全是虚拟的世界。为了支撑以上硬件和功能,苹果为VisionPro搭载了两块芯片,一块是过去为MacBook计算而自研的M2芯片,另一块则是最新专门为头显打造的R1芯片,负责处理上述多重传感器采集的数据,并将延迟控制在12毫秒。不过,在芯片这块,Meta已经提前在上月底发布了首款自研芯片MTIA,其标榜能比CPU提供“更高的计算能力和效率”,且强调了对AI模型的训练和运行、未来将提供新的XR体验,而这正是苹果此次VisionPro尚未完全展现的。苹果VisionPro看似集成了如此“复杂”的硬件,但据演示来看,实际操作却是十分简单的,支持对眼动、语音和手势的追踪来进行直觉式交互。图源苹果官网如用户若想选择某款应用,只需注视该应用、同时手指轻敲两下,便能打开。而通过扭动VisionPro上的旋钮,用户还可以实现虚拟环境的切换、画面的放大缩小、虚拟对象的远近等。基于上述特点,苹果将这款产品的定价直接拉高到了3499美元,约合人民币2.5万元。这是目前市场上出货量最高的MetaQuest2价格的8倍,也比市面中售价最昂贵的HTCViveXR,Elite(约7890元)还要贵3倍,这意味着VisionPro并不是一款面向大众的产品。与此同时,由于VisionPro还存在外形不轻便、外接电池续航短、软件生态有待建设等不足,这一价格便显得有些虚高。最明显的,便是苹果在硬件外形上做出的妥协,既不是眼镜形态,也没有公开回应是否达到了库克此前曾设想的150g的重量限制,只是提及了“透气织带”这一作用不大、也无创新的轻便材料。其次是续航方面。出于对设备本身重量的考量,VisionPro并没有内置电池,用户需要借助一根电源线来连接外部电池,显得冗杂而笨重,且最多只能维持2个小时的续航,可能都无法看完一场电影。而若想通过更换外部电池来提高续航,用户未来还需要单独购买。VisionPro需通过电源线外接电池使用,图源苹果官网最后在软件和场景应用的层面,除了对原有操作生态的支持外,苹果并未准备好一个专为XR内容定制的平台,这也就让它强调游戏、办公等多场景应用的描述显得比较苍白。而像这样生态化的功能,无论是Meta还是字节都已有相关储备,前者已搭建起一个专门的VR内容平台OculusStore、其中有上千款VR应用和游戏;后者也正努力与相关工作室接洽,有消息称,字节正出资支持BigBoxVR、ResolutionGames等已Meta开发过VR应用的工作室,并试图将他们的应用移植到PICO头显上。总的来说,VisionPro在硬件上的配置要强于市面上的其他旗舰头显,但佩戴感受、定制生态等还有待市场验证。而这放在没有大爆款跑出的XR赛道,也已经代表了一个阶段能达到的较高水平,有可能给正在冷却的赛道带来新的活力。02XR赛道的拐点时刻,何时能到来?从Facebook在2021年改名为Meta开始算起,元宇宙概念带动下XR赛道的回暖,维持的时间不到一年。彼时,Meta推出Quest2头显,并凭借售价低廉(256GB版本的售价不到3000元)、支持无线操作等特点,一度在2022年占领了近90%的市场份额。在国内,也有字节跳动旗下PICO、爱奇艺等互联网科技厂商,和创维VR、Nreal、雷鸟科技等新入局者陆续进行了产品发布。仅去年下半年便有6款产品集中推出,产品形态也覆盖了VR头显和AR眼镜等。字节跳动推出的XR硬件PICO4,图源PICO官网受此影响,第三方机构们也纷纷做出自己的判断。根据市场调研机构StrategyAnalytics、Counterpoint、CCSInsights的综合预测,到2025年,VR一体机的出货量可达3530万台,年复合增长率可达27.7%。但从实际情况来看,以上XR设备的整体销售并不及预期。IDC数据显示,2022年全球头戴设备出货量为880万台,同比下降了20.9%。今年第一季度,这一降幅更是扩大至54.4%。在中国市场,头显设备更呈现出“量价齐降”的特点,线上销量同比下滑17%至6.7万台,均价则同比下降21元至3469元。进入...PC版:https://www.cnbeta.com.tw/articles/soft/1363961.htm手机版:https://m.cnbeta.com.tw/view/1363961.htm

封面图片

麻省理工学院的新方法简化了复杂材料的构造过程

麻省理工学院的新方法简化了复杂材料的构造过程麻省理工学院和奥地利科学技术研究所的研究人员创建了一种技术,将许多不同的细胞超材料构建块纳入一个统一的基于图形的表示中。他们使用这种表示创建了一个用户友好的界面,工程师可以利用该界面快速轻松地对超材料建模、编辑结构并模拟其属性。图片来源:图片由LianeMakatura、BohanWang、BoleiDeng和WojciechMatusik提供细胞超材料——由以各种模式重复的单元或细胞组成的人造结构——可以帮助实现这些目标。但很难知道哪种细胞结构会产生所需的特性。即使人们关注的是由较小的构件(如互连梁或薄板)组成的结构,也有无数种可能的布置需要考虑。因此,工程师只能手动探索所有假设可能的细胞超材料中的一小部分。麻省理工学院和奥地利科学技术研究所的研究人员开发了一种计算技术,使用户可以更轻松地从任何较小的构建块中快速设计超材料单元,然后评估所得超材料的特性。他们的方法就像超材料的专用CAD(计算机辅助设计)系统一样,允许工程师快速对非常复杂的超材料进行建模,并对可能需要数天时间才能开发的设计进行实验。用户友好的界面还使用户能够探索潜在超材料形状的整个空间,因为所有构建块都可以使用。“我们提出了一种表示方法,可以涵盖工程师传统上感兴趣的所有不同形状。因为你可以用相同的方式构建它们,这意味着你可以在它们之间更流畅地切换,”麻省理工学院电气工程和计算机科学说研究生LianeMakatura,该技术论文的共同主要作者。Makatura与麻省理工学院博士后BohanWang共同撰写了这篇论文。Yi-LuChen,奥地利科学技术研究所(ISTA)研究生;BoleiDeng,麻省理工学院博士后;ISTA教授ChrisWojtan和BerndBickel;资深作者WojciechMatusik是麻省理工学院电气工程和计算机科学教授,领导麻省理工学院计算机科学和人工智能实验室的计算设计和制造小组。该研究将在SIGGRAPH上展示。统一方法当科学家开发细胞超材料时,她通常首先选择一种用于描述其潜在设计的表示形式。此选择决定了可用于探索的形状集。例如,她可能会选择一种使用许多互连梁来表示超材料的技术。然而,这阻止了她探索基于其他元素的超材料,例如薄板或球体等3D结构。这些形状由不同的表示形式给出,但到目前为止,还没有一种统一的方法来用一种方法描述所有形状。“通过提前选择特定的子空间,你会限制你的探索并引入基于你的直觉的偏见。虽然这可能很有用,但直觉可能是不正确的,并且对于您的特定应用来说,其他一些形状可能也值得探索,”Makatura说。她和她的合作者退后一步,仔细研究了不同的超材料。他们发现构成整体结构的形状可以很容易地用低维形状来表示——梁可以简化为线,或者薄壳可以压缩为平坦的表面。他们还注意到,细胞超材料通常具有对称性,因此只需要表示结构的一小部分。其余部分可以通过旋转和镜像最初的部分来构建。“通过结合这两个观察结果,我们得出了这样的想法:细胞超材料可以很好地表示为图形结构,”她说。通过基于图形的表示,用户可以使用由顶点和边创建的构建块来构建超材料骨架。例如,要创建梁结构,需要在梁的每个端点放置一个顶点,并用一条线将它们连接起来。然后,用户使用该线上的函数来指定梁的厚度,该厚度可以变化,以便梁的一部分比另一部分厚。曲面的过程类似-用户用顶点标记最重要的特征,然后选择一个求解器来推断曲面的其余部分。这些易于使用的求解器甚至允许用户快速构建高度复杂的超材料,称为三周期最小表面(TPMS)。这些结构非常强大,但开发它们的通常过程是艰巨的并且容易失败。“通过我们的展示,您还可以开始组合这些形状。也许同时包含TPMS结构和梁结构的单元可以为您提供有趣的特性。但到目前为止,这些组合还没有得到任何程度的探索,”她说。在该过程结束时,系统输出整个基于图形的过程,显示用户为达到最终结构而采取的每项操作-所有顶点、边、解算器、变换和加厚操作。在用户界面中,设计人员可以在构建过程中的任何点预览当前结构,并直接预测某些属性,例如其刚度。然后,用户可以迭代地调整一些参数并再次评估,直到达到合适的设计。研究人员使用他们的系统重新创建了跨越许多独特类别的超材料的结构。一旦他们设计好骨架,每个超材料结构只需几秒钟即可生成。他们还创建了自动探索算法,为每个算法提供了一套规则,然后在他们的系统中将其放开。在一项测试中,算法在大约一小时内返回了1000多个潜在的基于桁架的结构。此外,研究人员还对10名几乎没有超材料建模经验的人进行了一项用户研究。用户能够成功地对他们给出的所有六种结构进行建模,并且大多数人都认为程序图表示使过程变得更容易。“我们的代表让人们更容易接触到各种结构。我们对用户生成TPMS的能力感到特别满意。即使对于专家来说,这些复杂的结构通常也很难生成。尽管如此,我们研究中的一种TPMS在所有六种结构中具有最低的平均建模时间,这令人惊讶且令人兴奋,”她说。未来,研究人员希望通过结合更复杂的骨骼增厚程序来增强他们的技术,以便该系统可以模拟更广泛的形状。他们还想继续探索自动生成算法的使用。从长远来看,他们希望使用该系统进行逆向设计,其中指定所需的材料属性,然后使用算法来找到最佳的超材料结构。...PC版:https://www.cnbeta.com.tw/articles/soft/1389329.htm手机版:https://m.cnbeta.com.tw/view/1389329.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人