【公开信】华中科技大学同济医学院学生:关于封校和社会封控的宣言

我们不是为了个人的一己私利而提出诉求,而是为了我们本应拥有的、正常生活的权力,我们的宣传也不应仅局限于这所学校、这座城市,而是人民和国家。

相关推荐

封面图片

中国华中科技大学同济医学院附属同济医院,血液科主任医师肖毅,实名举报华中科技党委常委、常务副校长王伟、孙旭芳、吕翼、蒋文海滥

封面图片

从华中科技大学同济医学院附属同济医院获悉,该院神经内科王伟教授、田代实教授团队日前在国际权威学术期刊《科学》子刊《科学免疫学》上

封面图片

【重磅!武汉协和医院多名医护人员病毒核酸转阴】财联社1月26日讯,据新华社消息,华中科技大学同济医学院协和医院7名医护人员经过治疗后,初步检测结果显示,新型冠状病毒核酸检测已转阴,临床症状得到控制

封面图片

为什么说生成式人工智能与其他科技大趋势截然不同?

为什么说生成式人工智能与其他科技大趋势截然不同?TECHnalysisResearch最近对1000名参与公司GenAI工作的IT决策者进行了调查,结果显示,99%使用该技术的公司仍面临挑战。值得注意的是,半数以上的公司都强调了三个主要问题--数据保护/安全、不准确性和版权侵犯,如下图所示。此外,这些公司平均指出了五个不同的问题,这表明潜在的问题并不局限于狭小的范围,而是非常普遍。此外,许多公司在没有全面了解GenAI技术的机制及其多样化部署可能性的情况下就贸然进入了GenAI领域。诚然,许多以企业为目标的技术都是在没有完全掌握其细微差别或潜在影响的情况下推出的,但GenAI似乎打破了等待技术成熟后再广泛实施的传统智慧。出现这种情况有几个原因,但其中大部分归结为一个事实:GenAI已经有了一种必然性和必要性的光环,促使公司比其他时候更早开始使用它。人们对这项技术的兴奋程度--通常是由一些令人印象深刻的早期使用经验所驱动--特别有效地促进了这项技术的采用。事实上,同一项调查显示,95%的IT决策者认为GenAI会对他们的业务产生深远或至少是潜在的显著影响。毫不奇怪,这让人们明显感觉到,每个人都在采用这项技术(同样,调查结果显示,88%的公司已经开始采用这项技术)。这也让企业相信,如果不迅速采取行动,就会在竞争中处于严重劣势--潜在的顾虑和有限的理解都会造成严重后果。当然,科技行业中不乏最初被认为会对企业产生巨大影响的新技术。GenAI的不同之处在于,企业似乎愿意忽略这些潜在的问题,因为它承诺会带来潜在的好处,而且围绕这项技术的紧迫感也很强。显然,围绕GenAI的困惑是真实而普遍的。GenAI面临的另一个重大挑战是围绕这一主题的困惑。虽然很少有人会急于承认自己对一项重要的新创新缺乏了解,尤其是那些科技领域的人,但与GenAI相关的模糊不清显然是真实而普遍的。即使是看似基本的区别,例如理解一个以GenAI为重点的基础模型(如LLM或大型语言模型)与一个利用该模型的应用程序之间的作用和意义,也会造成误解。造成这种混淆的原因有很多。首先,在与ChatGPT等GenAI工具的早期讨论和接触中,基础模型和应用程序经常被交替使用。我们很容易认为,ChatGPT既包括基础模型,也包括我们许多人都体验过的聊天界面。但实际上,ChatGPT就是应用程序,它可以运行在GPT大型语言模型的不同迭代版本上,如GPT-3或GPT-4。这种由底层引擎和构建在其上的应用程序组成的分层方法在大多数GenAI应用程序中都很常见。一方面,它提供了新的灵活性,但也有可能造成更大的混乱。以客户关系管理、办公生产力套件等典型的企业软件应用程序为例,我们从未考虑过用于驱动功能的内部引擎,也没有改变它的选项。然而,有了GenAI,您就有可能在相同的基本应用程序中使用多个不同的引擎,或者在完全不同的应用程序中使用相同的引擎。例如,单个LLM可用于创建原始文本、总结现有文本、编写软件代码等。因此,可能出现的各种情况很快就会让人应接不暇。另一个问题是,不同供应商的早期产品往往以相对相似的方式进行描述,但可能以完全正交的方式处理问题或解决问题。换句话说,这往往是苹果和橘子的比较,从而进一步混淆了问题。这也是为什么教育工作和清晰、基本的营销信息对前几代GenAI工具至关重要的重要原因之一。即使是拥有数十年IT经验的人也会发现,GenAI是一种不同的动物,大多数人都需要简单明了的解释(无论他们是否愿意承认)。在围绕GenAI迅速做出重要战略决策的额外压力下,对清晰度的需求就更加重要了。不管这些担忧如何,GenAI的列车显然没有减速。事实上,当微软和Google的主要生产力套件支持GenAI的版本全面上市时--据说是今年秋天的某个时候--期待着新一轮的GenAI热潮和活动。这些都是企业希望GenAI能够产生最大影响的应用类型,而它们也恰好是每个企业中几乎每个人都在使用的工具。因此,一旦有大量人员开始定期使用这些工具,GenAI所能产生的实际影响就会变得前所未有的清晰。相信这些工具可能产生的影响不会使前面讨论的挑战或教育问题消失,相反,它们会变得更加突出。不过,企业需要做好准备,供应商需要集中精力,以推动GenAI必将带来的突破性变革。...PC版:https://www.cnbeta.com.tw/articles/soft/1377555.htm手机版:https://m.cnbeta.com.tw/view/1377555.htm

封面图片

普林斯顿大学的先进AI芯片项目得到了DARPA和 EnCharge AI 的支持

普林斯顿大学的先进AI芯片项目得到了DARPA和EnChargeAI的支持普林斯顿大学的研究人员完全重新想象了计算的物理原理,为现代人工智能工作负载打造了一款芯片,在美国政府的新支持下,他们将看到这款芯片的速度、结构和能效有多快。上图为早期原型。图片来源:HongyangJia/普林斯顿大学美国国防部最大的研究机构与普林斯顿大学合作,开发用于人工智能的先进微芯片。电子与计算机工程学教授纳文-维尔马(NaveenVerma)表示,新硬件为现代工作负载重新设计了人工智能芯片,与当今最先进的半导体相比,它能以更低的能耗运行强大的人工智能系统。Verma将领导这个项目,他说,这些进展突破了阻碍人工智能芯片的关键障碍,包括尺寸、效率和可扩展性。不从笔记本电脑、手机、医院、高速公路到低地球轨道甚至更远的地方,都可以部署能耗更低的芯片来运行人工智能。为当今最先进的模型提供动力的芯片过于笨重且效率低下,无法在小型设备上运行,主要局限于服务器机架和大型数据中心。现在,美国国防部高级研究计划局(DefenseAdvancedResearchProjectsAgency,简称DARPA)宣布,将以维尔马实验室的一系列关键发明为基础,拨款1860万美元支持维尔马的工作。DARPA的资助将推动对新芯片的速度、结构和能效的探索。维尔马说:"最好的人工智能仅仅存在于数据中心,这是一个非常重要的限制。我认为,如果能将其从中解锁,那么我们能从人工智能中获得价值的方式就会爆炸性增长。"纳文-维尔马(NaveenVerma)教授将领导一个由美国支持的项目,在其普林斯顿实验室的一系列关键发明的基础上,为人工智能硬件增效。图片来源:SameerA.Khan/Fotobuddy这项宣布是DARPA为下一代人工智能计算的"科学、设备和系统的革命性进步"提供资金的更广泛努力的一部分。该计划名为OPTIMA,包括多个大学和公司的项目。该计划的提案征集活动预计资助总额为7800万美元,但DARPA尚未披露完整的机构名单或该计划迄今为止已发放的资助总额。EnChargeAI的出现在普林斯顿领导的这个项目中,研究人员将与Verma的初创公司EnChargeAI合作。EnChargeAI位于加利福尼亚州圣克拉拉市,正在将基于维尔马实验室发现的技术商业化,其中包括他与电气工程研究生共同撰写的几篇关键论文,最早可追溯到2016年。根据项目提案,EnchargeAI"在开发和执行稳健、可扩展的混合信号计算架构方面具有领先地位"。Verma于2022年与前IBM研究员KailashGopalakrishnan和半导体系统设计领域的领军人物EchereIroaga共同创办了这家公司。戈帕拉克里什南说,在人工智能开始对计算能力和效率提出大量新需求的时候,现有计算架构的创新以及硅技术的改进恰恰开始放缓。即使是用于运行当今人工智能系统的最好的图形处理器(GPU),也无法缓解行业面临的内存和计算能源瓶颈。他说:"虽然GPU是目前最好的工具,但我们得出结论,需要一种新型芯片来释放人工智能的潜力。"改变人工智能计算格局普林斯顿大学凯勒工程教育创新中心(KellerCenterforInnovationinEngineeringEducation)主任维尔马表示,从2012年到2022年,人工智能模型所需的计算能力增长了约100万倍。为了满足需求,最新的芯片内置了数百亿个晶体管,每个晶体管之间的间隔只有一个小病毒的宽度。然而,这些芯片的计算能力密度仍然不足以满足现代需求。当今的领先模型结合了大型语言模型、计算机视觉和其他机器学习方法,每个模型都使用了超过万亿个变量。英伟达(NVIDIA)设计的GPU推动了人工智能的蓬勃发展,如今已变得如此珍贵,据说各大公司都通过装甲车来运输这些GPU。购买或租赁这些芯片的积压量已达到消失点。当英伟达(NVIDIA)成为史上第三家估值达到2万亿美元的公司时,《华尔街日报》报道称,在该公司不断增长的收入中,迅速增加的份额并非来自于开发模型(称为训练),而是来自于芯片,这些芯片使人工智能系统在训练完成后能够投入使用。技术专家将这一部署阶段称为推理。维尔马说,推理是他的研究在中短期内影响最大的领域。"这一切都是为了分散人工智能,将其从数据中心释放出来,"他说。"它必须从数据中心转移到我们和与我们息息相关的流程最能访问计算的地方,那就是手机、笔记本电脑、工厂等这些地方。"创新人工智能芯片技术为了制造出能在紧凑或能源受限的环境中处理现代人工智能工作负载的芯片,研究人员必须彻底重新想象计算的物理原理,同时设计和封装硬件,使其能用现有的制造技术制造,并能与现有的计算技术(如中央处理器)良好配合。"人工智能模型的规模已经爆炸性增长,"维尔马说,"这意味着两件事。人工智能芯片在做数学运算时需要变得更加高效,在管理和移动数据时也需要变得更加高效。"他们的方法有三个关键部分。几乎每台数字计算机的核心架构都遵循着20世纪40年代首次开发的一种简单得令人难以置信的模式:在一个地方存储数据,在另一个地方进行计算。这意味着信息要在存储单元和处理器之间穿梭。在过去的十年中,维尔马率先研究了一种更新的方法,即直接在存储单元中进行计算,这种方法被称为内存计算。这是第一部分。内存计算有望减少移动和处理大量数据所需的时间和能源。但迄今为止,内存计算的数字方法还非常有限。维尔马和他的团队转向了另一种方法:模拟计算。这是第二部分。"在内存计算的特殊情况下,你不仅需要高效地进行计算,"维尔马说,"还需要以非常高的密度进行计算,因为现在它需要装在这些非常小的存储单元中。模拟计算机并不是将信息编码成一系列的0和1,然后使用传统的逻辑电路来处理这些信息,而是利用设备更丰富的物理特性。齿轮的弧度。导线保持电荷的能力。"20世纪40年代,数字信号开始取代模拟信号,这主要是因为二进制代码能更好地适应计算的指数级增长。但是,数字信号无法深入挖掘设备的物理特性,因此需要更多的数据存储和管理。因此,数字信号的效率较低。模拟信号的效率来自于利用设备的固有物理特性处理更精细的信号。但这可能需要在精度上做出权衡。维尔马说:"关键在于找到合适的物理学原理,并将其应用于可控性极强、可大规模制造的设备中。"他的团队找到了一种方法,可以利用专门设计的电容器产生的模拟信号进行高精度计算,从而实现精确的开关。这是第三部分。与晶体管等半导体器件不同,通过电容器产生的电能并不取决于材料中的温度和电子迁移率等可变条件。"它们只取决于几何形状,"维尔马说。"它们取决于一根金属线与另一根金属线之间的空间。当今最先进的半导体制造技术可以很好地控制几何形状。"编译自:ScitechDaily...PC版:https://www.cnbeta.com.tw/articles/soft/1422985.htm手机版:https://m.cnbeta.com.tw/view/1422985.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人