:旨在加速SQL操作的零知识证明,提供了CPU和GPU上的加速密码学零知识证明算法的C++库,支持多标量乘法、广义Pederse

:旨在加速SQL操作的零知识证明,提供了CPU和GPU上的加速密码学零知识证明算法的C++库,支持多标量乘法、广义Pedersen承诺和多指数运算等密码学原语,能在单个GPU上以极快的速度运行Proof of SQL,同时提供了CPU支持,用于测试。

相关推荐

封面图片

从当下的密码学到量子密码学

从当下的密码学到量子密码学 密码学和加密不仅仅是极客和间谍的专利,它们也是如今所有人日常生活的一部分。这本新书向您介绍了数字密码学的基础知识,并涵盖了组织在抵御数据盗窃和窃听者时必须实施的做法。 您将了解到数字加密的概念,并研究关键的数字加密算法及其各种应用。从组织的角度来衡量密码学,您将深入了解可能发生在您的系统中的常见攻击,并了解如何对付它们。 接着是量子计算,您将发现它与目前的计算范式有什么不同,并了解它在未来的潜力。在理清基础知识后,您将仔细研究量子计算机在实践中如何工作。将重点转移到量子密码学,您将了解到更多关于量子密钥分发(QKD)的知识、以及它与当今的加密方法有何不同。 您还将考虑目前QKD的实现,包括 SwissQuantum 的分发系统和DARPA量子网络提供的QKD分发网络。最终,您将学习到在即将到来的量子时代如何防御密码攻击的手段,如利用零知识证明(ZKP)系统。 通过这本书,您将加深对密码学概念的了解,并被引入到量子密码学的新模式中。 如果您或您的组织将隐私作为首要任务,这本书应该会给您很多的启示。

封面图片

【清华姚期智院士领衔:全球首颗零知识证明SOC芯片研发成功】

【清华姚期智院士领衔:全球首颗零知识证明SOC芯片研发成功】 由清华大学大学姚期智院士领衔发起,并由清华大学交叉信息研究院孵化的初创企业深圳市智芯华玺信息技术有限公司研制的全球首颗零知识证明(ZKP)SOC芯片(Accseal LEO chip)一次流片成功,拥有完全自主知识产权。 Accseal LEO chip基于12nm先进工艺制程,可进行复杂的多标量乘法(MSM)和数论变换(NTT)运算,支持可编程设计,可支持后量子密码、多方安全计算和联邦学习的加速运算,芯片性能较传统CPU快千倍以上,成本可降低十倍。目前已完成工程样片测试,2024年一季度即可实现量产上市。 图灵奖得主姚期智院士表示:“数字经济的核心技术涉及数据、算法与算力三个方面 。以隐私计算、区块链技术与零知识证明为代表的交叉信息技术将扮演基础设施的角色。 快讯/广告 联系 @xingkong888885

封面图片

密码学家警告称美国谍报机关故意削弱旨在防止量子计算机破解的加密算法

密码学家警告称美国谍报机关故意削弱旨在防止量子计算机破解的加密算法 一位著名密码学专家告诉《新科学家》杂志,美国间谍机构可能正在削弱新一代算法,而这些算法旨在防范配备量子计算机的黑客。 伊利诺伊大学芝加哥分校的丹尼尔-伯恩斯坦(Daniel Bernstein)说,美国国家标准与技术研究院(NIST)正在故意掩盖美国国家安全局(NSA)参与制定 "后量子密码学"(PQC)新加密标准的程度。他还认为,NIST 在描述新标准安全性的计算中出现了错误 可能是偶然的,也可能是故意的。NIST 对此予以否认。 伯恩斯坦说:"NIST 并没有遵循旨在阻止 NSA 削弱 PQC 的程序。选择密码标准的人应该透明地、可验证地遵守明确的公开规则,这样我们就不必担心他们的动机。NIST 承诺透明,然后声称已经展示了其所有工作,但这种说法根本不成立。" 我们用来保护数据的数学问题,即使是目前最大的超级计算机也几乎无法破解。但当量子计算机变得足够可靠和强大时,它们将能够在瞬间破解这些问题。 虽然目前还不清楚这种计算机何时会出现,但美国国家标准与技术研究院自 2012 年起就开始实施一个项目,以规范新一代可抵御其攻击的算法。伯恩斯坦在2003年创造了 "后量子密码学"(post-quantum cryptography)一词来指代这类算法,他说,美国国家安全局正在积极地将秘密弱点写入新的加密标准,以便在掌握适当知识的情况下更容易破解。NIST 的标准在全球范围内使用,因此漏洞可能会产生巨大影响。 (New Scientist)

封面图片

【ZeroSync和Blockstream合作将从卫星广播比特币零知识证明】

【ZeroSync和Blockstream合作将从卫星广播比特币零知识证明】 瑞士非营利组织ZeroSync协会和比特币基础设施公司Blockstream表示,他们计划从Blockstream的卫星广播比特币零知识证明。使用zk-proofs来验证比特币区块链意味着节点不必下载比特币链的当前500GB数据,因此可以在几分之一秒而不是几小时或几天内同步。Blockstream的卫星网络通过将区块链广播到整个星球,包括互联网覆盖不可靠的地区,提供对比特币的免费全球访问。ZeroSync预计第一次实验广播将在今年年底进行。 新成立的ZeroSync协会于周二成立,计划通过使用零知识证明(zk-proofs)来帮助扩展比特币,零知识证明是一种密码技术,可以在不泄露信息本身的情况下证明信息的有效性。

封面图片

一万亿晶体管GPU将到来 台积电董事长撰文解读

一万亿晶体管GPU将到来 台积电董事长撰文解读 值得一提的是,本文署名作者MARK LIU(刘德音)和H.-S. PHILIP WONG,其中刘德音是台积电董事长。H.-S Philip Wong则是斯坦福大学工程学院教授、台积电首席科学家。在这里,我们将此文翻译出来,以飨读者。以下为文章正文:1997 年,IBM 深蓝超级计算机击败了国际象棋世界冠军Garry Kasparov。这是超级计算机技术的突破性演示,也是对高性能计算有一天可能超越人类智能水平的首次展示。在接下来的10年里,我们开始将人工智能用于许多实际任务,例如面部识别、语言翻译以及推荐电影和商品。再过十五年,人工智能已经发展到可以“合成知识”(synthesize knowledge)的地步。生成式人工智能,如ChatGPT和Stable Diffusion,可以创作诗歌、创作艺术品、诊断疾病、编写总结报告和计算机代码,甚至可以设计与人类制造的集成电路相媲美的集成电路。人工智能成为所有人类事业的数字助手,面临着巨大的机遇。ChatGPT是人工智能如何使高性能计算的使用民主化、为社会中的每个人带来好处的一个很好的例子。所有这些奇妙的人工智能应用都归功于三个因素:高效机器学习算法的创新、训练神经网络的大量数据的可用性,以及通过半导体技术的进步实现节能计算的进步。尽管它无处不在,但对生成式人工智能革命的最后贡献却没有得到应有的认可。在过去的三十年里,人工智能的重大里程碑都是由当时领先的半导体技术实现的,没有它就不可能实现。Deep Blue 采用 0.6 微米和 0.35 微米节点芯片制造技术的混合实现;赢得 ImageNet 竞赛的深度神经网络并开启了当前机器学习时代的设备使了用 40 纳米技术打造的芯片;AlphaGo 使用 28 纳米技术征服了围棋游戏;ChatGPT 的初始版本是在采用 5 纳米技术构建的计算机上进行训练的。;ChatGPT 的最新版本由使用更先进的4 纳米技术的服务器提供支持。所涉及的计算机系统的每一层,从软件和算法到架构、电路设计和设备技术,都充当人工智能性能的乘数。但可以公平地说,基础晶体管器件技术推动了上面各层的进步。如果人工智能革命要以目前的速度继续下去,它将需要半导体行业做出更多贡献。十年内,它将需要一个 1 万亿晶体管的 GPU,也就是说,GPU 的设备数量是当今典型设备数量的 10 倍。AI 模型大小的不断增长,让人工智能训练所需的计算和内存访问在过去五年中增加了几个数量级。例如,训练GPT-3需要相当于一整天每秒超过 50 亿次的计算操作(即 5,000 petaflops /天),以及 3 万亿字节 (3 TB) 的内存容量。新的生成式人工智能应用程序所需的计算能力和内存访问都在持续快速增长。我们现在需要回答一个紧迫的问题:半导体技术如何跟上步伐?从集成器件到集成小芯片自集成电路发明以来,半导体技术一直致力于缩小特征尺寸,以便我们可以将更多晶体管塞进缩略图大小的芯片中。如今,集成度已经上升了一个层次;我们正在超越 2D 缩放进入3D 系统集成。我们现在正在将许多芯片组合成一个紧密集成、大规模互连的系统。这是半导体技术集成的范式转变。在人工智能时代,系统的能力与系统中集成的晶体管数量成正比。主要限制之一是光刻芯片制造工具被设计用于制造不超过约 800 平方毫米的 IC,即所谓的光罩限制(reticle limit)。但我们现在可以将集成系统的尺寸扩展到光刻掩模版极限之外。通过将多个芯片连接到更大的中介层(一块内置互连的硅片)上,我们可以集成一个系统,该系统包含的设备数量比单个芯片上可能包含的设备数量要多得多。例如,台积电的CoWoS(chip-on-wafer-on-substrate )技术就可以容纳多达六个掩模版区域的计算芯片,以及十几个高带宽内存(HBM)芯片。CoWoS是台积电的硅晶圆上芯片先进封装技术,目前已在产品中得到应用。示例包括 NVIDIA Ampere 和 Hopper GPU。当中每一个都由一个 GPU 芯片和六个高带宽内存立方体组成,全部位于硅中介层上。计算 GPU 芯片的尺寸大约是芯片制造工具当前允许的尺寸。Ampere有540亿个晶体管,Hopper有800亿个。从 7 纳米技术到更密集的 4 纳米技术的转变使得在基本相同的面积上封装的晶体管数量增加了 50%。Ampere 和 Hopper 是当今大型语言模型 ( LLM ) 训练的主力。训练 ChatGPT 需要数万个这样的处理器。HBM 是对 AI 日益重要的另一项关键半导体技术的一个例子:通过将芯片堆叠在一起来集成系统的能力,我们在台积电称之为SoIC (system-on-integrated-chips) 。HBM 由控制逻辑 IC顶部的一堆垂直互连的 DRAM 芯片组成。它使用称为硅通孔 (TSV) 的垂直互连来让信号通过每个芯片和焊料凸点以形成存储芯片之间的连接。如今,高性能 GPU广泛使用 HBM 。展望未来,3D SoIC 技术可以为当今的传统 HBM 技术提供“无凸块替代方案”(bumpless alternative),在堆叠芯片之间提供更密集的垂直互连。最近的进展表明,HBM 测试结构采用混合键合技术堆叠了 12 层芯片,这种铜对铜连接的密度高于焊料凸块所能提供的密度。该存储系统在低温下粘合在较大的基础逻辑芯片之上,总厚度仅为 600 µm。对于由大量运行大型人工智能模型的芯片组成的高性能计算系统,高速有线通信可能会很快限制计算速度。如今,光学互连已被用于连接数据中心的服务器机架。我们很快就会需要基于硅光子学的光学接口,并与 GPU 和 CPU 封装在一起。这将允许扩大能源效率和面积效率的带宽,以实现直接的光学 GPU 到 GPU 通信,这样数百台服务器就可以充当具有统一内存的单个巨型 GPU。由于人工智能应用的需求,硅光子将成为半导体行业最重要的使能技术之一。迈向万亿晶体管 GPU如前所述,用于 AI 训练的典型 GPU 芯片已经达到了标线区域极限(reticle field limit)。他们的晶体管数量约为1000亿个。晶体管数量增加趋势的持续将需要多个芯片通过 2.5D 或 3D 集成互连来执行计算。通过 CoWoS 或 SoIC 以及相关的先进封装技术集成多个芯片,可以使每个系统的晶体管总数比压缩到单个芯片中的晶体管总数大得多。如AMD MI 300A 就是采用这样的技术制造的。AMD MI300A 加速处理器单元不仅利用了CoWoS,还利用了台积电的 3D 技术SoIC。MI300A结合了 GPU 和 CPU内核,旨在处理最大的人工智能工作负载。GPU为AI执行密集的矩阵乘法运算,而CPU控制整个系统的运算,高带宽存储器(HBM)统一为两者服务。采用 5 纳米技术构建的 9 个计算芯片堆叠在 4 个 6 纳米技术基础芯片之上,这些芯片专用于缓存和 I/O 流量。基础芯片和 HBM 位于硅中介层之上。处理器的计算部分由 1500 亿个晶体管组成。我们预测,十年内,多芯片 GPU 将拥有超过 1 万亿个晶体管。我们需要在 3D 堆栈中将所有这些小芯片连接在一起,但幸运的是,业界已经能够快速缩小垂直互连的间距,从而增加连接密度。而且还有足够的空间容纳更多。我们认为互连密度没有理由不能增长一个数量级,甚至更高。GPU 的节能性能趋势那么,所有这些创新的硬件技术如何提高系统的性能呢?如果我们观察一个称为节能性能的指标的稳步改进,我们就可以看到服务器 GPU 中已经存在的趋势。EEP 是系统能源效率和速度(the energy efficiency and speed of a system)的综合衡量标准。过去 15 年来,半导体行业的能效性能每两年就提高了三倍左右。我们相信这一趋势将以历史速度持续下去。它将受到多方面创新的推动,包括新材料、器件和集成技术、极紫外(EUV)光刻、电路设计、系统架构设计以及所有这些技术元素的共同优化等。特别是,EEP 的增加将通过我们在此讨论的... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人