多人游戏引擎,基于WebAssembly、Rust和WebGPU运行时,用于构建高性能的和3D应用

多人游戏引擎,基于WebAssembly、Rust和WebGPU运行时,用于构建高性能的多人游戏和3D应用1.无缝联网。Ambient既是你的服务器又是你的客户端。你所需要做的就是建立你的服务器和/或客户端逻辑:运行时为你处理数据的同步。2.隔离性。你为Ambient构建的项目通过WebAssembly的力量在隔离状态下执行--因此,如果有什么东西崩溃了,它不会使你的整个程序崩溃。这也意味着你可以安全地运行不受信任的代码。3.面向数据的设计。Ambient的核心数据模型是一个实体组件系统,每个WASM模块都可以操作。4.多语言:你将能够用任何能够编译成WebAssembly的语言来构建Ambient模块。目前,Rust是唯一支持的语言,但我们正在努力扩展到其他语言。5.单一可执行文件。Ambient是一个单一的可执行文件,可以在Windows、Mac和Linux上运行。它可以作为一个服务器或客户端。6.互操作性。Ambient允许你定义自定义组件和"概念"(组件的集合)。只要你的Ambient项目使用相同的组件和概念,它们就能共享数据和互操作,即使它们彼此不认识。7.资产管道和流。Ambient有一个资产管道,能够编译多种资产格式,包括.glb和.fbx。这些资产总是通过网络进行流式传输,因此你的客户在加入时将会收到他们需要的一切。8.强大的渲染器。环境渲染器是由GPU驱动的,删减和细节级别的切换都完全由GPU处理。默认情况下,它使用PBR。它还支持级联阴影贴图和实例化所有可以被实例化的东西。

相关推荐

封面图片

Cheep C++ 到 Webassembly 编译器现已开源。

CheepC++到Webassembly编译器现已开源。Cheerp是一个用于Web应用程序的C/C++编译器,可让你将几乎所有C/C++代码编译为WebAssembly和JavaScript。其最新的3.0版本已经开源。​​​Cheerp是一个用于Web应用程序的C/C++编译器,可让您将几乎所有C/C++代码编译为WebAssembly和JavaScript。其最新的3.0版本已经开源。Cheerp主要用于将现有的C/C++库和应用程序移植到HTML5,但也可用于从头开始编写高性能Web应用程序和WebAssembly组件。使用Cheerp,C/C++代码被编译成JavaScript/WebAssembly,并通过公开正确的JavaScript接口进行优化,可以轻松集成到Web应用程序中。Cheerp是Webassembly编译工具系列的一部分,与CheerpJ、CheerpXforFlash和WebVM并列。可用于以下场景:1.将遗留Java应用程序和JavaApplets转换为HTML5,只需很少的努力或无需任何努力,以延长它们的生命,直到弃用,或直到开发出替代的本机HTML应用程序。2.将现有的Java客户端迁移到基于浏览器的Web应用程序,通常通过使用CheerpJ将业务逻辑从Java转换为WebAssembly/JavaScript,并用原生HTML重写UI。3.使用(转换后的)Java库作为本机Web应用程序的一部分。在幕后,CheerpJ需要WebAssembly中的完整JavaSE运行时和存在于浏览器中的JavaScript,以及支持从Java访问和操作DOM的JavaScript/DOM互操作性API。相比之下,C++的Cheerp不需要这样的运行时,而是直接使用LLVM字节码格式作为目标文件和库的中间表示。它的特性如下:解析代码,发出最终的警告和错误,然后生成对输入程序进行编码的等效IR(=内部表示)。IR通过一系列转换优化为更紧凑和更高性能的IR。优化后的IR最终由代码生成为JavaScript和WebAssembly函数和变量的组合。或者简单地说:C++代码库->Cheerp(使用LLVM的优化)->JS+Wasm一旦生成了.js和.wasm文件,接下来就是为这两个静态文件提供服务,将它们嵌入到相关的HTML页面中,在库的API之上构建功能,并测试是否一切正常。主文件到被调用的仍然是一个.js文件,但是一个.wasm文件也被加载并从.js文件运行。虽然CheerpJ不是开源产品,但Cheerp现在是。在这一点上,重要的是要注意,从languageX到WebAssembly的工具现在可以证明更有用,因为WebAssembly最近摆脱了浏览器的限制,现在可以用于运行微服务和无服务函数,甚至可以运行Wasm二进制文件在命令行上,这样甚至可以开发跨平台的CLI应用程序。

封面图片

Google最新Android运行时更新可将应用启动时间缩短多达30%

Google最新Android运行时更新可将应用启动时间缩短多达30%Google本周在Android开发者博客(AndroidDevelopersBlog)上发表文章称,ART的定期更新为Android设备提供了大量功能,包括安全修复、改善内存使用、提高执行速度等。最近的更新还统一了数亿设备的核心OpenJDKAPI,包括所有Android12+智能手机和平板电脑。Google还表示,这些更新将"很快"提供给AndroidGo。ART在Android12中成为模块化组件,结束了多年来要求操作系统组件具有明确API边界的单片式更新计划。旧系统使得ART难以独立于操作系统的其他部分进行更新,而最近向模块化结构的转变使得Google可以通过PlayStore进行更新,而不必每次都推送完整的系统更新。独立更新ART的能力带来了许多好处,包括更无缝地推出安全补丁和性能优化。它还帮助开发人员获得了OpenJDK的改进和编译器优化,这对Java和Kotlin都有好处。Google还声称,在最新的ART13更新中,运行时和编译器优化使应用程序的启动时间"在某些设备上提高了30%"。ART更新的另一个显著优势是,它允许开发人员使用最新的编程功能。正如Google解释的那样,ART13提供了OpenJDK11核心语言功能,该公司称这是有史以来Android设备采用OpenJDK新版本最快的一次。虽然ART13已经朝着正确的方向迈出了一步,但Google表示它正在开发ART14,并将在"未来几个月"向所有兼容设备推出。ART14将包括OpenJDK17支持,以及新的编译器和运行时优化,Google称这将"提高性能,同时减少代码大小"。下一代ART版本最棒的地方在于,它并不局限于Android14设备,这意味着即使你的手机运行的是Android12或13,你也可以在手机上使用它。这在碎片化严重的Android生态系统中是个好消息,据报道,截至2023年4月,也就是Android13公开发布近一年后,只有12%的Android设备运行Android13。...PC版:https://www.cnbeta.com.tw/articles/soft/1379031.htm手机版:https://m.cnbeta.com.tw/view/1379031.htm

封面图片

Rust 写的链接聚合论坛。该项目基于 Rust 的 Web 框架 Actix 和 Diesel ORM 库构建

Rust写的链接聚合论坛。该项目基于Rust的Web框架Actix和DieselORM库构建Lemmy与Reddit、Lobste.rs或HackerNews等网站类似:你可以订阅你感兴趣的论坛,发布链接和讨论,然后进行投票或评论。但在幕后,Lemmy和他们不同:任何人都可以很容易地运行一个服务器,所有服务器都是联邦式的(类似电子邮件),并连接到联邦宇宙。对于一个链接聚合器来说,这意味着在一个服务器上注册的用户可以订阅任何其他服务器上的论坛,并可以与其他地方注册的用户进行讨论。它是Reddit和其他链接聚合器的一个易于自托管的、分布式的替代方案,不受公司的控制和干涉。每个Lemmy服务器都可以设置自己的管理政策;任命全站管理员和社区版主来阻止引战和钓鱼的用户,并培养一个健康、无毒的环境,让所有人都能放心地作出贡献。

封面图片

运行时超轻量,高效,移植简单的深度学习模型

运行时超轻量,高效,移植简单的深度学习模型MegCC是一个面向推理的深度学习模型编译器,具有如下特点:极其轻量的运行时库:只编译mobilenetv1模型进行推理情况下,strip符号后,整个运行时二进制大小只有81KB。高性能:Arm上的每一个Kernel都是经过人工精心调优的,同样的模型,性能比MegEngine好。方便移植:运行时所有Code都是纯C代码,可以方便在Arm,X86,裸板中进行移植。低内存使用,快启动:模型编译期间会进行内存规划,尽可能的复用内存,并进行静态绑定,减少运行时开销。MegCC主要由两部分组成:编译器:负责将模型进行编译,优化,最终生成新模型和对应的Kernelsruntime运行时:运行时需要和生成的Kernels结合在一起进行编译,编译完成之后可以加载编译器生成的模型,并计算输出结果MegCC模型编译器是基于MLIR框架构建起来的,使用MLIR的IR进行图优化,内存规划以及Kernel生成,目前MegCC生成的Kernel大多数都是基于人工优化之后写好的模板生成的。MegCC支持多种场景的模型编译,不仅仅包含静态shape编译,而且还支持动态shape的编译,多个模型同时编译,以及同一个模型多种shape同时编译,另外为了获得极致的最小运行时库,还提供必要的纯C形式的CV算子生成。模型编译完成之后,MegCC会生成两个产物,分别是:优化之后的新模型:这个模型里面包含整个计算图的信息,以及每一个Operator运行时的内存规划信息,输入输出信息,计算Kernel的信息运行这些模型对应的Kernel:上面模型运行时候需要的所有高性能Kernel的集合。MegCCruntime会在运行时会加载生成的模型,并调用生成的高性能Kernel进行计算,并输出计算结果,目前测试一个可以高效运行mobilenetv1的可执行文件大小仅仅只需要81KB。MegCC现在支持的平台处理器平台有Arm64/ArmV7/X86/risc-v/单片机,所有支持的Operator列表见:.

封面图片

基于WebGPU的免安装本地AI聊天机器人

基于WebGPU的免安装本地AI聊天机器人早前谷歌在GoogleChromeCanary版里发布了WebGPU项目,该项目可以让开发者基于浏览器调用本机显卡算力。所以在GitHub上有开源团队构建了项目,即基于Web的大型语言模型,一切都在浏览器内运行,不需要服务器支持、不需要安装、直接利用WebGPU特性运行。这个项目可以大幅度简化搭建AI聊天机器人的步骤,而且可以保护隐私,因为这个AI模型是“你”控制的,你提交的数据不会被共享给开发者进行模型训练。当然由于是相当于在本地运行的,所以显卡性能至关重要,根据开源团队说明,显存至少需要6.4GB,所以如果你的显卡显存比较小的话可能无法运行。必要条件:GoogleChrome113.0+、显存至少为6.4GB,使用不同的模型显存要求可能还会增加。项目地址:https://github.com/mlc-ai/web-llm演示地址:https://mlc.ai/web-llm/#chat-demo注:演示聊天使用的模型是vicuna-7b-v0。来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

TorchOpt:基于PyTorch构建的高性能优化器库,可轻松实现函数优化和基于梯度的元学习

:基于PyTorch构建的高性能优化器库,可轻松实现函数优化和基于梯度的元学习它包括两个主要功能:TorchOpt提供了功能优化器,可以为PyTorch启用类似JAX的可组合功能优化器。使用TorchOpt,可以轻松地在PyTorch中使用函数式优化器进行神经网络优化,类似于JAX中的Optax。借助函数式编程的设计,TorchOpt为基于梯度的元学习研究提供了高效、灵活且易于实现的可微优化器。它在很大程度上减少了实现复杂的元学习算法所需的工作量。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人