All-Defense-Tool,本项目由渊龙Sec安全团队开发,集成了全网优秀的攻防工具,包含自动化利用,子域名、敏感目录

All-Defense-Tool,本项目由渊龙Sec安全团队开发,集成了全网优秀的攻防工具项目,包含自动化利用,子域名、敏感目录、端口等扫描,各大中间件,cms漏洞利用工具以及应急响应等资料。渊龙Sec安全团队是一个由来自五湖四海的网络安全爱好者、各大安全厂商工程师自发组织成立的非营利性的研究机构。以“为国之安全而奋斗,为信息安全而发声”为宗旨。#工具

相关推荐

封面图片

渊龙Sec安全团队

渊龙Sec安全团队(Aabyss Team)官方频道 公开群:https://t.me/+Sz7e3qK7usIbV9aX 团队官网:https://www.aabyss.cn 团队官方博客:https://blog.aabyss.cn 团队导航:https://dh.aabyss.cn 团队实时威胁情报:https://threat.aabyss.cn 团队公众号:微信搜“渊龙Sec安全团队” 我们在TG上不涉及任何业务,找我们做项目请另寻高就,慎防被骗!!! 宗旨:为国之安全而奋斗,为信息安全而发声!

封面图片

【安全团队:谨防多重签名假充值】

【安全团队:谨防多重签名假充值】据慢雾区情报,近期有黑客团伙利用m-of-n多重签名机制对交易所进行假充值攻击。慢雾安全团队分析发现,攻击者通常使用2-of-3多签地址,其中1个地址为攻击者在交易所的充值地址(假设为A),2个地址为攻击者控制私钥的地址(假设为B、C),然后发起一笔以这3个地址构成的多签做为交易输出(vout)的交易,此时攻击者在交易所的充值地址A虽然收到资金,但是由于花费这笔资金至少需要2个地址的签名,攻击者可利用自己控制的B、C地址将充值资金转出。慢雾安全团队建议交易所,及时对BTC/LTC/DOGE等基于UTXO账号模型的代币充值流程进行审查,确保已对交易类型进行正确的判别,谨防多重签名假充值。

封面图片

老黄深夜炸场:AIGC进入iPhone时刻 神秘显卡胜过A100

老黄深夜炸场:AIGC进入iPhone时刻神秘显卡胜过A100而英伟达也借此将过去这数十年的所有创新,比如人工智能、虚拟世界、加速、模拟、协作等等,全部融合到了一起。在这个时代里,或许正如老黄的经典名言:“买得越多,省得越多!”英伟达最强AI超算再升级在5年前的SIGGRAPH上,英伟达通过将人工智能和实时光线追踪技术引入GPU,重新定义了计算机图形学。老黄表示:“当我们通过AI重新定义计算机图形学时,我们也在为AI全面重新定义GPU。”随之而来的,便是日益强大的计算系统。比如,集成了8个GPU并拥有1万亿个晶体管的HGXH100。就在今天,老黄再次让AI计算上了一个台阶——除了为GH200配备更加先进的HBM3e内存外,下一代GH200GraceHopper超级芯片平台还将具有连接多个GPU的能力,从而实现卓越的性能和易于扩展的服务器设计。而这个拥有多种配置的全新平台,将能够处理世界上最复杂的生成式工作负载,包括大语言模型、推荐系统和向量数据库等等。比如,双核心方案就包括一台配备了144个ArmNeoverse核心并搭载了282GBHBM3e内存的服务器,可以提供8petaflops的AI算力。其中,全新的HBM3e内存要比当前的HBM3快了50%。而10TB/sec的组合带宽,也使得新平台可以运行比上一版本大3.5倍的模型,同时通过3倍更快的内存带宽提高性能。据悉,该产品预计将在2024年第二季度推出。RTX工作站:绝佳刀法,4款显卡齐上新这次老黄的桌面AI工作站GPU系列也全面上新,一口气推出了4款新品:RTX6000、RTX5000、RTX4500和RTX4000。如果H100以及配套的产品线展示的是英伟达的GPU性能的天际线的话,针对桌面和数据中心推出的这几款产品,则是老黄对成本敏感客户秀出自己“刀法”的绝佳机会。在发布这新GPU的时候,现场还出现了一个意外的小花絮。老黄从后台拿出第一块GPU的时候,不知道是自己不小心,还是因为其他工作人员的失误,显卡镜面面板上占了指纹。老黄立马就发现了指纹,觉得可能是自己搞砸了,就很不好意思的和现场观众对不起,说这次产品发布可能是有史以来最差的一次。看来就算开发布会熟练如老黄,没准备好也是会翻船的。可爱的老黄惹得在场观众不断发笑。言归正传,作为旗舰级专业卡,RTX6000的性能参数毫无疑问是4款新品中最强的。凭借着48GB的显存,18176个CUDA核心,568个Tensor核心,142个RT核心,和高达960GB/s的带宽一骑绝尘。RTX5000配备了32GB显存,12800个CUDA核心,400个Tensor核心,100个RT核心,300W的功耗。RTX4500配备了24GB显存,7680个CUDA核心,240个Tensor核心,60个RT核心。RTX4000配备了20GB显存,6144个CUDA核心,192个Tensor核心,48个RT核心。基于新发布的4张新的GPU,针对企业客户,老黄还准备一套一站式解决方案——RTXWorkstation。支持最多4张RTX6000GPU,可以在15小时内完成860Mtoken的GPT3-40B的微调。StableDiffusionXL每分钟可以生成40张图片,比4090快5倍。OVX服务器:搭载L40S,性能小胜A100而专为搭建数据中心而设计的L40SGPU,性能就更加爆炸了。基于AdaLovelace架构的L40S,配备有48GB的GDDR6显存和846GB/s的带宽。在第四代Tensor核心和FP8Transformer引擎的加持下,可以提供超过1.45petaflops的张量处理能力。对于算力要求较高的任务,L40S的18,176个CUDA核心可以提供近5倍于A100的单精度浮点(FP32)性能,从而加速复杂计算和数据密集型分析。此外,为了支持如实时渲染、产品设计和3D内容创建等专业视觉处理工作,英伟达还为L40S还配备了142个第三代RT核心,可以提供212teraflops的光线追踪性能。功耗同时也达到了350瓦。对于具有数十亿参数和多种模态的生成式AI工作负载,L40S相较于老前辈A100可实现高达1.2倍的推理性能提升,以及高达1.7倍的训练性能提升。在L40SGPU的加持下,老黄又针对数据中心市场,推出了最多可搭载8张L40S的OVX服务器。对于拥有8.6亿token的GPT3-40B模型,OVX服务器只需7个小时就能完成微调。对于StableDiffusionXL模型,则可实现每分钟80张的图像生成。AIWorkbench:加速定制生成式AI应用除了各种强大的硬件之外,老黄还重磅发布了全新的NVIDIAAIWorkbench来帮助开发和部署生成式AI模型。概括来说,AIWorkbench为开发者提供了一个统一且易于使用的工具包,能够快速在PC或工作站上创建、测试和微调模型,并无缝扩展到几乎任何数据中心、公有云或NVIDIADGXCloud上。具体而言,AIWorkbench的优势如下:-易于使用AIWorkbench通过提供一个单一的平台来管理数据、模型和计算资源,简化了开发过程,支持跨机器和环境的协作。-集成AI开发工具和存储库AIWorkbench与GitHub、NVIDIANGC、HuggingFace等服务集成,开发者可以使用JupyterLab和VSCode等工具,并在不同平台和基础设施上进行开发。-增强协作AIWorkbench采用的是以项目为中心的架构,便于开发者进行自动化版本控制、容器管理和处理机密信息等复杂任务,同时也可以支持团队之间的协作。-访问加速计算资源AIWorkbench部署采用客户端-服务器模式。团队可以现在在本地计算资源上进行开发,然后在训练任务变得更大时切换到数据中心或云资源上。StableDiffusionXL自定义图像生成首先,打开AIWorkbench并克隆一个存储库。接下来,在JupyterNotebook中,从HuggingFace加载了预训练的StableDiffusionXL模型,并要求它生成一个“太空中的ToyJensen”。然而,根据输出的图像可以看出,模型并不知道ToyJensen是谁。这时就可以通过DreamBooth,并使用8张ToyJensen的图片对模型进行微调。最后,在用户界面上重新运行推理。现在,知道了ToyJensen的模型,就可以生成切合需求的图像了。HuggingFace一键访问最强算力作为最受AI开发者喜爱的平台之一,拥有200万用户、超25万个模型,以及5万个数据集的HuggingFace,这次也与英伟达成功达成了合作。现在,开发者可以通过HuggingFace平台直接获得英伟达DGXCloudAI超算的加持,从而更加高效地完成AI模型的训练和微调。其中,每个DGXCloud实例都配备有8个H100或A10080GBGPU,每个节点共有640GB显存,可满足顶级AI工作负载的性能要求。此外,作为合作的一部分,HuggingFace还将提供一个名为“TrainingClusterasaService”的全新服务,从而简化企业创建新的和定制的生成式AI模型的过程。老黄激动得表示:“HuggingFace和英伟达将世界上最大的AI社区与全球领先的云AI计算平台连接在了一起。用户只需点击一下,即可访问NVIDIA最强的AI算力。”AIEnterprise4.0:定制企业级生成式AI为了进一步加速生成式AI的应用,英伟达也将其企业级平台AIEnterprise升级到了4.0版本。目前,AIEnterprise4.0不仅可以为企业提供生成式AI所需的工具,同时还提供了生产部署所需的安全性和API稳定性。-NVIDIANeMo一个用于构建、定制和部署大语言模型的云原生框架。借助NeMo,英伟达AIEnterprise可以为创建和定制大语言模型应用提供了端到端的支持。-NVIDIATriton管理服务帮助企业进行自动化和优化生产部署,使其在Kubernetes中能够自动部署多个推理服务器实例,并通过模型协调实现可扩展A的高效运行。-NVIDIABaseCommandManagerEssentials集群管理软件帮助企业在数据中心、多云和混合云环境中最大化AI服务器的性能和利用率。除了英伟达自己,AIEnterprise4.0还将集成到给其他的合作伙伴,比如GoogleCloud和MicrosoftAzure等。此外,MLOps提供商,包括AzureMachineLearning、ClearML、DominoDataLab、Run:AI和Weights&Biases,也将与英伟达AI平台进行无缝集成,从而简化生成式AI模型的开发。Omniverse:在元宇宙中加入大语言模型最后,是英伟达Omniverse平台的更新。在接入了OpenUSD和AIGC...PC版:https://www.cnbeta.com.tw/articles/soft/1375895.htm手机版:https://m.cnbeta.com.tw/view/1375895.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人