【Nvidia 发布用于创建安全 AI 模型的工具】

【Nvidia发布用于创建安全AI模型的工具】2023年04月26日08点08分老不正经报道,Nvidia推出NeMoGuardrails工具,以帮助开发人员确保生成AI的准确性、相关性和安全性。NeMoGuardrails允许开发人员对其语言模型(LLM)应用三种不同类型的限制。据Nvidia称,NeMoGuardrails适用于所有语言模型,包括ChatGPT。该公司还声称几乎所有软件开发人员都可以使用该工具。

相关推荐

封面图片

NVIDIA 加速 Meta Llama 3 的推理

NVIDIA宣布对其所有平台进行优化,以加速最新一代大语言模型MetaLlama3。开源模型与NVIDIA加速计算相结合,使开发人员、研究人员和企业能够在各种应用程序中负责任地进行创新。接受过NVIDIAAI培训的Meta工程师在包含24,576个NVIDIAH100TensorCoreGPU(与RoCE和NVIDIAQuantum-2InfiniBand网络连接)的计算机集群上训练Llama3。在NVIDIA的支持下,Meta为其旗舰模型调整了网络、软件和模型架构。为了进一步推进生成式AI的最先进水平,Meta最近透露了将其基础设施扩展到350,000个H100GPU的计划。开发人员可以通过浏览器在ai.nvidia.com上试用Llama3。标签:#NVIDIA#Meta#AI频道:@GodlyNews1投稿:@GodlyNewsBot

封面图片

NVIDIA为基于Windows的RTX电脑推出了生成性AI功能

NVIDIA为基于Windows的RTX电脑推出了生成性AI功能NVIDIA声称,RTXGPU"为AI推理和生成性AI模型提供了高达1400个TensorTFLOPS,其运行速度比竞争对手的设备快5倍",这得益于TensorCores,即NVIDIA用于AI计算的专用硬件。在微软Build2023大会上,NVIDIA与微软合作,宣布为从事生成性人工智能模型的开发人员提供Windows的增强功能。这些增强功能包括更好地支持WindowsSubsystemforLinux(WSL),Windows笔记本电脑的电源效率,以及更好地支持使用微软的Olive工具链部署AI模型。此外,开发人员现在可以获得一个完整的RTX加速的AI开发堆栈,在Windows11上运行,这将有助于他们开发、训练和部署AI模型。NVIDIA指出,目前有超过400个RTX人工智能加速的应用程序和游戏发布,还有更多即将发布。该公司还提到,新的人工智能开发堆栈将使开发人员获得"超过1亿台RTXPC和工作站的安装基础,这些PC和工作站已针对人工智能进行了优化"。微软负责Windows芯片和系统集成的企业副总裁PavanDavuluri在会议上这样介绍:AI将是未来几年Windows客户创新的最大驱动力。通过与英伟达在硬件和软件优化方面的合作,我们正在为开发者提供一种变革性的、高性能的、易于部署的体验。NVIDIA正在与戴尔、华硕和惠普等其他OEM厂商进一步合作,为下一代笔记本电脑带来优化的RTX硬件。该公司声称,即将推出的Max-Q系列在提高GPU性能的同时降低了功耗,这将有利于RTX笔记本电脑。该公司正在进一步努力发布定期的驱动程序更新,为人工智能模型优化其硬件。例如,NVIDIA声称,最近的GPU驱动更新将稳定扩散性能提高了2倍。NVIDIA在Computex上度过了相当忙碌的一天,因为该公司发布了多个产品,其中包括ACE,一个类似于游戏中NPC的ChatGPT模型,以及与联发科的合作,将人工智能引入汽车。自从最近的季度收益推动公司市值接近1万亿美元以来,该公司一直在人工智能的浪潮中发展。...PC版:https://www.cnbeta.com.tw/articles/soft/1362337.htm手机版:https://m.cnbeta.com.tw/view/1362337.htm

封面图片

谷歌与 Hugging Face 合作,帮助开发人员训练 AI 模型

谷歌与HuggingFace合作,帮助开发人员训练AI模型谷歌云与AI模型托管平台HuggingFace建立了新的合作伙伴关系,让开发人员无需支付谷歌云订阅费用即可构建、训练和部署AI模型。现在,使用HuggingFace平台的外部开发人员将能够“经济高效”地访问谷歌的张量处理单元(TPU)和GPU超级计算机,其中包括数千台Nvidia的热门且出口受限的H100。谷歌表示,HuggingFace用户可以在“2024年上半年”开始使用人工智能应用构建平台VertexAI和Kubernetes引擎,帮助训练和微调模型。一一

封面图片

Stability AI 发布了其新的开放大型语言模型(LLM)StableCode

StabilityAI发布了其新的开放大型语言模型(LLM)StableCodeStabilityAI刚刚宣布推出了StableCode,这是他们首个用于编码的LLM生成式人工智能产品。该产品旨在帮助程序员完成日常工作,同时也为准备将技能提升到新水平的新开发人员提供了一个出色的学习工具。旨在帮助开发人员生成代码,并提供三个版本:通用用例的、和,其中长上下文窗口模型支持多达16,000个令牌以进行更高级的编程。StableCode是使用来自开源BigCode项目的编码数据进行训练的,支持Python、Go、Java、JavaScript、C、Markdown和C++等语言的开发。BigCode项目被用作ServiceNowInc.的StarCoderLLM的基础,该项目是与HuggingFaceInc.合作开发的,并于五月份推出。——

封面图片

Meta 推出 SeamlessM4T,一种用于语音和文本翻译的多模式 AI 模型。

Meta推出SeamlessM4T,一种用于语音和文本翻译的多模式AI模型。Meta周二发布了,这是一个新的多模式和多语言AI​​翻译模型,可以让说不同语言的人更有效地进行交流。M4T可以进行多达100种语言的语音到文本、文本到语音、语音到语音、文本到文本翻译和语音识别。SeamlessM4T将使用研究许可证公开发布,以便研究人员和开发人员在此基础上开展工作。Meta还将公布SeamlessAlign的元数据,这是迄今为止最大的开放多模式翻译数据集,挖掘的语音和文本对齐总计达270,000小时。随着时间的推移,Meta将把这些翻译和转录方面的AI进展整合到Facebook、Instagram、WhatsApp、Messenger和Threads中。——、

封面图片

高通推出 AI Hub,允许开发者在应用程序中无缝部署模型

高通推出AIHub,允许开发者在应用程序中无缝部署模型高通公司称,AIHub本质上是一个供应用程序开发人员访问由其量化和验证的设备上AI模型工具。该中心目前支持超过75种人工智能模型,模型将涵盖图像分割、图像生成、图像分类、物体检测、超分辨率、文本生成、弱光增强和自然语言理解,包括StableDiffusion,Whisper和YOLO等热门模型。高通表示,开发人员只需几行代码就能将优化模型集成到工作流中。AIHub似乎是可以在非骁龙芯片组上,不过由于无法利用骁龙专用AI芯片,开发人员必须付出额外努力,才能在非骁龙芯片组的设备上实现这些功能。高通AI中心已开放访问:aihub.qualcomm.com——

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人