根据 The Verge 报道,开发者现在可以在不需要付费 Google Cloud 订阅费的情况下建立、训练和部署人工智能模型

根据 The Verge 报道,开发者现在可以在不需要付费 Google Cloud 订阅费的情况下建立、训练和部署人工智能模型。 通过 Hugging Face 平台,外部开发者将获得 “经济实惠” 的使用权,可以访问 Google 的张量处理单元(TPU)和 GPU 超级计算机,其中包括数千台受需求大且受出口限制的 Nvidia H100。Hugging Face 是较为流行的人工智能模型库之一,存储着开源基础模型如 Meta 的 Llama 2 和 Stability AI 的 Stable Diffusion,并提供多个模型训练数据库。 此合作将使 Hugging Face 用户能够在 2024 年上半年开始使用 AI 应用构建平台 Vertex AI 和帮助训练和微调模型的 Kubernetes 引擎。Google 表示,该合作进一步支持 Google Cloud 对开源人工智能生态系统的发展。 via 匿名 标签: #Google#Hugging 频道: @GodlyNews1 投稿: @GodlyNewsBot

相关推荐

封面图片

谷歌与 Hugging Face 合作,帮助开发人员训练 AI 模型

谷歌与 Hugging Face 合作,帮助开发人员训练 AI 模型 谷歌云与 AI 模型托管平台 Hugging Face 建立了新的合作伙伴关系,让开发人员无需支付谷歌云订阅费用即可构建、训练和部署 AI 模型。现在,使用 Hugging Face 平台的外部开发人员将能够 “经济高效” 地访问谷歌的张量处理单元 (TPU) 和 GPU 超级计算机,其中包括数千台 Nvidia 的热门且出口受限的 H100。谷歌表示,Hugging Face 用户可以在 “2024 年上半年” 开始使用人工智能应用构建平台 Vertex AI 和 Kubernetes 引擎,帮助训练和微调模型。 一一

封面图片

见鬼了,谷歌居然开源LLM模型了,Meta要慌了。

见鬼了,谷歌居然开源LLM模型了,Meta要慌了。 Gemma 采用了和Gemini一样技术的开源LLM,同时质量也比同规模的模型要强。 下面是一些要点: ◈ 两种尺寸的模型权重:Gemma 2B和Gemma 7B。每种尺寸都有预训练和指导调整的变体。 ◈ 一个生成式人工智能工具包,为使用Gemma创建更安全的人工智能应用提供指导和必要工具。 ◈ 通过原生Keras 3.0为所有主要框架(JAX、PyTorch和TensorFlow)提供推理和监督微调(SFT)的工具链。 ◈ 准备好的Colab和Kaggle笔记本,以及与Hugging Face、MaxText、NVIDIA NeMo和TensorRT等流行工具的集成,使得开始使用Gemma变得非常容易。 ◈ 预先训练和经过调整的Gemma模型可以在您的笔记本电脑、工作站或Google Cloud上运行,并可以轻松部署到Vertex AI和Google Kubernetes Engine(GKE)。 ◈ 跨多个人工智能硬件平台的优化确保了行业领先的性能,包括NVIDIA GPU和Google Cloud TPU。 ◈ 允许所有组织进行负责任的商业使用和分发,无论规模大小。 ◈未来还会发布Gemma更大模型变体。 了解更多:

封面图片

Google发布Gemma 2轻量级开放模型 以极小的成本提供强大的性能

Google发布Gemma 2轻量级开放模型 以极小的成本提供强大的性能 Gemma 2 有两种规格:90 亿 (9B) 和 270 亿 (27B) 个参数。新一代模型的推理效率更高,性能也优于第一个 Gemma 模型。Google称,27B 模型的性能可与两倍于其规模的模型相媲美,而 9B 模型的性能则优于 Llama 3 8B 和其他类似规模的开源模型。未来几个月,Google计划发布参数为 2.6B 的 Gemma 2 型号,它将更适合智能手机的人工智能应用场景。新的 Gemma 2 模型可以托管在单个英伟达 A100 80GB Tensor Core GPU、英伟达 H100 Tensor Core GPU 或单个 TPU 主机上,从而降低人工智能基础架构成本。甚至可以通过Hugging Face Transformers在英伟达 RTX 或 GeForce RTX 桌面 GPU 上运行 Gemma 2。从下个月开始,Google云客户可以在Vertex AI上部署和管理 Gemma 2。开发人员现在可以在 Google AI Studio 上试用新的 Gemma 2 模型。在 Gemma 2 的训练过程中,Google对训练前的数据进行了过滤,并根据一套全面的安全指标进行了测试和评估,以识别和减少潜在的偏差和风险。Google通过 Kaggle 或 Colab 免费层免费提供 Gemma 2。学术研究人员可申请Gemma 2 学术研究计划,以获得 Google 云积分。Gemma 2 集高性能、高效率和可访问性于一身,改变了开源人工智能领域的游戏规则,致力于开放访问和负责任的人工智能开发,为人工智能的未来树立了一个积极的榜样。 ... PC版: 手机版:

封面图片

微软推出其规模最小的人工智能模型 Phi-3

微软推出其规模最小的人工智能模型 Phi-3 微软推出了其轻量级人工智能模型 Phi-3 Mini 的下一个版本,这是该公司计划发布的三款小型模型中的第一款。Phi-3 Mini 可测量 38 亿个参数,其训练数据集比 GPT-4 等大型语言模型要小。现在可在 Azure、Hugging Face 和 Ollama 上使用。微软计划发布 Phi-3 Small (7B 参数) 和 Phi-3 Medium (14B 参数)。参数指的是模型能理解多少复杂指令。与大型人工智能模型相比,小型人工智能模型通常运行成本更低,并且在手机和笔记本电脑等个人设备上表现更好。

封面图片

Hugging Face称检测到对其人工智能模型托管平台的"未经授权访问"

Hugging Face称检测到对其人工智能模型托管平台的"未经授权访问" Hugging Face 在一篇博文中说,这次入侵与 Spaces 秘密有关,即作为解锁账户、工具和开发环境等受保护资源的密钥的私人信息。作为预防措施,Hugging Face 已撤销了这些机密中的一些令牌(令牌用于验证身份)。令牌被撤销的用户已经收到了电子邮件通知,并建议所有用户"刷新任何密钥或令牌",并考虑改用细粒度访问令牌,Hugging Face 声称这种令牌更安全。目前还不清楚有多少用户或应用程序受到潜在漏洞的影响。"我们正在与外部网络安全取证专家合作,调查这一问题,并审查我们的安全政策和程序。我们还向执法机构和数据保护机构报告了这一事件,"Hugging Face 在帖子中写道。"我们对此次事件可能造成的干扰深表遗憾,并理解它可能给您带来的不便。我们承诺将以此为契机,加强我们整个基础设施的安全性"。Hugging Face 的发言人在一封电子邮件声明中说:"在过去几个月里,我们看到网络攻击的数量明显增加,这可能是因为我们的使用量大幅增长,人工智能正成为主流。技术上很难知道有多少Spaces机密被泄露了。"Hugging Face 是最大的人工智能和数据科学项目合作平台之一,拥有超过一百万个模型、数据集和人工智能驱动的应用程序,在其安全实践方面面临越来越多的审查。今年 4 月,云安全公司 Wiz 的研究人员发现了一个漏洞(已被修复),攻击者可以在 Hugging Face 托管应用程序的构建时间内执行任意代码,从而检查机器上的网络连接。今年早些时候,安全公司JFrog发现有证据表明,上传到Hugging Face的代码在终端用户机器上暗中安装了后门和其他类型的恶意软件。安全初创公司 HiddenLayer 发现,Hugging Face 表面上更安全的序列化格式 Safetensors 有可能被滥用来创建破坏性的人工智能模型。Hugging Face最近表示,它将与 Wiz 合作,使用该公司的漏洞扫描和云环境配置工具,"目标是提高我们平台和整个 AI/ML 生态系统的安全性"。 ... PC版: 手机版:

封面图片

Google建立合作伙伴关系 将其人工智能模型建立在事实基础上

Google建立合作伙伴关系 将其人工智能模型建立在事实基础上 生成式人工智能会编造信息,但将这些系统建立在已知事实数据的基础上,可以大大减少幻觉的产生。今年四月,Google宣布将努力把顶点人工智能(Vertex AI)结果应用于网络搜索,并计划允许公司将人工智能系统应用于自己的内部数据。现在,Google提供了一个额外的选择:使用第三方数据来帮助人工智能结果的落地。这项工作的初步合作伙伴包括穆迪(Moody's)、汤森路透(Thomson Reuters)和 ZoomInfo。Google云首席执行官托马斯-库里安(Thomas Kurian)介绍说:"实际上可以信任这个模型,让它代表你完成任务,因为你有信任它的基础。"这些举措正值主要 genAI 提供商努力证明其系统足够安全可靠,可用于商业用途之际。Google还提供了更多方法来提高系统的可靠性和可预测性。其中之一就是新的"信心分数",人工智能模型会提供一个数字指标,说明它对答案的确定程度。另一项新功能允许客户告诉模型重点从提示中包含的文档或其他信息中寻找答案,而不是从其广泛的训练数据中寻找答案。库里安说:"我们已经教会了模型如何保证在做出响应时,将输入提示中的内容作为需要关注的主要信息。它可以避免被所有其他训练数据分散注意力"。Google还宣布低延迟 Gemini 1.5 Flash 型号和 Gemini 1.5 Pro 全面上市,后者可处理多达 200 万个词元的上下文,足够播放两小时的视频。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人