Cloudflare推出新的人工智能工具,帮助客户部署和运行模型

Cloudflare推出新的人工智能工具,帮助客户部署和运行模型 为了从人工智能热潮中获利,云服务提供商 Cloudflare 正在推出一系列新的产品和应用程序,旨在帮助客户在网络边缘构建、部署和运行人工智能模型。 Workers AI 是新产品之一,它允许客户访问由 Cloudflare 合作伙伴托管的 距离用户最近的GPU,以按使用量付费的方式运行 AI 模型。另一个是 Vectorize,它提供了一个矢量数据库来存储由 Workers AI 模型生成的矢量嵌入(数据的数学表示)。第三个是人工智能网关,旨在提供指标,使客户能够更好地管理运行人工智能应用程序的成本。 Cloudflare 首席执行官 Matthew Prince 表示,推出新的以 AI 为中心的产品套件的动机是 Cloudflare 客户对更简单、更易于使用的 AI 管理解决方案的强烈渴望,该解决方案注重节省成本。 Workers AI 试图确保人工智能推理始终发生在靠近用户(从地理角度来看)的 GPU 上,以提供低延迟、人工智能驱动的最终用户体验。利用 ONNX(微软支持的中间机器学习工具包,用于在不同人工智能框架之间进行转换),Workers AI 允许人工智能模型在带宽、延迟、连接、处理和本地化限制方面最有意义的处理过程中运行。

相关推荐

封面图片

CloudFlare推出Firewall for AI 特别为人工智能模型研发的防火墙

CloudFlare推出Firewall for AI 特别为人工智能模型研发的防火墙 本质上这个 AI 防火墙也是个 WAF (网页应用防火墙),用户输入的提示词 API 请求会预先经过 WAF 扫描和分析,只有安全的请求才会被传送给 AI 模型。CloudFlare 也针对 AI 进行了专门的开发和策略调整,用于拦截潜在的漏洞利用、非法利用和 AI 模型的滥用问题,例如提示词注入、模型拒绝服务 (MDoS)、敏感信息泄露等,AI 防火墙可以提供保护模式用来拦截这类常见的针对 AI 模型的攻击。这里额外提下 MDoS 即模型拒绝服务,这与 DDoS (分布式拒绝服务) 本质上是类似的,DDoS 是耗尽目标服务器的资源,MDoS 则是通过提示词来耗尽 AI 模型服务器的资源,使其不能提供服务。CloudFlare 的 AI 防火墙会通过速率限制来控制各个对话请求的速率,从而降低 MDoS 的风险、减少企业业务中断的风险。 ... PC版: 手机版:

封面图片

【矿企Hive Blockchain宣布在其GPU上运行人工智能模型具有隐私性】

【矿企Hive Blockchain宣布在其GPU上运行人工智能模型具有隐私性】 比特币挖矿公司Hive Blockchain(HIVE)在周五与分析师举行的财报电话会议上表示,该公司旨在让客户在其数据中心训练大型语言人工智能模型,与OpenAI的ChatGPT等竞争对手相比,该公司拥有更好的隐私性。 Hive公司首席执行官Aydin Kilic表示,“公司现在意识到,他们不想将敏感的客户数据上传到像OpenAI这样拥有公共LLM(大型语言模型)的公司。我们希望通过Hive Cloud在Hive提供的是隐私。我们已签署了协议,保留了数据和隐私的所有权,并且仍然在我们的GPU库上运行AI计算工作负载。” 快讯/广告 联系 @xingkong888885

封面图片

【阿里巴巴发布两款开源人工智能模型】

【阿里巴巴发布两款开源人工智能模型】 科技巨头阿里巴巴集团于8月3日宣布,其云计算部门发布了两个开源人工智能(AI)模型。它的两个大型语言模型(LLM)被称为Qwen-7B和Qwen-7B-Chat,每个模型都有70亿个参数。 新模型旨在帮助将人工智能引入中小型企业的运营中。该公司表示,Qwen-7B和Qwen-7B-Chat具有对企业有吸引力的各种功能,例如能够“全世界的学者、研究人员和商业机构可以免费访问代码、模型权重和文档”。 8月1日,该公司还宣布对其AnalyticDB数据仓库服务进行矢量引擎更新,这将允许其企业客户快速创建定制的生成式AI应用程序。 快讯/广告 联系 @xingkong888885

封面图片

人工智能政策小组称,FTC 应阻止 OpenAI 推出新的 GPT 模型

人工智能政策小组称,FTC 应阻止 OpenAI 推出新的 GPT 模型 人工智能和数字政策中心(Center for AI and Digital Policy,简称 CAIDP)日前提出投诉,要求美国联邦贸易委员会(Federal Trade Commission,FTC)调查 OpenAI 违反消费者保护规则的行为,认为 OpenAI 推出的人工智能文本生成工具 “有偏见,有欺骗性,并对公共安全构成风险”。CAIDP 认为,GPT-4 越过了伤害消费者的界限,应该引起监管行动。在投诉中,CAIDP 要求 FTC 停止任何进一步的 GPT 模式的商业部署,并要求在未来推出任何模式之前对其进行独立评估。FTC 已经表达了对人工智能工具的监管兴趣。来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

英伟达的新工具可让用户在电脑上离线运行生成式人工智能模型

英伟达的新工具可让用户在电脑上离线运行生成式人工智能模型 英伟达发布了一款新工具“Chat with RTX”,要求 8GB 显存的 GeForce™ RTX 30 或 40 系列 GPU,该工具可以让用户在 Windows PC 上离线运行人工智能驱动的聊天机器人。Chat with RTX 默认使用人工智能初创公司 Mistral 的开源模型,但支持其他基于文本的模型,包括 Meta 的 Llama 2。 (<下载)

封面图片

人工智能公司正在转向“小型”语言模型以获利

人工智能公司正在转向“小型”语言模型以获利 投入数十亿美元构建所谓的大型语言模型以推动生成式人工智能产品的人工智能公司,现在正寄望于一种新的收入增长方式:小型语言模型。苹果、微软、Meta 和谷歌最近都发布了新的人工智能模型,这些模型的“参数”较少,但功能仍然强大。 通常来说,参数的数量越多,人工智能软件的性能就越好,能处理的任务也就越复杂和微妙。本周公布的 OpenAI 的最新模型 GPT-4o 和谷歌的 Gemini 1.5 Pro,据估计都拥有超过1万亿个参数。而 Meta 正在训练其开源 Llama 模型的4000亿参数版本。 除了努力说服一些企业客户支付运行生成式人工智能产品所需的大额费用外,对数据和版权责任的担忧也阻碍了其广泛应用。这促使像 Meta 和谷歌这样的科技集团推出只有几十亿参数的小型语言模型,作为更经济、更节能、可定制的替代方案,这些模型在训练和运行时所需的电力更少,同时还能保护敏感数据。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人