Cloudflare推出新的人工智能工具,帮助客户部署和运行模型

Cloudflare推出新的人工智能工具,帮助客户部署和运行模型 为了从人工智能热潮中获利,云服务提供商 Cloudflare 正在推出一系列新的产品和应用程序,旨在帮助客户在网络边缘构建、部署和运行人工智能模型。 Workers AI 是新产品之一,它允许客户访问由 Cloudflare 合作伙伴托管的 距离用户最近的GPU,以按使用量付费的方式运行 AI 模型。另一个是 Vectorize,它提供了一个矢量数据库来存储由 Workers AI 模型生成的矢量嵌入(数据的数学表示)。第三个是人工智能网关,旨在提供指标,使客户能够更好地管理运行人工智能应用程序的成本。 Cloudflare 首席执行官 Matthew Prince 表示,推出新的以 AI 为中心的产品套件的动机是 Cloudflare 客户对更简单、更易于使用的 AI 管理解决方案的强烈渴望,该解决方案注重节省成本。 Workers AI 试图确保人工智能推理始终发生在靠近用户(从地理角度来看)的 GPU 上,以提供低延迟、人工智能驱动的最终用户体验。利用 ONNX(微软支持的中间机器学习工具包,用于在不同人工智能框架之间进行转换),Workers AI 允许人工智能模型在带宽、延迟、连接、处理和本地化限制方面最有意义的处理过程中运行。

相关推荐

封面图片

CloudFlare推出Firewall for AI 特别为人工智能模型研发的防火墙

CloudFlare推出Firewall for AI 特别为人工智能模型研发的防火墙 本质上这个 AI 防火墙也是个 WAF (网页应用防火墙),用户输入的提示词 API 请求会预先经过 WAF 扫描和分析,只有安全的请求才会被传送给 AI 模型。CloudFlare 也针对 AI 进行了专门的开发和策略调整,用于拦截潜在的漏洞利用、非法利用和 AI 模型的滥用问题,例如提示词注入、模型拒绝服务 (MDoS)、敏感信息泄露等,AI 防火墙可以提供保护模式用来拦截这类常见的针对 AI 模型的攻击。这里额外提下 MDoS 即模型拒绝服务,这与 DDoS (分布式拒绝服务) 本质上是类似的,DDoS 是耗尽目标服务器的资源,MDoS 则是通过提示词来耗尽 AI 模型服务器的资源,使其不能提供服务。CloudFlare 的 AI 防火墙会通过速率限制来控制各个对话请求的速率,从而降低 MDoS 的风险、减少企业业务中断的风险。 ... PC版: 手机版:

封面图片

人工智能政策小组称,FTC 应阻止 OpenAI 推出新的 GPT 模型

人工智能政策小组称,FTC 应阻止 OpenAI 推出新的 GPT 模型 人工智能和数字政策中心(Center for AI and Digital Policy,简称 CAIDP)日前提出投诉,要求美国联邦贸易委员会(Federal Trade Commission,FTC)调查 OpenAI 违反消费者保护规则的行为,认为 OpenAI 推出的人工智能文本生成工具 “有偏见,有欺骗性,并对公共安全构成风险”。CAIDP 认为,GPT-4 越过了伤害消费者的界限,应该引起监管行动。在投诉中,CAIDP 要求 FTC 停止任何进一步的 GPT 模式的商业部署,并要求在未来推出任何模式之前对其进行独立评估。FTC 已经表达了对人工智能工具的监管兴趣。来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

微软推出其规模最小的人工智能模型 Phi-3

微软推出其规模最小的人工智能模型 Phi-3 微软推出了其轻量级人工智能模型 Phi-3 Mini 的下一个版本,这是该公司计划发布的三款小型模型中的第一款。Phi-3 Mini 可测量 38 亿个参数,其训练数据集比 GPT-4 等大型语言模型要小。现在可在 Azure、Hugging Face 和 Ollama 上使用。微软计划发布 Phi-3 Small (7B 参数) 和 Phi-3 Medium (14B 参数)。参数指的是模型能理解多少复杂指令。与大型人工智能模型相比,小型人工智能模型通常运行成本更低,并且在手机和笔记本电脑等个人设备上表现更好。

封面图片

英伟达的新工具可让用户在电脑上离线运行生成式人工智能模型

英伟达的新工具可让用户在电脑上离线运行生成式人工智能模型 英伟达发布了一款新工具“Chat with RTX”,要求 8GB 显存的 GeForce™ RTX 30 或 40 系列 GPU,该工具可以让用户在 Windows PC 上离线运行人工智能驱动的聊天机器人。Chat with RTX 默认使用人工智能初创公司 Mistral 的开源模型,但支持其他基于文本的模型,包括 Meta 的 Llama 2。 (<下载)

封面图片

人工智能公司正在转向“小型”语言模型以获利

人工智能公司正在转向“小型”语言模型以获利 投入数十亿美元构建所谓的大型语言模型以推动生成式人工智能产品的人工智能公司,现在正寄望于一种新的收入增长方式:小型语言模型。苹果、微软、Meta 和谷歌最近都发布了新的人工智能模型,这些模型的“参数”较少,但功能仍然强大。 通常来说,参数的数量越多,人工智能软件的性能就越好,能处理的任务也就越复杂和微妙。本周公布的 OpenAI 的最新模型 GPT-4o 和谷歌的 Gemini 1.5 Pro,据估计都拥有超过1万亿个参数。而 Meta 正在训练其开源 Llama 模型的4000亿参数版本。 除了努力说服一些企业客户支付运行生成式人工智能产品所需的大额费用外,对数据和版权责任的担忧也阻碍了其广泛应用。这促使像 Meta 和谷歌这样的科技集团推出只有几十亿参数的小型语言模型,作为更经济、更节能、可定制的替代方案,这些模型在训练和运行时所需的电力更少,同时还能保护敏感数据。

封面图片

微软推出新 Copilot+ Windows PC 围绕人工智能设计

微软推出新 Copilot+ Windows PC 围绕人工智能设计 微软今天宣布推出集成了人工智能硬件的新 Windows PC,称为 Copilot+ PC。据微软称,Copilot+ PC 是“有史以来最快的 PC”,具有全天电池续航时间、每秒超过40万亿次运算的全新 NPU 芯片以及“支持最先进的人工智能模型”。新机器的设计以“人工智能为中心”,引入了可以直接在设备上运行的体验,以减少延迟并提高隐私性。新款人工智能 PC 比 MACBOOK AIR M3 速度提升58%。微软还称,OpenAI GPT-4o 将“很快”应用于 Copilot。新款微软 Surface Pro 和 Surface Laptop 是首批 Copilot + PC。华硕、宏碁、戴尔、惠普、联想和三星也推出了 Copilot + PC。新款 PC 今天上市,起价为999美元。 、

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人