:开启创新新纪元,为开发者提供强大的AI平台,集成AI到Windows系统的各个层面,提供丰富的API和工具链,支持开发者构建差

:开启创新新纪元,为开发者提供强大的AI平台,集成AI到Windows系统的各个层面,提供丰富的API和工具链,支持开发者构建差异化的AI体验,适用于超过10亿用户。 Copilot+ PC是迄今为止最快、最智能的Windows PC,搭载世界最强大的PC神经处理单元(NPU),提供超过40 TOPS的计算能力,性能提升高达20倍,AI工作负载效率提升高达100倍

相关推荐

封面图片

帮开发者构建生成式 AI 应用,Meta 和微软合作推出开源模型 Llama 2

帮开发者构建生成式 AI 应用,Meta 和微软合作推出开源模型 Llama 2 Meta 和微软近日合作推出 Llama 2,这是 Meta 公司的下一代开源大型语言模型,可以免费用于研究和商业用途。 微软在新闻稿中表示,Llama 2 旨在帮助开发者和组织,构建生成式人工智能工具和体验。 Azure 客户可以在 Azure 平台上更轻松、更安全地微调和部署 7B、13B 和 70B 参数的 Llama 2 模型,此外通过优化可以在 Windows 本地运行。 Llama 2 模型与 Azure AI 的结合使开发人员能够利用 Azure AI 的强大工具进行模型训练、微调、推理,特别是支持 AI 安全的功能。 微软表示在 Windows 中加入 Llama 2 模型,有助于推动 Windows 成为开发人员根据客户需求构建人工智能体验的最佳场所,并释放他们使用 Windows Subsystem for Linux (WSL)、Windows 终端、Microsoft Visual Studio 和 VS Code 等世界级工具进行构建的能力。 、 、

封面图片

Google宣布推出Gemini API,为开发者和企业提供了全新的人工智能产品。这一API将使开发者能够构建基于Gemini

Google宣布推出Gemini API,为开发者和企业提供了全新的人工智能产品。这一API将使开发者能够构建基于Gemini Pro的应用程序和解决方案,进一步推动人工智能的发展和应用。 Gemini是Google迄今为止最大、能力最强大的人工智能模型,也是Google在使人工智能更加便捷实用的道路上迈出的重要一步。Gemini分为三个版本:Ultra、Pro和Nano。目前,Gemini已经在Google的产品中得到应用,其中Gemini Nano已经在Android系统上推出,并首次应用于Pixel 8 Pro手机,而Gemini Pro则针对Bard进行了专门的优化。 现在,开发者和企业可以通过Gemini API获得Gemini Pro的使用权限,以便根据自身需求构建应用程序和解决方案。Google将根据用户的反馈进一步优化和改进Gemini Pro,以确保其能够满足各类需求。 - Gemini Pro在研究基准测试中表现优异,超过了其他同等规模模型的性能。 - 当前版本的Gemini Pro针对文本提供了32K的上下文窗口,未来版本将支持更大的上下文窗口。 - 开发者可以免费使用Gemini Pro,但有一定的使用限制,并且将来会提供具有竞争力的定价方案。 - Gemini Pro具备多种功能,包括函数调用、嵌入、语义检索、自定义知识基础和聊天功能。 - Gemini Pro支持全球180多个国家和地区的38种语言。 Gemini Pro目前支持将文本作为输入并生成文本作为输出。此外,Google还提供了专门针对Gemini Pro Vision多模态的端点,支持文本和图像作为输入,生成文本作为输出。 为了帮助开发者构建应用程序,Gemini Pro提供了多种SDK,支持在任何地方运行的应用程序开发,包括Python、Android(Kotlin)、Node.js、Swift和JavaScript。 除了Gemini API,Google还推出了Google AI Studio开发者工具,该工具是一个免费的基于Web的开发者工具,能够帮助开发者快速构建提示并获取API密钥用于应用程序开发。开发者可以使用Google帐号登录Google AI Studio,并利用免费配额进行开发,该配额允许每分钟发起60个请求,比其他免费提供的配额高出20倍。 via 匿名 标签: #Google #AI #Gemini 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

Unity 推出面向开发者的 AI 软件市场 AI Hub

Unity 推出面向开发者的 AI 软件市场 AI Hub Unity 昨日正式推出面向开发者的 AI 软件市场 AI Hub,为 AI 软件开发者和游戏研发商提供一个更便利的 AI 软件交易平台。 Unity 允许 AI 软件开发者通过 AI Hub 向游戏研发商直接供应开发软件,并通过 Unity 的 Asset Store 收费。这意味着,游戏研发商能够在 Unity 的平台上直接购买到 Inworld AI 等独立公司的 AI 生成软件,这些软件可以生成游戏中的对话、UI 或贴图纹理。

封面图片

开发者和企业抗议JetBrains中集成的AI编程助手 认为有知识产权泄露风险

开发者和企业抗议JetBrains中集成的AI编程助手 认为有知识产权泄露风险 对个人开发者来说使用这种 AI 助手的风险相对来说还小一些,但对于一些企业来说这就是问题了,因为你不知道你的项目代码会被发送到哪里,集成的 AI 助手有可能会泄露公司的项目代码,从而造成重大安全风险。在 JetBrains YouTrack 问题跟踪面板上目前已经有十多个帖子在讨论如何删除、卸载或以其他方式彻底删除 AI 助手,不过目前来说好像都没有什么太好的办法。在讨论贴中有不少开发者提出了自己的担忧,包括称该助手为臃肿软件、对企业知识产权构成风险、安全问题、违反信任原则。其中部分企业本身就因为一些风险问题明令禁止开发者使用 AI 类编程助手,而 JetBrains 没有给开发者选择,因此这些开发者现在要么违反公司规定、要么彻底放弃使用 JetBrains 的产品。一名开发者表示:这是不可接受的,它不应该默认捆绑一些可以将整个代码库发送到天知道在哪里的地方,这是一个非常糟糕的举动,在此之后我不会再续订任何订阅,这是对信任的违背,无法挽回。另一名开发者则担心版权和法律风险问题,这名开发者称由于 JetBrains AI Assistant 是基于 AI 的,你不知道它给你的代码来自哪里,这可能造成知识产权方面的风险,而且也可能将你的代码泄露给竞争对手。不过 JetBrains 认为开发者的担心是有些多余的,因为按照 JetBrains 的原则,虽然产品里集成了 AI 助手并且默认启用该插件,但 AI 助手本身没有启动,并且除非获得用户同意,否则也不会将数据发送到别的地方。JetBrains 认为如果开发者不想使用的话不启用 AI 助手即可,不过 JetBrains 也表示该公司正在考虑后续提供卸载的选项。 ... PC版: 手机版:

封面图片

亚马逊参与AI战局:不过仅面向企业/开发者,不提供免费AI机器人

亚马逊参与AI战局:不过仅面向企业/开发者,不提供免费AI机器人 在微软和谷歌都推出自己的基于 AI 驱动的对话式机器人后,亚马逊也终于参与了 AI 战局,但是亚马逊并不提供免费的 AI 机器人,亚马逊推出的产品仅面向企业和开发者,帮助企业和开发者基于 AWS 构建自己的 AI 服务。 亚马逊新推出的平台名为 Amazon Bedrock (基岩),目前提供的包括:1.AI21Labs,用于生成西班牙语、法语、德语、葡萄牙语、意大利语、荷兰语的大型语言模型 (LLM);2.Claude,用于会话和文本任务处理的 LLM;3. 用于图像生成的 Stable Diffusion;4. 用于文本摘要、生成、分类、开放式问答、信息提取、嵌入搜索的 Amazon TITAN。 现在提供文本生成、聊天机器人、搜索、文本摘要、图片生成、图片分类功能,客户可以根据自己需要选择不同的模型,比如利用机器人创建自己公司专属的聊天机器人。目前 Amazon Bedrock 平台正在测试,有兴趣的企业可以报名等候: 来源, 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

谷歌发文解释为什么要在Chrome中内置本地AI模型:为开发者提供设备端应用

谷歌发文解释为什么要在Chrome中内置本地AI模型:为开发者提供设备端应用 谷歌目前已经尝试在 Chrome 浏览器中内置 AI 模型,该模型需要下载到本地后使用,模型版本为 Google Gemini Nano 版。这个模型并不是面向普通用户提供的,主要是给开发者使用,让开发者可以在网站或 PWA 应用里调用本地 AI 模型执行运算,而不需要调用某些云端模型。最重要的是经过谷歌的优化,Gemini Nano 版可以在本地使用硬件加速功能,无论是 GPU、NPU 甚至是 CPU 都可以用来运算。使用本地模型的好处有很多:本地处理敏感数据:设备端 AI 可以改进隐私保护,例如处理敏感数据时可以通过端到端加密为用户提供 AI 功能。流畅的用户体验:在某些情况下无需来回往返服务器即可获得近似实时的回答。对 AI 的访问权限更高:设备端可以承担一些处理负载,以换取对功能的更多访问权限,即如果使用云端 AI 用户可能需要额外付费分摊开发者的 token 费用,如果仅在本地处理那么这些费用就可以省了。离线使用 AI:显然设备端的本地 AI 是可以在离线状态下使用的,这意味着某些 PWA 类应用在离线情况下也可以处理内容。亦或者采用混合架构:对于简单的任务使用本地 AI 处理是可以的,但如果需要进行复杂的任务开发者应当考虑使用服务端实现,也就是继续调用云端 AI。第二种是保持 AI 功能的弹性,当网络连接顺畅的情况下开发者可以调用云端 AI,如果网络不畅或者离线则可以回退到本地 AI 处理。第三种是安全回退:采用内置 AI 的浏览器需要一定的时间,而且某些型号或某些太旧的设备可能无法使用本地 AI,这种情况下开发者可以继续调用云端 AI。Chrome 内置 AI 为所有开发者提供通用模型:现阶段开发者通过浏览器运行 AI 要么直接调用云端 AI 要么需要下载本地模型,而不同的开发者和不同的网站采用的 AI 模型不同,用户可能需要下载一大堆模型。Chrome 内置 AI 模型为所有开发者提供通用模型,这些模型一次下载即可使用,在用户已经下载过模型的情况下,调用模型的 PWA 应用可以做到开箱即用。这种方式应该可以大幅度提高 PWA 应用对 AI 功能的采用率,提高用户体验的同时也可以减少开发者很多繁杂的工作。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人