微软提供的AI开发工具,可以简化生成式AI应用的开发过程,集成了来自Azure AI Studio目录和Hugging Face

微软提供的AI开发工具,可以简化生成式AI应用的开发过程,集成了来自Azure AI Studio目录和Hugging Face等目录的先进AI开发工具和模型,可以浏览AI模型目录,将其下载到本地,进行模型微调、测试并在Windows应用中使用。 | #工具

相关推荐

封面图片

AI 开源开发平台 Hugging Face 存在托管的恶意代码

AI 开源开发平台 Hugging Face 存在托管的恶意代码 安全公司 JFrog 的研究人员周四在一份报告中表示,上传到人工智能开发平台 Hugging Face 的代码在用户计算机上秘密安装了后门和其他类型的恶意软件。研究人员表示,他们总共发现大约 100 个提交内容在下载并加载到最终用户设备上时执行了隐藏的和不需要的操作。 大多数被标记的机器学习模型(所有这些模型都没有被 Hugging Face 检测到)似乎是研究人员或好奇的用户上传的良性概念证明。研究人员表示,其中大约10个是“真正恶意的”,因为它们在加载时执行的操作实际上损害了用户的安全,例如创建一个可以从互联网远程访问并完全控制用户设备的反向 Shell 。 Hugging Face 已删除了所有 JFrog 标记的模型。这是继 PyPI, NPM 和 GitHub 之后又一个被发现受到水坑攻击(Watering Hole Attack)的开发平台,虽然并不让人太意外。

封面图片

谷歌与 Hugging Face 合作,帮助开发人员训练 AI 模型

谷歌与 Hugging Face 合作,帮助开发人员训练 AI 模型 谷歌云与 AI 模型托管平台 Hugging Face 建立了新的合作伙伴关系,让开发人员无需支付谷歌云订阅费用即可构建、训练和部署 AI 模型。现在,使用 Hugging Face 平台的外部开发人员将能够 “经济高效” 地访问谷歌的张量处理单元 (TPU) 和 GPU 超级计算机,其中包括数千台 Nvidia 的热门且出口受限的 H100。谷歌表示,Hugging Face 用户可以在 “2024 年上半年” 开始使用人工智能应用构建平台 Vertex AI 和 Kubernetes 引擎,帮助训练和微调模型。 一一

封面图片

ColossalAI,一个大模型深度学习系统,提供了一系列开发工具,让分布式 AI 模型训练流程变得更加简单。项目有完整的中文教

ColossalAI,一个大模型深度学习系统,提供了一系列开发工具,让分布式 AI 模型训练流程变得更加简单。项目有完整的中文教程 另外,该项目近期已无缝支持 Hugging Face,开发者仅需添加几行代码,便可实现大模型的低成本训练和微调。 ||

封面图片

#AI #开源 Hugging Face

#AI #开源 Hugging Face 一个开放式机器学习平台,汇集了超过 170 万款预训练模型、40万数据集、60万演示应用(Spaces),可实现 NLP、计算机视觉、音频处理等多模态任务,并支持通过 Transformers、Datasets、Evaluate、Gradio 等库进行一键调用与细粒度微调,可以 Docker、Streamlit 或 Gradio 快速构建并部署在线演示,支持自定义配置、GPU/CPU 切换及公开或私有模式。 https://huggingface.co 频道 @Edgebyte

封面图片

Hugging Face发布生成式AI健康任务测试基准

Hugging Face发布生成式AI健康任务测试基准 人工智能初创公司 Hugging Face 在最新发布的名为 Open Medical-LLM 的基准测试中提出了一种解决方案。Open Medical-LLM 是与非营利组织开放生命科学人工智能(Open Life Science AI)和爱丁堡大学自然语言处理小组的研究人员合作创建的,旨在对生成式人工智能模型在一系列医疗相关任务中的性能进行标准化评估。Open Medical-LLM 本身并不是一个全新的基准,而是将现有的测试集(MedQA、PubMedQA、MedMCQA 等)拼接在一起,旨在探究医学常识和相关领域(如解剖学、药理学、遗传学和临床实践)的模型。该基准包含要求医学推理和理解的选择题和开放式问题,借鉴了美国和印度医学执照考试和大学生物试题库等材料。Hugging Face在一篇博文中写道:"[开放医学-LLM]使研究人员和从业人员能够识别不同方法的优缺点,推动该领域的进一步发展,并最终促进更好的患者护理和治疗效果。"Hugging Face 将该基准定位为对医疗领域生成式人工智能模型的"稳健评估"。但社交媒体上的一些医学专家告诫说,不要对 Open Medical-LLM 抱有过高期望,以免导致不明智的部署。阿尔伯塔大学神经病学住院医生利亚姆-麦考伊(Liam McCoy)在"X"上指出,医学答疑的"人为环境"与实际临床实践之间的差距可能相当大。博文的共同作者、"Hugging Face"研究科学家 Clémentine Fourrier 对此表示赞同。"这些排行榜只应作为针对特定用例探索哪种[生成式人工智能模型]的第一近似值,但随后始终需要进行更深入的测试阶段,以检验模型在真实条件下的局限性和相关性,"Fourrier在 X 上回答说,"医疗[模型]绝对不应该由患者自行使用,而应该经过培训,成为医学博士的辅助工具。"这不禁让人想起Google在泰国尝试将糖尿病视网膜病变的人工智能筛查工具引入医疗系统时的经历。Google创建了一个深度学习系统,可以扫描眼睛图像,寻找视网膜病变的证据,视网膜病变是导致视力丧失的主要原因。但是,尽管理论上具有很高的准确性,该工具在实际测试中被证明并不实用,结果不一致,与实际操作普遍不协调,令患者和护士都感到沮丧。美国食品和药物管理局迄今已批准了 139 种与人工智能相关的医疗设备,其中没有一种使用了生成式人工智能,这很能说明问题。要测试生成式人工智能工具在实验室中的表现如何转化到医院和门诊中,或许更重要的是测试其结果如何随时间变化,这异常困难。这并不是说 Open Medical-LLM 没有用处或信息量不大。结果排行榜可以提醒人们,模型对基本健康问题的回答有多么糟糕。但是,Open Medical-LLM 以及其他任何基准都无法替代经过深思熟虑的真实世界测试。 ... PC版: 手机版:

封面图片

Hugging Face将投资1000万美元的共享GPU供开发者和研究人员免费使用

Hugging Face将投资1000万美元的共享GPU供开发者和研究人员免费使用 访问:NordVPN 立减 75% + 外加 3 个月时长 另有NordPass密码管理器 GPU 集群将对外免费使用 (当然也需要申请和批准),该平台希望能够帮助小型开发者、研究人员或人工智能初创公司对抗阻碍人工智能技术发展的中心化问题。与百度不同,Hugging Face 和大多数公司一样认为开源和开放的人工智能技术可以促进行业的发展,专有的人工智能技术并不是 Hugging Face 设想的未来。所以该公司愿意投资共享 GPU 集群,基于共享使用的原则,所有 GPU 都不会浪费,也就是最终情况可能是 7×24 小时满负荷运行,为开发者和初创公司提供支持。对于小型开发者和人工智能初创公司,想要获得共有平台提供的 GPU 算力并不容易,主要是价格非常昂贵并且可能还需要预付费或按月结算,不像大客户那样甚至可以按年结算。这对开发者来说是个承重的负担,往往训练 AI 模型所花费的 GPU 成本就是天文数字,这显然不利于人工智能行业的发展。Hugging Face 称对于共享 GPU 的使用主要取决于实际使用情况,即如果部分 GPU 的容量没有得到积极利用,则这部分容量可以供其他人使用,因此共享 GPU 集群具有成本效益和能源效率,非常适合在社区范围内使用。为 Hugging Face 提供共享 GPU 集群的是应用托管平台 ZeroGPU,该平台将为 Hugging Face 提供 NVIDIA A100 人工智能加速卡组成的集群,尽管 A100 在性能方面只有 H100 加速卡的 50%,不过毕竟都是共享和免费使用,对开发者来说应该也问题不大。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人