微软提供的AI开发工具,可以简化生成式AI应用的开发过程,集成了来自Azure AI Studio目录和Hugging Face

微软提供的AI开发工具,可以简化生成式AI应用的开发过程,集成了来自Azure AI Studio目录和Hugging Face等目录的先进AI开发工具和模型,可以浏览AI模型目录,将其下载到本地,进行模型微调、测试并在Windows应用中使用。 | #工具

相关推荐

封面图片

谷歌与 Hugging Face 合作,帮助开发人员训练 AI 模型

谷歌与 Hugging Face 合作,帮助开发人员训练 AI 模型 谷歌云与 AI 模型托管平台 Hugging Face 建立了新的合作伙伴关系,让开发人员无需支付谷歌云订阅费用即可构建、训练和部署 AI 模型。现在,使用 Hugging Face 平台的外部开发人员将能够 “经济高效” 地访问谷歌的张量处理单元 (TPU) 和 GPU 超级计算机,其中包括数千台 Nvidia 的热门且出口受限的 H100。谷歌表示,Hugging Face 用户可以在 “2024 年上半年” 开始使用人工智能应用构建平台 Vertex AI 和 Kubernetes 引擎,帮助训练和微调模型。 一一

封面图片

AI 开源开发平台 Hugging Face 存在托管的恶意代码

AI 开源开发平台 Hugging Face 存在托管的恶意代码 安全公司 JFrog 的研究人员周四在一份报告中表示,上传到人工智能开发平台 Hugging Face 的代码在用户计算机上秘密安装了后门和其他类型的恶意软件。研究人员表示,他们总共发现大约 100 个提交内容在下载并加载到最终用户设备上时执行了隐藏的和不需要的操作。 大多数被标记的机器学习模型(所有这些模型都没有被 Hugging Face 检测到)似乎是研究人员或好奇的用户上传的良性概念证明。研究人员表示,其中大约10个是“真正恶意的”,因为它们在加载时执行的操作实际上损害了用户的安全,例如创建一个可以从互联网远程访问并完全控制用户设备的反向 Shell 。 Hugging Face 已删除了所有 JFrog 标记的模型。这是继 PyPI, NPM 和 GitHub 之后又一个被发现受到水坑攻击(Watering Hole Attack)的开发平台,虽然并不让人太意外。

封面图片

ColossalAI,一个大模型深度学习系统,提供了一系列开发工具,让分布式 AI 模型训练流程变得更加简单。项目有完整的中文教

ColossalAI,一个大模型深度学习系统,提供了一系列开发工具,让分布式 AI 模型训练流程变得更加简单。项目有完整的中文教程 另外,该项目近期已无缝支持 Hugging Face,开发者仅需添加几行代码,便可实现大模型的低成本训练和微调。 ||

封面图片

【暴雪已开始部署生成式AI游戏开发工具】

【暴雪已开始部署生成式AI游戏开发工具】 5月24日消息,《暗黑破坏神》、《魔兽世界》和《守望先锋》等游戏背后的开发公司暴雪娱乐(Blizzard Entertainment)正在试验生成人工智能技术作为其游戏开发的一部分,并且已经开始在团队内部部署生成式AI游戏开发工具。 不过,一些暴雪员工表示,现阶段生成式AI游戏开发工具在捕捉Bug和游戏互动方面存在不足。截至目前,暴雪暂未回应相关置评请求。

封面图片

微软在 GitHub 开源的一套 AI 工具,可用于简化大模型应用的开发周期。

微软在 GitHub 开源的一套 AI 工具,可用于简化大模型应用的开发周期。 打通了从项目构思、原型设计、测试、评估到生产部署和监控的全流程,让开发者可以快速构建出高质量的大语言模型应用。 项目配套了「提示流入门教程」、「跟 PDF 对话聊天」等详细的技术文档与指南,帮助你快速上手技术。 通过快速流程,你能够: 1.创建并迭代开发流程: 创建将 LLM、提示、Python 代码和其他工具链接在一起的可执行流程。 轻松调试和迭代您的流程,尤其是与法学硕士的交互。 2.评估流量质量和性能 使用更大的数据集评估流程的质量和性能。 将测试和评估集成到CI/CD 系统中,以确保流程的质量。 3.简化生产开发周期 将流程部署到你选择的服务平台或轻松集成到应用程序的代码库中。 (可选,但强烈推荐)利用Azure AI 中的云版本提示流与你的团队协作。 | #工具

封面图片

Hugging Face发布生成式AI健康任务测试基准

Hugging Face发布生成式AI健康任务测试基准 人工智能初创公司 Hugging Face 在最新发布的名为 Open Medical-LLM 的基准测试中提出了一种解决方案。Open Medical-LLM 是与非营利组织开放生命科学人工智能(Open Life Science AI)和爱丁堡大学自然语言处理小组的研究人员合作创建的,旨在对生成式人工智能模型在一系列医疗相关任务中的性能进行标准化评估。Open Medical-LLM 本身并不是一个全新的基准,而是将现有的测试集(MedQA、PubMedQA、MedMCQA 等)拼接在一起,旨在探究医学常识和相关领域(如解剖学、药理学、遗传学和临床实践)的模型。该基准包含要求医学推理和理解的选择题和开放式问题,借鉴了美国和印度医学执照考试和大学生物试题库等材料。Hugging Face在一篇博文中写道:"[开放医学-LLM]使研究人员和从业人员能够识别不同方法的优缺点,推动该领域的进一步发展,并最终促进更好的患者护理和治疗效果。"Hugging Face 将该基准定位为对医疗领域生成式人工智能模型的"稳健评估"。但社交媒体上的一些医学专家告诫说,不要对 Open Medical-LLM 抱有过高期望,以免导致不明智的部署。阿尔伯塔大学神经病学住院医生利亚姆-麦考伊(Liam McCoy)在"X"上指出,医学答疑的"人为环境"与实际临床实践之间的差距可能相当大。博文的共同作者、"Hugging Face"研究科学家 Clémentine Fourrier 对此表示赞同。"这些排行榜只应作为针对特定用例探索哪种[生成式人工智能模型]的第一近似值,但随后始终需要进行更深入的测试阶段,以检验模型在真实条件下的局限性和相关性,"Fourrier在 X 上回答说,"医疗[模型]绝对不应该由患者自行使用,而应该经过培训,成为医学博士的辅助工具。"这不禁让人想起Google在泰国尝试将糖尿病视网膜病变的人工智能筛查工具引入医疗系统时的经历。Google创建了一个深度学习系统,可以扫描眼睛图像,寻找视网膜病变的证据,视网膜病变是导致视力丧失的主要原因。但是,尽管理论上具有很高的准确性,该工具在实际测试中被证明并不实用,结果不一致,与实际操作普遍不协调,令患者和护士都感到沮丧。美国食品和药物管理局迄今已批准了 139 种与人工智能相关的医疗设备,其中没有一种使用了生成式人工智能,这很能说明问题。要测试生成式人工智能工具在实验室中的表现如何转化到医院和门诊中,或许更重要的是测试其结果如何随时间变化,这异常困难。这并不是说 Open Medical-LLM 没有用处或信息量不大。结果排行榜可以提醒人们,模型对基本健康问题的回答有多么糟糕。但是,Open Medical-LLM 以及其他任何基准都无法替代经过深思熟虑的真实世界测试。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人