试了一下 AgentGPT,让它列出过去24小时内所有的谈过 AI 这个关键词的推文。

试了一下 AgentGPT,让它列出过去24小时内所有的谈过 AI 这个关键词的推文。 它给自己设置了任务: 第一步找到符合要求的推文 第二步判断哪些推文更相关 它自己拆解: 1. 做一个算法来识别 2.微调一个Bert模型来 3.找到微调模型的数据集 4.开始从网上找数据 我赶紧停了下来,这样下去我的API要爆掉了…

相关推荐

封面图片

试了一下 AgentGPT,让它列出过去小时内所有的谈过 AI 这个关键词的推文。

试了一下 AgentGPT,让它列出过去小时内所有的谈过 AI 这个关键词的推文。 它给自己设置了任务: 第一步找到符合要求的推文 第二步判断哪些推文更相关 它自己拆解: . 做一个算法来识别 .微调一个Bert模型来 .找到微调模型的数据集 .开始从网上找数据 我赶紧停了下来,这样下去我的API要爆掉了…

封面图片

强烈建议大家去试试,看看 AI 是怎么理解目标,拆解目标为任务,再一步步完成任务的。 (虽然3.5 的能力有限,估计最后很难完成

强烈建议大家去试试,看看 AI 是怎么理解目标,拆解目标为任务,再一步步完成任务的。 (虽然3.5 的能力有限,估计最后很难完成任务。 测试地址,请自备API key : 试了一下 AgentGPT,让它列出过去24小时内所有的谈过 AI 这个关键词的推文。 它给自己设置了任务: 第一步找到符合要求的推文 第二步判断哪些推文更相关 它自己拆解: 1. 做一个算法来识别 2.微调一个Bert模型来 3.找到微调模型的数据集 4.开始从网上找数据 我赶紧停了下来,这样下去我的API要爆掉了…

封面图片

AI进化小合集Auto-GPT

AI进化小合集 Auto-GPT 最前沿的 AI 应用,给 AI 一个目标,让它自己分析、规划、上网、写代码,直到完成目标。 非常神奇非常科幻的项目。 介绍: 当然,百看不如一试 AgentGPT - AI规划,执行任务 eg:让它列出过去24小时内所有的谈过 AI 这关键词的推文。 Then它给自己设置了任务: ① 找到符合要求的推文 ② 判断哪些推文更相关 它自己拆解: 1.做一个算法来识别 2.微调一个Bert模型 3.找到微调模型的数据集 4.开始从网上找数据 开发者利用 AI 创造出能自我修复的程序 为什么不让 AI 来帮助你完成找出 bug工作? 开发者 BioBootloade 创造出能帮 Python 程序自我修复d程序 Wolverine .带有演示视频的写道。“即使你有很多错误,它也会反复重新运行,直到一切都修复。发布在上 关于我的一点思考可以看 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

微软刚刚发布了 Phi-3 Mini,而且开源了。目前看它几乎所有基准测试中都表现更好。

微软刚刚发布了 Phi-3 Mini,而且开源了。目前看它几乎所有基准测试中都表现更好。 您可以在本地电脑搭建和免费使用它,喜欢倒腾的铁子可以按以下步骤试试看: 第一步:下载 LM Studio 。它是免费的开源软件,可让您运行任何开源 AI 模型。转至,然后下载并安装适合您操作系统的版本。 第二步:获得Phi-3。在主页上搜索“Phi-3”。选择“microsoft/Phi-3-mini-4k-instruct-gguf”,然后在右侧列表中下载 4K 版本。4K 版本更轻、更快,但比“fp16”损失更大一些。 第三步:开始使用Phi-3。单击左侧菜单中的聊天选项卡和“New Chat”。选择在顶部栏中选择的 Phi-3 模型。然后写下并发送您的提示!

封面图片

一个懒人 LoRA 制作指南,手把手教你用 OneTrainer 训练自己的 AI 绘画模型,无需深入理论,轻松掌握关键步骤。

一个懒人 LoRA 制作指南,手把手教你用 OneTrainer 训练自己的 AI 绘画模型,无需深入理论,轻松掌握关键步骤。 作者是用XL生成的图片,你可以用MIdjoureny生成效果比较好。 我完整翻译了内容,并且重新整理了适合推特阅读的版本,或者你可以在下面看完整翻译的内容: - 1⃣ LoRA 模型制作教程 作者作为一名 LoRA 模型制作的新手,通过自己的学习实践,总结了一份简明扼要的制作教程。 这份教程不涉及太多理论知识,而是直奔主题,手把手教初学者如何训练自己的 LoRA 模型。 作者坦诚分享了自己从最初尝试 Embedding 和 LoRA 时遇到的问题,以及后来找到的解决方法,为读者提供了宝贵的经验参考。 所需工具介绍 要制作 LoRA 模型,需要准备一些必要的工具。作者推荐使用自己喜欢的模型和图像生成工具,他个人使用的是 StableSwarmUI 和 GhostXL 模型。 此外,还需要一个训练工具,作者选择了 OneTrainer,因为有人说它比另一个常用的工具 Kohya 更易用。作者还提到,训练时如果需要将 SDXL 格式的图像转换为 SD 格式,需要在设置中开启分辨率覆盖选项。 2⃣ LoRA 模型制作步骤 作者将 LoRA 模型的制作过程分为三个主要步骤: 第一步是用现有的模型生成大量高质量的图像作为训练数据; 第二步是人工检查挑选图像,剔除所有质量不合格的; 第三步是使用 OneTrainer 进行训练,调整必要的参数设置。 作者还特别提到,在训练时如果需要将 SDXL 格式的图像转换为 SD 格式,一定要记得开启分辨率覆盖选项,否则训练会出问题。 训练参数调整心得 作为一名新手,作者在调整训练参数时主要参考了一份网上的指南。 他尝试调整了 Lora 设置中的 rank 参数,将其从默认的 16 改为 32,解决了模型训练中遇到的问题。作者分享了这份参数调整指南的链接,供其他学习者参考。 3⃣ 作者的训练数据集分享 为了帮助更多学习者,作者慷慨地分享了自己完整的训练图像数据集,其中还包含了他使用的 OneTrainer 配置文件。这些数据可供其他 LoRA 制作人下载参考和使用。数据集已经过作者的筛选,图像质量有保证。 4⃣ 训练成果展示

封面图片

TencentPretrain:腾讯预训练模型框架

TencentPretrain:腾讯预训练模型框架 预训练已经成为人工智能技术的重要组成部分,为大量人工智能相关任务带来了显著提升。TencentPretrain是一个用于对文本、图像、语音等模态数据进行预训练和微调的工具包。TencentPretrain遵循模块化的设计原则。通过模块的组合,用户能迅速精准的复现已有的预训练模型,并利用已有的接口进一步开发更多的预训练模型。通过TencentPretrain,我们建立了一个模型仓库,其中包含不同性质的预训练模型(例如基于不同模态、编码器、目标任务)。用户可以根据具体任务的要求,从中选择合适的预训练模型使用。TencentPretrain继承了的部分工作,并在其基础上进一步开发,形成支持多模态的预训练模型框架。 TencentPretrain有如下几方面优势: 可复现 TencentPretrain已在许多数据集上进行了测试,与原始预训练模型实现(例如BERT、GPT-2、ELMo、T5、CLIP)的表现相匹配 模块化 TencentPretrain使用解耦的模块化设计框架。框架分成Embedding、Encoder、Target等多个部分。各个部分之间有着清晰的接口并且每个部分包括了丰富的模块。可以对不同模块进行组合,构建出性质不同的预训练模型 多模态 TencentPretrain支持文本、图像、语音模态的预训练模型,并支持模态之间的翻译、融合等操作 模型训练 TencentPretrain支持CPU、单机单GPU、单机多GPU、多机多GPU训练模式,并支持使用DeepSpeed优化库进行超大模型训练 模型仓库 我们维护并持续发布预训练模型。用户可以根据具体任务的要求,从中选择合适的预训练模型使用 SOTA结果 TencentPretrain支持全面的下游任务,包括文本/图像分类、序列标注、阅读理解、语音识别等,并提供了多个竞赛获胜解决方案 预训练相关功能 TencentPretrain提供了丰富的预训练相关的功能和优化,包括特征抽取、近义词检索、预训练模型转换、模型集成、文本生成等 ||#框架

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人