试了一下 AgentGPT,让它列出过去小时内所有的谈过 AI 这个关键词的推文。

试了一下 AgentGPT,让它列出过去小时内所有的谈过 AI 这个关键词的推文。 它给自己设置了任务: 第一步找到符合要求的推文 第二步判断哪些推文更相关 它自己拆解: . 做一个算法来识别 .微调一个Bert模型来 .找到微调模型的数据集 .开始从网上找数据 我赶紧停了下来,这样下去我的API要爆掉了…

相关推荐

封面图片

试了一下 AgentGPT,让它列出过去24小时内所有的谈过 AI 这个关键词的推文。

试了一下 AgentGPT,让它列出过去24小时内所有的谈过 AI 这个关键词的推文。 它给自己设置了任务: 第一步找到符合要求的推文 第二步判断哪些推文更相关 它自己拆解: 1. 做一个算法来识别 2.微调一个Bert模型来 3.找到微调模型的数据集 4.开始从网上找数据 我赶紧停了下来,这样下去我的API要爆掉了…

封面图片

强烈建议大家去试试,看看 AI 是怎么理解目标,拆解目标为任务,再一步步完成任务的。 (虽然3.5 的能力有限,估计最后很难完成

强烈建议大家去试试,看看 AI 是怎么理解目标,拆解目标为任务,再一步步完成任务的。 (虽然3.5 的能力有限,估计最后很难完成任务。 测试地址,请自备API key : 试了一下 AgentGPT,让它列出过去24小时内所有的谈过 AI 这个关键词的推文。 它给自己设置了任务: 第一步找到符合要求的推文 第二步判断哪些推文更相关 它自己拆解: 1. 做一个算法来识别 2.微调一个Bert模型来 3.找到微调模型的数据集 4.开始从网上找数据 我赶紧停了下来,这样下去我的API要爆掉了…

封面图片

AI进化小合集Auto-GPT

AI进化小合集 Auto-GPT 最前沿的 AI 应用,给 AI 一个目标,让它自己分析、规划、上网、写代码,直到完成目标。 非常神奇非常科幻的项目。 介绍: 当然,百看不如一试 AgentGPT - AI规划,执行任务 eg:让它列出过去24小时内所有的谈过 AI 这关键词的推文。 Then它给自己设置了任务: ① 找到符合要求的推文 ② 判断哪些推文更相关 它自己拆解: 1.做一个算法来识别 2.微调一个Bert模型 3.找到微调模型的数据集 4.开始从网上找数据 开发者利用 AI 创造出能自我修复的程序 为什么不让 AI 来帮助你完成找出 bug工作? 开发者 BioBootloade 创造出能帮 Python 程序自我修复d程序 Wolverine .带有演示视频的写道。“即使你有很多错误,它也会反复重新运行,直到一切都修复。发布在上 关于我的一点思考可以看 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

昆仑万维开源了自己的Skywork大模型 | 本次开源的模型有Skywork-13B-Base模型、Skywork-13B-Ch

昆仑万维开源了自己的Skywork大模型 | 本次开源的模型有Skywork-13B-Base模型、Skywork-13B-Chat模型、Skywork-13B-Math模型和Skywork-13B-MM模型,以及每个模型的量化版模型,以支持用户在消费级显卡进行部署和推理。 Skywork开源项目的特点有: Skywork-13B-Base模型在高质量清洗过滤的3.2万亿个多语言(主要是中文和英文)和代码数据上进行预训练,它在多种评测和各种基准测试上都展现了同等规模模型的最佳效果。 Skywork-13B-Chat模型具备强大的对话能力,我们在文创领域进行了进一步的针对性增强。我们通过构建一万多条高质量指令数据集,在10个文创任务上进行了针对性微调,使我们的模型在文创任务中能够接近ChatGPT的效果。此外,我们开源了针对这10个文创任务上的大约500条样本组成的benchmark。 Skywork-13B-Math模型经过专门的数学能力强化训练。在13B参数规模下,我们的模型在GSM8K评测上得分第一,同时在MATH数据集以及CMATH上也表现优异,处于13B模型顶尖水平。 Skywork-13B-MM多模态模型支持用户输入图片信息进行问答,对话等任务。 Skywork/Skypile-150B数据集是根据我们经过精心过滤的数据处理流程从中文网页中筛选出的高质量数据。本次开源的数据集大小约为600GB,总的token数量约为150B,是目前开源最大中文数据集。 除此之外,我们还公开了训练Skywork-13B模型中使用的评估方法、数据配比研究和训练基础设施调优方案等信息。我们希望这些开源内容能够进一步启发社区对于大型模型预训练的认知,并推动人工智能通用智能(AGI)的实现。

封面图片

TencentPretrain:腾讯预训练模型框架

TencentPretrain:腾讯预训练模型框架 预训练已经成为人工智能技术的重要组成部分,为大量人工智能相关任务带来了显著提升。TencentPretrain是一个用于对文本、图像、语音等模态数据进行预训练和微调的工具包。TencentPretrain遵循模块化的设计原则。通过模块的组合,用户能迅速精准的复现已有的预训练模型,并利用已有的接口进一步开发更多的预训练模型。通过TencentPretrain,我们建立了一个模型仓库,其中包含不同性质的预训练模型(例如基于不同模态、编码器、目标任务)。用户可以根据具体任务的要求,从中选择合适的预训练模型使用。TencentPretrain继承了的部分工作,并在其基础上进一步开发,形成支持多模态的预训练模型框架。 TencentPretrain有如下几方面优势: 可复现 TencentPretrain已在许多数据集上进行了测试,与原始预训练模型实现(例如BERT、GPT-2、ELMo、T5、CLIP)的表现相匹配 模块化 TencentPretrain使用解耦的模块化设计框架。框架分成Embedding、Encoder、Target等多个部分。各个部分之间有着清晰的接口并且每个部分包括了丰富的模块。可以对不同模块进行组合,构建出性质不同的预训练模型 多模态 TencentPretrain支持文本、图像、语音模态的预训练模型,并支持模态之间的翻译、融合等操作 模型训练 TencentPretrain支持CPU、单机单GPU、单机多GPU、多机多GPU训练模式,并支持使用DeepSpeed优化库进行超大模型训练 模型仓库 我们维护并持续发布预训练模型。用户可以根据具体任务的要求,从中选择合适的预训练模型使用 SOTA结果 TencentPretrain支持全面的下游任务,包括文本/图像分类、序列标注、阅读理解、语音识别等,并提供了多个竞赛获胜解决方案 预训练相关功能 TencentPretrain提供了丰富的预训练相关的功能和优化,包括特征抽取、近义词检索、预训练模型转换、模型集成、文本生成等 ||#框架

封面图片

一个懒人 LoRA 制作指南,手把手教你用 OneTrainer 训练自己的 AI 绘画模型,无需深入理论,轻松掌握关键步骤。

一个懒人 LoRA 制作指南,手把手教你用 OneTrainer 训练自己的 AI 绘画模型,无需深入理论,轻松掌握关键步骤。 作者是用XL生成的图片,你可以用MIdjoureny生成效果比较好。 我完整翻译了内容,并且重新整理了适合推特阅读的版本,或者你可以在下面看完整翻译的内容: - 1⃣ LoRA 模型制作教程 作者作为一名 LoRA 模型制作的新手,通过自己的学习实践,总结了一份简明扼要的制作教程。 这份教程不涉及太多理论知识,而是直奔主题,手把手教初学者如何训练自己的 LoRA 模型。 作者坦诚分享了自己从最初尝试 Embedding 和 LoRA 时遇到的问题,以及后来找到的解决方法,为读者提供了宝贵的经验参考。 所需工具介绍 要制作 LoRA 模型,需要准备一些必要的工具。作者推荐使用自己喜欢的模型和图像生成工具,他个人使用的是 StableSwarmUI 和 GhostXL 模型。 此外,还需要一个训练工具,作者选择了 OneTrainer,因为有人说它比另一个常用的工具 Kohya 更易用。作者还提到,训练时如果需要将 SDXL 格式的图像转换为 SD 格式,需要在设置中开启分辨率覆盖选项。 2⃣ LoRA 模型制作步骤 作者将 LoRA 模型的制作过程分为三个主要步骤: 第一步是用现有的模型生成大量高质量的图像作为训练数据; 第二步是人工检查挑选图像,剔除所有质量不合格的; 第三步是使用 OneTrainer 进行训练,调整必要的参数设置。 作者还特别提到,在训练时如果需要将 SDXL 格式的图像转换为 SD 格式,一定要记得开启分辨率覆盖选项,否则训练会出问题。 训练参数调整心得 作为一名新手,作者在调整训练参数时主要参考了一份网上的指南。 他尝试调整了 Lora 设置中的 rank 参数,将其从默认的 16 改为 32,解决了模型训练中遇到的问题。作者分享了这份参数调整指南的链接,供其他学习者参考。 3⃣ 作者的训练数据集分享 为了帮助更多学习者,作者慷慨地分享了自己完整的训练图像数据集,其中还包含了他使用的 OneTrainer 配置文件。这些数据可供其他 LoRA 制作人下载参考和使用。数据集已经过作者的筛选,图像质量有保证。 4⃣ 训练成果展示

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人