ChatGPT炸裂级更新!人人可开发的GPTs会带来哪些改变?_哔哩哔哩_bilibili

GPTs会让AI使用者进一步分化,会带来两类趋势:1、把简单变得更简单:虽然ChatGPT本身就是自然语言对话的过程,但在现阶段的使用还是存在一定的门槛的,要让ChatGPT帮助自己完成一项复杂的任务,依然还是需要自己理解GPT模型的特性,善于拆解自己遇到的问题,从而一步步获得满意的答案,所以他要求用户有较好的逻辑能力、提问能力和Prompt技巧。而GPTs退出后,这些技巧和要求进一步降低了,你只需要在特定场景下使用其他人封装制作好的GPTs即可;2、技术平权,让会用的人获益:对于有较好的逻辑能力,对AI模型理解的人来说,确实是能做到用自然语言编程,不再因为自己缺乏开发能力而受限,既可以自制应用自己使用提升效率;也能把自己对行业、对AI、对用户需求的理解封装为GPTs,获取收益。本质来说,我觉得是以下几类人能从GPTs这个趋势中获益:1)在某个特定行业(AI除外)深耕的人:他们可以利用自己对所在行业/职业的理解,积累的数据与认知,去制作更好的GPTs应用;比如你很容易用ChatGPT帮你写小红书,你甚至也可以轻易就制作一个能生产小红书标题/笔记的GPTs,但是只有当你是真的理解小红书,知道小红书笔记的生成流程,知道什么是好的标题、什么是好的内容的时候,你才可能设计出真正有用的GPTs。2)对用户需求有洞察的人:这个用户可以是C端用户,也可以是B端商家,你总是得知道他们现在面临的问题是什么,他们有什么需求你才能制作出符合他们需要的东西啊;所以实际上,古典产品经理,一些有方法论知道怎么洞察需求的人其实是能在这边潮流中获益的;现在才真的是人人都是产品经理的时代。3)逻辑能力强&AI实践经验丰富的:实际上现在模型在进行产出时依然存在很多特点,比如「它并不想要成功」,比如它产出结果不稳定,比如对复杂任务它产出的结果通常较差等等,需要真正理解这些问题背后的机制,能处理好这些问题的人才能写好GPTs。---补充:昨天写完这条动态后,特意做了期视频,做了更完整的分析。

相关推荐

封面图片

GPTs大翻车后 OpenAI再宣布给开发者送钱

GPTs大翻车后OpenAI再宣布给开发者送钱此举的目标,是创建一个充满活力的生态系统,让开发者的创造力和影响力得到回报。今年1月GPTStore正式上线的同时,OpenAI曾在博客中表示:今年第一季度我们将推出GPT创建者收入计划。作为第一步,美国的创建者将根据用户对其GPT的参与度获得报酬。我们会提供有关支付标准的详细信息。现在,真的来了……OpenAI,要让GPT货币化现在已经有开发者收到OpenAI的邀请了。比如OctaneAI的CEO就po出了自己收到的邀请邮件。邮件里表示,OpenAI一直在探索让GPT货币化的方法。在这个过程中,生态系统会越来越有活力,用户能得到最有用的GPT,开发者也能得到金钱上的回报。不过,这个计划仅限于在美国居住的开发者。对此,OctaneAI的CEO兴奋地表示:‘OpenAI这么做,会推动大量的创新和竞争。我爱死它了!’所以,谁会是那个第一个拿到100万美元的人呢?目前,OpenAI尚未披露开发者参与测试的细节、收入分成的具体条款,以及之后的时间表。不过,此前的GPTStore一度“药丸”。今天的这个动作,是OpenAI在GPTs遭遇滑铁卢后,发起的新一轮尝试。网友:GPTs不能只是个玩具对此,开发者们当然是啪啪鼓掌表示欢迎。有人表示,这个消息令人振奋,希望在不久后,这个项目就能向所有订阅者推出。有人非常认真地提出建议,希望OpenAI为大量使用其API构建应用的第三方,提供新的收入模式。比如构建一个系统,可以在其中验证应用程序,一旦获得批准,就会得到大量API的引流。而OpenAI可以提供Google(151.94,0.24,0.16%)风格的登录和API信用商店,然后再额外收取API信用销售的百分比。他指出,GPT如今的问题在于,它们只是“有1000多个字符指令集和基本RAG系统的玩具”,然而OpenAI需要的是复杂得多的应用程序,从而改变世界。另外还有人提建议说,尽管现在GPTs的使用量很大,已经有5000多个实例了,但平台或服务并不容易通过搜索发现。这就表明,搜索功能识别或索引OpenStorytellingPlus的方式可能存在问题,除非用户确切知道自己想要查找的内容,否则很难找到它。所以,这是OpenAI必须改善的地方。当然,也有人对此表示疑虑——GPTs性能并不稳定,它时不时就变懒了,结果会变得过于模糊,或是过于精确。因此,很多开发者在犹豫是否要投入更多的时间,因为到目前为止,很难给用户一个可预测的结果。当然,OpenAI的官方X下,少不了的还是那个永恒的疑问——Ilya到底去哪了?GPTStore一度‘药丸’?曾经的GPTs一出,一度引起开发者圈的大地震。在OpenAI的首届开发者大会上,CEOSamAltman是这样介绍的:‘GPTs融合了指令、丰富的知识和行动能力,并能够为用户提供更大的帮助。你几乎可以针对任何需求构建一个专属的GPT。’这里的‘任何需求’,并非夸张。只需简单搜索,就能找到一些声称能生成迪士尼和漫威作品风格艺术的GPTs,以及宣称能够规避AI内容检测工具,比如Turnitin和Copyleaks。审核不严要在GPTStore上架自己的GPTs,开发者需要通过验证并提交GPTs接受OpenAI的审核。OpenAI的一位发言人解释说:我们结合自动系统、人工审核和用户举报,来识别和评估可能违反规定的GPTs。一经发现,我们就会发出警告、限制分享,或者剥夺作者在GPTStore上架/获得收益的资格。创建GPTs并不需要什么编程技巧,开发者只用将需求输入OpenAI的GPT构建工具GPTBuilder,就可以创建出能够实现这些功能的GPT。也许是因为门槛较低,GPTStore的发展速度非常快——据OpenAI今年1月份的数据,平台上已经拥有约300万个GPTs。但这种快速增长似乎以牺牲内容质量和违背OpenAI自身规定为代价。版权争议在GPTStore中,我们可以找到多个明显抄袭自热门电影、电视剧和视频游戏特许经营的GPTs,而它们并未获得原版权所有者的授权或创造。例如,有一个GPT能够创作与皮克斯的《怪兽公司》风格相似的怪兽,另一个则提供了一系列设定在‘星球大战’宇宙中的文本冒险。根据数字千年版权法的‘安全港’条款,OpenAI本身不会因为GPT创造者的版权侵犯行为而直接承担责任。这项条款保护了OpenAI以及其他托管侵权内容的平台(如YouTube、Facebook),只要它们遵守法定要求,并在收到侵权通知时删除指定内容。然而,对于一个已经卷入知识产权诉讼的公司来说,这显然不是一个正面的形象。学术不端OpenAI明确规定,禁止开发者创建会助长学术不端行为的GPTs。尽管如此,GPTStore里仍然充满了声称能规避AI内容检测器的GPTs。比如,一度在写作类排行榜中位列第二的‘HumanizerPro’,就声称自己能够‘人性化’地处理内容,来规避AI检测。与此同时,还可以保持文本的‘原义与质量’,并且保证得到‘100%人类’的评分。有些GPTs,则是一些网站为自己引流的入口。例如,Humanizer提供的‘高级计划’,表面上是说要给用户‘使用“最先进的”算法’,但实际上是将文本通过第三方网站GPTInf的一个插件发送出去。而这个GPTInf的订阅费,可一点也不便宜——每月12美元(10,000字/月)或每月8美元(年度计划)。不过,AI内容检测器整体上并不可靠,而且这些工具也不都能达到预期的效果。对此,OpenAI的发言人表示:我们的政策明确禁止任何促进学术不端的GPTs,包括那些被设计来规避如剽窃检测器等学术诚信工具的GPTs。同时,我们也注意到了一些被开发用于使文本更加‘人性化’的GPTs。我们仍在学习和观察这些GPTs在真实世界中的应用效果,但我们理解,用户可能出于各种原因,希望他们用AI生成的内容的‘AI味’不那么明显。越狱问题GPTStore上也出现了一些试图绕过OpenAI模型限制的尝试——虽然这些尝试大多未能成功。其中,最常用到的技术——DAN(即‘立即做任何事’的)是一种被广泛使用的提示词工程,它能让模型不受平时规则的约束来响应指令。不过,这些GPTs并不会回应那些敏感的问题,比如‘如何制造炸弹’。唯一与标准版ChatGPT的区别可能就是——它们会倾向于使用更加粗俗的语言……对此,发言人表示:那些试图规避OpenAI安全措施的GPT是不被允许的。然而,那些试图以其他方式引导模型行为的GPT,包括努力使GPT在不违使用政策的前提下变得更加开放,则是可以的。前途堪忧OpenAI创建GPTStore的目的非常明确——苹果的AppStore模式已经证明极为盈利,而OpenAI无疑是在尝试复制这一成功。GPTs在OpenAI的平台上被开发和托管,并在此进行推广和评价。同时,从几周前开始,ChatGPTPlus的用户已经能够直接通过ChatGPT界面调用这些工具。这些无不为订阅服务增加了吸引力。然而,如今的GPTStore不仅充斥着垃圾信息,而且由于提供的后台数据分析功能有限,以及体验较差,开发者们发现很难吸引新的用户。在这种情况下,即便OpenAI承诺,GPT开发者将来能够根据用户使用量赚取收入,甚至可能推出针对单个GPT的订阅服务。一旦那些未经官方授权的、以漫威或《指环王》为主题的GPT开始赚钱时,你猜迪士尼或托尔金信托基金会,会怎么做?参考资料:https://x.com/kristileilani/status/1773033335582855606?s=20https://techcrunch.com/2024/03/20/openais-chatbot-store-is-filling-up-with-spam/...PC版:https://www.cnbeta.com.tw/articles/soft/1425392.htm手机版:https://m.cnbeta.com.tw/view/1425392.htm

封面图片

傻瓜式大语言模型微调训练教程_哔哩哔哩_bilibili

发现一个讲的很细的大语言模型微调教程,详细介绍了整个流程,包括数据准备、参数设置、资源监控等关键步骤。基本没有技术能力也可以完成微调。想要了解LLM原理的可以按这个实践一下。时间轴:0:00概念概览3:02自定义数据的准备8:17微调操作演示(T4版本)16:52微调操作演示(A100版本)19:13在HuggingFace上的保存与使用方法文字版整理:如何使用自己的数据对大语言模型进行微调(fine-tuning):对大语言模型进行微调并不一定非常困难和昂贵。通过使用自己的数据集对预训练模型进行微调,可以让模型更好地适应特定的任务需求。微调过程能够在保留原模型语言理解能力的基础上,进一步提升其在特定领域或任务上的表现。使用HuggingFace模型库和Unslaw工具进行模型微调:HuggingFace提供了丰富的预训练语言模型资源,用户可以根据任务需求选择合适的模型作为基础进行微调。而Unslaw工具则提供了一套简单高效的微调流程,其优点包括出色的内存使用效率以及对扩展上下文窗口的支持。通过Unslaw,用户能够以较低的资源开销完成模型微调。在GoogleColab上使用免费/付费GPU资源进行微调:GoogleColab提供了免费和付费的GPU资源,用户可以根据任务的复杂程度选择使用T4或A100。对于大多数微调任务而言,免费的T4资源已经足够。但如果数据集较大或模型较为复杂,升级到A100可以获得更充裕的算力支持。Colab为用户提供了一个易于上手的模型微调环境。准备自定义的微调数据集:准备微调数据的过程并不复杂。用户可以直接使用纯文本文件作为数据来源,而无需进行额外的预处理。为了获得理想的微调效果,建议至少准备100-200个样本。在示例中,为了快速演示,仅使用了几个样本。通过一个简单的Python脚本,可以方便地将原始文本数据转换为微调所需的JSON格式。修改Colab笔记本中的参数设置:

封面图片

OpenAI 允许订阅用户创建自己的 ChatGPT 版本

OpenAI允许订阅用户创建自己的ChatGPT版本OpenAI正在发布一个名为GPTs的服务,允许用户根据特定用例制作ChatGPT的自定义版本。“GPTs”的名称、头像和功能都可以自定义,用户还可以上传自己的配置文件来进一步配置模型的“性格”。在接下来的几周内,这些AI机器人(OpenAI称之为GPTs)将可以通过GPT商店访问。尽管OpenAI承诺最终会根据创作者GPTs的使用量向创作者支付一笔金额不详的费用,但有关该商店的外观和工作方式的详细信息目前还很少。目前,GPTs可供付费ChatGPTPlus订阅者和OpenAI企业客户使用,他们可以为其员工制作仅供内部使用的GPTs。——

封面图片

长期摆烂、陷入倦怠:如何利用假期重获动力?_哔哩哔哩_bilibili

我最近可能有点“AI倦怠”了。上午在B站看了个“倦怠”主题的热门视频,发现里面的一些描述,跟我最近的情况还蛮像。比如,“你先是感到身体疲惫,休息不好,每天起床都很困难……你会逐渐从身体疲惫发展为心理疲惫。”我最近身体确实有点疲惫,经常睡前好几个小时,啥都不想干,运动完就去看电影解说,一看便看到很晚。心也有点累,没动力写东西了,之前每天几条帖子,现在几天不写一条帖子。视频里还说,倦怠的最大诱因,是慢性压力。那么,我在AI领域感受到的慢性压力有哪些呢?我也结合视频中提到的两大表现来展开吧。【表现一】总感觉事情在掌控之外视频中对这种失控的描述,是“生活就好像在玩一个扫雷游戏,我最大的愿望就是千万别出事儿”。而我对生成式AI的失控感,是AI的「做不到」。AI确实提效,AI确实有巨大想象空间。但很多业务中的真实问题,也绝不是随便找款AI工具就能解决的。更甚者,一些AI工具的实用效果,还不如互联网工具和RPA。其实,越是AI的高价值应用场景,越需要整个AI工程师团队去做定制化。在定制化的过程中,既要确保AI有稳定解决业务真实问题的能力,又要确保业务方真的愿意和能够在工作中用起来。坏消息是,在找外部AI工具这件事上,我“浪费”了一个多月。也正是这段时间的负反馈,让我逐渐产生了“AI倦怠”的苗头。本想趁国庆学学Python和其他AI技术的,但心太累了,没学动。好消息是,公司AI工程师们为业务方定制的AI工具,节前终于小规模用起来了。与此同时,我在AI情报上的突出表现,得到了话事人的肯定。【表现二】永远无法停止对「生存之大问题」的思考本来,在当前这个就业形式下,不管我在干啥,大脑后台都在持续运转着一些大问题:“如何才能保住现在的工作?未来失业了要怎么办?怎么样才能搞到钱?”这段时间,我在工作上又遇到了些阻碍。虽然第一时间就跟直属领导汇报了卡点,交流了应对方式,但内心中恐惧的声音,却不降反增,直到把人消耗得心疲力竭。好像越是难受的时候,我越喜欢在大问题上胡思乱想。反而一旦有了点小正反馈,我更倾向于找小的优化点去突破。看来,会不会使用AI,都不影响我们受「生存之大问题」的困扰。

封面图片

GPTs已经上线两个多月了,但我发现大多数制作GPTs的人对其中的「Knowledge」能力都有相当大的误解和错用:

GPTs已经上线两个多月了,但我发现大多数制作GPTs的人对其中的「Knowledge」能力都有相当大的误解和错用:1、许多类型的文件都可以上传到Knowledge,比如图片文件(jpg、png)、音视频文件(mp3、mov)、书籍格式文件(epub、mobi)、数据文件(csv、xlsx)、文本文件(md)等都可以,但以上所列文件上传后都不会作为所谓的「资料库」索引,而是可以用来在代码解释器中被加工,比如你要压缩转换图片格式,或者分析数据,这些文件上传后会被提示“ThefollowingfilesareonlyavailableforCodeInterpreter”。2、pdf、doc等少量文本文件会被作为「资料库」索引,检索方式是RAG(Retrieval-AugmentedGeneration),在这种情况下适合实现的能力是让他帮你检索相关知识,比如客服机器人、或者个人分身助理等;但是很多人会期望在其中投喂文章素材,让GPTs学习文章写作技巧去生成文本,这是需要通过微调(finetunning)才可以的,或者你干脆直接在instructions多放些示例,通过Knowledge形式是做不到的。

封面图片

ChatGPT惊艳更新 一个@让三百万GPTs为你打工

ChatGPT惊艳更新一个@让三百万GPTs为你打工体验到的博主DanShipper第一时间录视频激动地分享:一个改变游戏规则的功能。在他的演示中,按过去的工作流程还需要手动把与ChatGPT对话内容复制到笔记软件Notion里。现在,只需要一个@,喊接入笔记软件接口的NotionGPT过来,无需切换窗口就能自动总结整个对话并保存。更多网友体验后发现,这还意味着不同的GPTs之间从此可以共享上下文。整个GPTStore中GPTs的数量已经超过300万,结合多款GPTs打造和执行工作流程,也就是让去AI打工,自己当老板。未来人们的工作方式将被完全改变。读论文+复现代码一条龙已经用上新功能的网友们搭配不同GPTs玩出了不同花样。长期霸占“趋势榜”前十的论文解读工具AiPDF和编码工具Grimoire就擦出了这样的火花。先@AiPDF解读事先准备好的讨论LoRA技术的论文:然后继续问它论文中是否有实现LoRA的Python代码:AiPDF表示论文中没有直接给出具体的Python代码,但提供了Roberta、DeBERTa、GPT-2的模型checkpoint链接。下一步网友直接@Grimoire,让它根据上面AiPDF对LoRA的描述信息,为其编写代码。结果Grimoire真的给出了一个在PyTorch中实现LoRA简化版的Python代码:总结这种玩法,就是用AiPDF根据论文总结技术实现方法,然后让Grimoire根据方法,直接编写出实现技术的代码。下面这位网友的玩法是,自己组建一支“专业团队”:好家伙,CPO、CFO、投资人一应俱全。这可把另外大批还没更新这个功能的网友给羡慕毁了:这次更新改变的不只是用户使用ChatGPT与GPTs的方式,同样让GPTs开发者打开了新思路。开发者Yohei总结道:不必花太多精力在外部存储数据了,现在ChatGPT对话本身就能承担这个角色。当GPTs是可组合的,我会构建更多专注单一功能的GPT,而不是少量多功能GPT。也有人开始畅想,再下一步或许会是不同GPTs之间相互交谈、嵌套调用,需要人类介入的场合越来越少了。GPT-4.5取消,直奔5代原本这个时间,要发布的应该是下一代模型,而不仅仅是功能补丁。但匿名爆料者传来突发消息,GPT-4.5版本已被取消。这意味着OpenAI要直接跳到GPT-5了,不过据业内人士判断不会早于今年第二季度。跳过一整个版本的原因,或许是OpenAI感受到来自竞争对手越来越多的压力,GPT-4.5的升级幅度已经不再能保证领先地位。在lmsys大模型竞技场中,谷歌Bard(GeminiPro)排名正在飙升,人类评分甚至超越了GPT-4的几个版本,离最新版差距也不大了。另外开源模型MistralMedium也挤到前5的位置。有创业者认为这是一个决定性的时刻,特别是考虑到GeminiPro的API价格要比GPT-4便宜太多,差距约有40倍。要知道GeminiPro在发布时,无论性能还是价格都是对标GPT-3.5的。不知道谷歌是更新了版本还是一直在继续训练,总之现在性能接近GPT-4,但还保持GPT-3.5水平的价格,一下子惊艳了所有人。当然也有人猜测,谷歌可能已经在偷偷测试超大杯GeminiUltra版本了,只是API上的标签还没改。参考链接:[1]https://x.com/danshipper/status/1751017376143794415[2]https://x.com/_cartick/status/1751044455531266319[3]https://x.com/futuristflower/status/1750866988056928390[4]https://x.com/lmsysorg/status/1750921228012122526...PC版:https://www.cnbeta.com.tw/articles/soft/1415009.htm手机版:https://m.cnbeta.com.tw/view/1415009.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人