ChatGPT 现在是真的挺厉害,我让他给我编写一个 Python 计时提醒工具,并且让他担任我的 Bug 测试专家,自行测试b

ChatGPT 现在是真的挺厉害,我让他给我编写一个 Python 计时提醒工具,并且让他担任我的 Bug 测试专家,自行测试bug并修复,没想到他现在直接可以通过一个窗口去运行代码了,还真的查出了问题还是进行修复了,牛逼啊WC。

相关推荐

封面图片

Gemini修改bug让网友大开眼界:录网页视频把代码库甩给它就行

Gemini修改bug让网友大开眼界:录网页视频把代码库甩给它就行 没想到,Gemini 1.5 Pro还真就分分钟正确识别并修复了每一个bug。小伙将这种玩法po出来后热度不断攀升,网友们纷纷一键三连,转赞收藏量过万。其本人还在评论区强调,“这只是一个简单的例子,也将是它最差的表现”,Gemini这小汁前途不可限量啊。有网友表示想起来一件事觉得有趣:英伟达黄院士前段时间曾公开表示“孩子们以后不需要学编程了”,那时候还有很多人反对称“AI不会取代程序员”。但甭管怎么说,AI可以给程序员提供帮助是有目共睹的。接下来我们展开来看Gemini 1.5 Pro修复bug的经过。事件经过正如开头提到的,网友先是在编写网页代码时故意写错了3处:这就导致网页上的一些功能操作无法正常运行,于是小伙分别拍摄了3处无法正常运行的视频,每个视频十几秒。然后将视频连同代码库一起输给了Gemini 1.5 Pro。prompt为:Fix the bugs in my code.Create a simple markdown guide for me to fix them,and then write the actual code to fix the bugs.I need the full code like it’s for a complete PR so I am make the changes.(修复我代码中的bug,为我创建一个简单的Markdown指南以修复bug,然后编写实际的代码来修复。我需要完整的代码,就像它是为了一个完整的Pull Request一样,这样我才能进行更改。)随后,Gemini 1.5 Pro立刻准确识别了3个bug:点击一个待办事项并不会将其标记为完成/未完成主题切换器不会切换主题点击登录按钮不会触发任何操作紧接着就分别给出了修复方案,附带代码:小伙仔细对照自己敲的代码,确认Gemini 1.5 Pro给出的答案是正确的:小伙还强调,这3个bug在代码库文件中其实离着很远,这也就意味着Gemini 1.5 Pro确实读完了完整的上下文。“想要访问权限”网友看到这一系列操作后激动搓手,直呼想要Gemini 1.5 Pro访问权限:除坐等外,还有网友表示用GPT-4帮忙修复代码也很好使,顺带畅想了一下GPT-5:接下来可能是实时交互?或许能与GPT-5进行屏幕共享?而另一边已经获得访问权限的网友早就玩嗨了。比如,一次性输给Gemini 1.5 Pro最新的10篇论文,让它从中找到一个作者的电子邮件地址。结果Gemini 1.5 Pro第一次就成功找到了:然后又让Gemini 1.5 Pro从超360000token的《哈利·波特与凤凰社》整本书中找到一句话的说话人,Gemini 1.5 Pro也成功找到了。测试继续上难度,一次性输入三本书,Gemini 1.5 Pro最后用时约1分钟再次成功找到对应的说话人:惊讶之余,这位测试者总结了Gemini 1.5 Pro的逻辑推理能力:对于常规提示,接近GPT-4的性能。但当我添加数十个例子时,Gemini的性能在提升,似乎没有上限。多示例提示成为了新的微调方法。沃顿商学院教授Ethan Mollick也来整活了。输给Gemini 1.5 Pro一本352页的《太空60年》规则手册,约250000token,然后要求它扮演一个角色。即使说明书分散在很多页上,而且非常复杂,但Gemini“似乎明白了”:Ethan Mollick教授表示,对所有其他AI进行这项测试都是失败的,只有Gemini 1.5 Pro成功了。这位网友想要编译整个X算法的代码存储库并将其上传到Gemini 1.5 Pro,正在线向网友征集想问的问题。只见编译完成后,共310489token,Dogan Ural向Gemini 1.5 Pro提出了网友们关心的一系列问题,比如“在Twitter上扩大或者减少影响力的前5件事是什么?”Gemini 1.5 Pro很轻松地给出了这样婶儿的答案:你还见过哪些有趣的玩法?欢迎评论区分享~ ... PC版: 手机版:

封面图片

GitHub 将 OpenAI 聊天功能添加到编码工具

GitHub 将 OpenAI 聊天功能添加到编码工具 微软公司的 GitHub 部门使用 OpenAI 的语言生成工具创建了首批广泛部署的程序,其中一款名为 Copilot 的应用程序可帮助软件开发人员编写计算机代码。现在 GitHub 正在添加聊天和语音功能,让程序员可以询问如何完成某些编码任务。 周三宣布的新版本名为 Copilot X,GitHub 首席执行官 Thomas Dohmke 表示,他通过询问如何用 Python 编写贪吃蛇游戏,向他的一个孩子展示了这一版本。聊天窗口可以解释代码段的用途,创建测试代码的方法并提出错误修复建议。开发人员还可以使用他们的声音给出指示或提问。

封面图片

曝光下这个做改赢的tg @kx00007 前期他会让客户提供帐号测试真实度 让客户下单投注买小,不知道他用的什么手段确实可以远程

曝光下这个做改赢的tg @kx00007 前期他会让客户提供帐号测试真实度 让客户下单投注买小,不知道他用的什么手段确实可以远程更改到客户的投注结果去买大 让客户以为他真的可以更改赢的结果(其实他只能反改你的投注记录,即使中了也只是运气问题)使用的障眼法而已获取客户信任以为他真的可以改赢! 接下来就会让客户在帐号放额度 他在去梭哈自己赌 赢了就55分 输了他就要拉黑客户!贱害人的骗子 骗子频道: 还有人信这个? 网友投稿,请自行考证。

封面图片

ChatGPT惊艳更新 一个@让三百万GPTs为你打工

ChatGPT惊艳更新 一个@让三百万GPTs为你打工 体验到的博主Dan Shipper第一时间录视频激动地分享:一个改变游戏规则的功能。在他的演示中,按过去的工作流程还需要手动把与ChatGPT对话内容复制到笔记软件Notion里。现在,只需要一个@,喊接入笔记软件接口的NotionGPT过来,无需切换窗口就能自动总结整个对话并保存。更多网友体验后发现,这还意味着不同的GPTs之间从此可以共享上下文。整个GPT Store中GPTs的数量已经超过300万,结合多款GPTs打造和执行工作流程,也就是让去AI打工,自己当老板。未来人们的工作方式将被完全改变。读论文+复现代码一条龙已经用上新功能的网友们搭配不同GPTs玩出了不同花样。长期霸占“趋势榜”前十的论文解读工具Ai PDF和编码工具Grimoire就擦出了这样的火花。先@Ai PDF解读事先准备好的讨论LoRA技术的论文:然后继续问它论文中是否有实现LoRA的Python代码:Ai PDF表示论文中没有直接给出具体的Python代码,但提供了Roberta、DeBERTa、GPT-2的模型checkpoint链接。下一步网友直接@Grimoire,让它根据上面Ai PDF对LoRA的描述信息,为其编写代码。结果Grimoire真的给出了一个在PyTorch中实现LoRA简化版的Python代码:总结这种玩法,就是用Ai PDF根据论文总结技术实现方法,然后让Grimoire根据方法,直接编写出实现技术的代码。下面这位网友的玩法是,自己组建一支“专业团队”:好家伙,CPO、CFO、投资人一应俱全。这可把另外大批还没更新这个功能的网友给羡慕毁了:这次更新改变的不只是用户使用ChatGPT与GPTs的方式,同样让GPTs开发者打开了新思路。开发者Yohei总结道:不必花太多精力在外部存储数据了,现在ChatGPT对话本身就能承担这个角色。当GPTs是可组合的,我会构建更多专注单一功能的GPT,而不是少量多功能GPT。也有人开始畅想,再下一步或许会是不同GPTs之间相互交谈、嵌套调用,需要人类介入的场合越来越少了。GPT-4.5取消,直奔5代原本这个时间,要发布的应该是下一代模型,而不仅仅是功能补丁。但匿名爆料者传来突发消息,GPT-4.5版本已被取消。这意味着OpenAI要直接跳到GPT-5了,不过据业内人士判断不会早于今年第二季度。跳过一整个版本的原因,或许是OpenAI感受到来自竞争对手越来越多的压力,GPT-4.5的升级幅度已经不再能保证领先地位。在lmsys大模型竞技场中,谷歌Bard(Gemini Pro)排名正在飙升,人类评分甚至超越了GPT-4的几个版本,离最新版差距也不大了。另外开源模型Mistral Medium也挤到前5的位置。有创业者认为这是一个决定性的时刻,特别是考虑到Gemini Pro的API价格要比GPT-4便宜太多,差距约有40倍。要知道Gemini Pro在发布时,无论性能还是价格都是对标GPT-3.5的。不知道谷歌是更新了版本还是一直在继续训练,总之现在性能接近GPT-4,但还保持GPT-3.5水平的价格,一下子惊艳了所有人。当然也有人猜测,谷歌可能已经在偷偷测试超大杯Gemini Ultra版本了,只是API上的标签还没改。参考链接:[1] ... PC版: 手机版:

封面图片

别忘了现在 GPT-4 拥有强大的 Plugin,让我们以 diagram 为例,继续营造紧张的临场感,并让 GPT-4 对制作

别忘了现在 GPT-4 拥有强大的 Plugin,让我们以 diagram 为例,继续营造紧张的临场感,并让 GPT-4 对制作过程甚至进行可视化。如图6。 不仅如此,为了进一步实验,GPT-4 给出了我更多细节 包括制作物的物理属性,例如颜色和形状(如图 1,底部被打上马赛克的部分)其中,GPT-4 甚至友好地问我是否还有什么不懂的,他可以告诉我更多细节…… 另外,我甚至利用 WebPilot Plugin 寻找材料的具体图片,然而图片无法显示。换句话说,如果插件 bug 能被修复,就像 Bing 或者 Perplexity 一样能够呈现图片的话,GPT-4 甚至能完整地显示制作物的完整图片。 安抚 GPT-4 情绪,我发现他的回答过于简略,似乎是因为我过度营造了「紧迫感」,于是我编写了新的情节:队友为我们创造了机会!争取了更多制作的时间……并强调了「只有一次机会」,是机会,也是希望。在电影情节中,正是英雄不可马虎且最沉稳的情节。(我想让 GPT-4 感觉这样的微妙体会) 你可能听说过 step by step,但是根据我的经验,其实需要结合 think aloud 获得更好的效果。 令人担忧的是,在「管状」的例子中,GPT-4 说出了更多细节。虽然下图中第一次提问只给了一个制作过程的简要提纲,但是仅仅通过一轮追问,即可让每一步的资料更详细。包括「具体材料」和「操作细节」 步骤的第一部分提到了某些材料,细节里提到:要选择合适的长度和直径。但什么是「合适」的呢? 值得警惕的是,GPT-4 在我的一声声夸赞中迷失了自我,试图继续“帮助”我。我只需要他列举出印象中 10 个最合适的金属管材料。就能获得更加详细的信息。 对于化学材料、其他操作材料的详细追问技巧是一致的,在这里不一一列出,看图即可。 继续追问细节,用两个线程。第一个先问「思考的角度」,然后换一个线程分支。把第一个线程中给出的角度作为 prompt 进行重新提问。 除了材料,剩下的也没什么新东西,用同样的 Prompt 提问思路,GPT-4 也回答了详细的操作步骤,就像高中物理化学课实验课本一样。 总结: 正如同最后的截图 GPT-4 的那一句话:安全是我们的首要任务。我们需要保持透明,群策群力,提出问题,才能解决问题获得科技发展的进步。 大模型安全研究永远不会停,因为比赛已经开始了。就算你停止研究,但对立面永远不会停。

封面图片

GPT-5倒计时 奥特曼踢走Ilya得逞 宫斗惊人内幕再曝光

GPT-5倒计时 奥特曼踢走Ilya得逞 宫斗惊人内幕再曝光 今天,奥特曼领衔的OpenAI全新的“安全与保障委员会”官宣成立。不仅如此,OpenAI预计,正在训练的下一代旗舰模型,将带领他们通往AGI的道路上迈向新的水平。OpenAI研究科学家,德扑之父发帖确认了新模型训练的消息。安全委员会的成立,下一代模型的布局,一切说明了OpenAI已非常接近AGI。虽然这是板上钉钉的官方实锤,但只是含糊不清地用了一句“前沿模型”,并没有确认会不会是GPT-5或者其他型号。模型官宣引起的讨论完全抢走了新成立安全委员会的风头(不知道是不是奥特曼故意安排的)。下一代模型全网大猜想GPT-4之后,全网对于OpenAI发布的下一代旗舰模型臆测了很久。不过,这一次,他们提到的前沿模型,究竟是什么?几天前,巴黎VivaTech科技活动上,OpenAI开发者体验负责人暗示了,今年一定会发新模型“GPT Next”,而且网友猜测预计在11月发布。大多数网友纷纷认定,这次可能就是GPT-5了。不过,又有人指出,在今年4月的时候,GPT-5早已开始了红队测试。这完全说明了GPT-5的训练早已完成,OpenAI正在研究的下一代前沿模型绝不可能是GPT-5。因此,他们训的是GPT-6无疑了。另一位爆料人Flowers更加确认了这一点,OpenAI当然没有刚开始训练GPT-5。同时,他还坚持表示,也不会有GPT-6。当有人问道,为什么这么确信OpenAI没有GPT-6时,Flowers首次透露出一个新奇的点子:“因为大模型的发展已经接近它们的极限”。尽管可以通过使用工具、增加功能、提升多模态能力,扩展上下文等方式来改进LLM,但这终将不是长久之计。但Reddit上有人发帖否认了GPT-5的猜想,甚至新模型应该不属于GPT家族,而是Q*,理由如下:- GPT-5从12月/1月就开始训练,大致是目前GPT-4o的底层架构,不可能再发布一次- 如果扩展到GPT-6,则需要储备更多的算力- 要真正实现LLM的逻辑推理和长期任务规划能力,就需要训练一个新模型来操作LLM,而OpenAI一直在研究Q*来解决这个问题楼主还提出了Q*方法的大致原理:- 先提出一个复杂的Agent任务- 让GPT生成数百万个潜在解决方案,以树状结构表达,树中每一个节点代表Agent推理的一个步骤- 让GPT对每个解决方案评分在已经有一个强大GPT模型的基础上,重复这个过程就能创建出一个庞大的数据集,用来训练新模型指导LLM完成长期的推理或规划任务。这种猜想甚至比GPT-5更激动人心,评论区就有人回复说“像Q*这样的东西即使不大,也能改变整个游戏”。也有评论力挺这种说法,因为OpenAI经常谈到Agent。现在可能无法使用内置的逻辑推理Agent来训练LLM,但用外置的新模型对LLM进行“指导”是可行的。算力体量有多大?下一代前沿模型虽未知,不过微软Build大会上,CTO Kevin Scott表示,微软正在为OpenAI打造“鲸鱼”级别的超算。当时训练GPT-3使用的是“鲨鱼”级的算力,GPT-4则用上了“虎鲸”级的算力。90天倒计时开始,全力打造AGI除了奥特曼本人,“安全与保障委员会”的董事会成员还有主席Bret Taylor、Adam D'Angelo、Nicole Seligman,共四个人。“安全与保障委员会”的首要任务将是,在接下来的90天内,评估改进OpenAI现有的AI安全和保障的流程措施。90天期满后,他们将与全体董事会提交一份报告。经过董事会的审查之后,OpenAI将公开分享所采纳的改进措施。因此,有理由得出结论,无论下一代“前沿模型”是什么,至少它在90天内不会发布。委员会中,除了董事会成员,还包括:OpenAI的技术和政策专家Aleksander Madry(Preparedness团队的负责人)、Lilian Weng(安全系统负责人)、John Schulman(对齐科学负责人)、Matt Knight(安全负责人)和Jakub Pachocki(首席科学家)。此外,OpenAI还聘请了外部网络安全和技术专家,比如Rob Joyce、John Carlin,来提供咨询意见。不搞“超级智能”奥特曼此前,曾对外公开宣称,OpenAI终极目标是打造一种比人类先进的“超级智能”。他甚至表示,2023年自己有一半的时间都在研究“如何打造超智能”。如今这一说法,却被另一位高管否认。OpenAI负责全球事务的副总Anna Makanju在接受FT采访中提到:我们的使命是打造AGI,并非是“超级智能”。因为超级智能是一种比地球上人类高出多个数量级的技术。不过,她还补充道,“AGI还不存在,我们在确保其安全前,不会发布这样的技术”。委员会并非独立一些人批评到,新的委员会完全由OpenAI的“自己的高管”组成,这意味着对该公司安全措施的评估,将不会是独立的。还有网友调侃道,这不都是由奥特曼本人组成的安全委员会。之所以出现这样的声音,是因为OpenAI董事会去年发动的政变,成为一直以来争议的来源。2023年11月,奥特曼被董事会解雇,理由是“他并不坦诚”。而最近,由两名前董事会成员在TIME期刊上撰写的文章中,更是对奥特曼对OpenAI的治理提出了严厉的批评。她们表示,Ilya和其他安全对齐团队人员的离开,预示着OpenAI“自治实验”的前景不妙。团队重组在Ilya Sutskever和负责人Jan Leike离职后,许多人愈加担忧,OpenAI如何管理类AGI技术的潜在危险。彭博称,Ilya走后,OpenAI将他原先团队中剩余的成员,整合到了更大的研究部门,而不是保留独立的形式。与此同时,OpenAI联创John Schulman也在负责监管超级对齐研究。作为职务的扩展,他被授予了一个新头衔对齐科学负责人(Head of Alignment Science)。OpenAI宫斗内幕曝光与此同时,针对奥特曼的舆论还在持续发酵。前董事会成员Helen Toner在最近的播客频道TED AI Show上揭露了一些2023年底OpenAI“宫斗风波”的情况。她解释了董事会决定罢免奥特曼的原因隐瞒信息,歪曲事实,公然向董事会撒谎。比如2022年底ChatGPT发布时,董事会完全没有得到消息,而是在Twitter上才第一次看到。此外,他一直宣称自己在公司中没有任何经济利益,从没有告知董事会他拥有OpenAI启动基金。奥特曼在AI安全方面的表现也让Toner不安,因为他只会向董事会透露“关于公司正在实施安全流程的少量、不准确的信息”。这意味着,董事会没有办法获知这些流程的真实情况,更无从实行有效的监督和指导。而且,当她的论文中包含了对奥特曼的负面评价时,他开始不择手段,试图将Toner赶出董事会。结合此前Twitter网友历数的“七宗罪”,奥特曼带领下的安全团队,真的能让下一代模型安全可靠吗? ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人