GPT Migrate,一个基于 GPT-4 的大胆尝试,让 AI 重写整个项目代码

GPTMigrate,一个基于GPT-4的大胆尝试,让AI重写整个项目代码使用可以将原有的Python项目,用JavaScript重写为新项目,AI会自动帮你生成新的目录结构、文件命名、项目依赖包。https://github.com/0xpayne/gpt-migrate来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

相关推荐

封面图片

OPENAI威胁开发者撤下免费提供GPT-4的项目 否则将被起诉

OPENAI威胁开发者撤下免费提供GPT-4的项目否则将被起诉目前基于OPENAI提供的API接口,已经有非常多的开发者构建创意应用,只不过就目前来说要么用户自己提供API,要么向开发者支付费用获得使用权限,这一切到绕不开OPENAI提供的API。一名欧洲计算机学生新建了一个名为的开源项目,这个开源项目从多个提供提供GPT-3.5或GPT-4的网站获取查询结果,这样实际上用户不需要付费也可以使用GPT-3.5和GPT-4。这个新项目最近非常火爆,已经获得18411stars,结果万万没想到这竟然引起了OPENAI的关注,OPENAI发函要求Xtekky立即删除该项目,否则将被起诉。#ChatGPThttps://github.com/xtekky/gpt4free来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

MiniGPT-4,一个拥有类似 GPT-4 图像对话能力的项目

MiniGPT-4,一个拥有类似GPT-4图像对话能力的项目能提供类似GPT-4的图像理解与对话能力,如详细的图像描述生成、从手写草稿创建网站等。不仅如此,项目团队还在研究中还收获了意想不到的惊喜,除了能实现上述功能之外,MiniGPT-4还能根据图像创作故事和诗歌,为图像中显示的问题提供解决方案,教用户如何根据食物照片做饭等。#AI#MiniGPT-4来源(,)来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

Vercel Labs 推出 AI Playground 可用 GPT-4

VercelLabs推出AIPlayground可用GPT-4是Vercel提供的在线平台,允许用户在交互式环境中测试和对比多个AI模型,包括OpenAI的GPT-4。用户可以输入文本或代码,AI模型将根据输入生成响应。这使开发人员和非开发人员都可以轻松探索AI模型的功能、测试想法并构建AI驱动的应用程序。#AIhttps://play.vercel.ai/来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

OpenAI最新“神”操作:让GPT-4去解释GPT-2的行为

OpenAI最新“神”操作:让GPT-4去解释GPT-2的行为即:让一个AI“黑盒”去解释另一个AI“黑盒”。工作量太大,决定让GPT-4去解释GPT-2OpenAI之所以做这项研究的原因,在于近来人们对AI伦理与治理的担忧:“语言模型的能力越来越强,部署也越来越广泛,但我们对其内部工作方式的理解仍然非常有限。”由于AI的“黑盒”性质,人们很难分辨大模型的输出结果是否采用了带有偏见性质的方法,也难以区分其正确性,因而“可解释性”是亟待重要的一个问题。AI的发展很大程度上是在模仿人类,因而大模型和人脑一样,也由神经元组成,它会观察文本规律进而影响到输出结果。所以想要研究AI的“可解释性”,理论上要先了解大模型的各个神经元在做什么。按理来说,这本应由人类手动检查,来弄清神经元所代表的数据特征——参数量少还算可行,可对于如今动辄百亿、千亿级参数的神经网络,这个工作量显然过于“离谱”了。于是,OpenAI灵机一动:或许,可以用“魔法”打败“魔法”?“我们用GPT-4为大型语言模型中的神经元行为自动编写解释,并为这些解释打分。”而GPT-4首次解释的对象是GPT-2,一个OpenAI发布于4年前、神经元数量超过30万个的开源大模型。让GPT-4“解释”GPT-2的原理具体来说,让GPT-4“解释”GPT-2的过程,整体分为三个步骤。(1)首先,让GPT-4生成解释,即给出一个GPT-2神经元,向GPT-4展示相关的文本序列和激活情况,产生一个对其行为的解释。如上图所示,GPT-4对GPT-2该神经元生成的解释为:与电影、人物和娱乐有关。(2)其次,再次使用GPT-4,模拟被解释的神经元会做什么。下图即GPT-4生成的模拟内容。(3)最后,比较GPT-4模拟神经元的结果与GPT-2真实神经元的结果,根据匹配程度对GPT-4的解释进行评分。在下图展示的示例中,GPT-4得分为0.34。通过这样的方法,OpenAI共让GPT-4解释了GPT-2中的307200个神经元,其中大多数解释的得分很低,只有超过1000个神经元的解释得分高于0.8。在官博中,OpenAI承认目前GPT-4生成的解释并不完美,尤其在解释比GPT-2规模更大的模型时,效果更是不佳:“可能是因为后面的layer更难解释。”尽管绝大多数解释的得分不高,但OpenAI认为,“即使GPT-4给出的解释比人类差,但也还有改进的余地”,未来通过ML技术可提高GPT-4的解释能力,并提出了三种提高解释得分的方法:对解释进行迭代,通过让GPT-4想出可能的反例,根据其激活情况修改解释来提高分数。使用更大的模型来进行解释,平均得分也会上升。调整被解释模型的结构,用不同的激活函数训练模型。值得一提的是,以上这些解释数据集、可视化工具以及代码,OpenAI都已在GitHub上开源发布:“我们希望研究界能开发出新技术以生成更高分的解释,以及更好的工具来使用解释探索GPT-2。”(GitHub地址:https://github.com/openai/automated-interpretability)“再搞下去,AI真的要觉醒了”除此之外,OpenAI还提到了目前他们采取的方法有很多局限性,未来需要一一攻克:GPT-4给出的解释总是很简短,但神经元可能有着非常复杂的行为,不能简洁描述。当前的方法只解释了神经元的行为,并没有涉及下游影响,希望最终能自动化找到并解释能实现复杂行为的整个神经回路。只解释了神经元的行为,并没有解释产生这种行为的背后机制。整个过程都是相当密集的计算,算力消耗很大。在博文的最后,OpenAI展望道:“我们希望将我们最大的模型解释为一种在部署前后检测对齐和安全问题的方式。然而,在这些技术能够揭露不诚实等行为之前,我们还有很长的路要走。”对于OpenAI的这个研究成果,今日在国内外各大技术平台也引起了广泛关注。有人在意其得分不佳:“对GPT-2的解释都不行,就更不知道GPT-3和GPT-4内部发生了什么,但这才是许多人更关注的答案。”有人感慨AI进化的方式愈发先进:“未来就是用AI完善AI模型,会加速进化。”也有人担心AI进化的未来:“再搞下去,AI真的要觉醒了。”那么对此,你又有什么看法呢?...PC版:https://www.cnbeta.com.tw/articles/soft/1359101.htm手机版:https://m.cnbeta.com.tw/view/1359101.htm

封面图片

OpenAI 探索用 GPT-2 小模型监督 GPT-4 大模型,防止 AI 毁灭人类

OpenAI探索用GPT-2小模型监督GPT-4大模型,防止AI毁灭人类Ilya领衔的OpenAI对齐团队,发表了——用类似GPT-2监督GPT-4的方法,或可帮人类搞定自己更聪明的超级AI!团队声称,已经发现了对超人类模型进行实证对齐的新研究方向。未来超级AI系统对齐的一个核心挑战——人类需要监督比自己更聪明人工智能系统。来源,频道:@kejiqu群组:@kejiquchat

封面图片

【OKX Jumpstart上线新项目GPT(QnA3.AI)】

【OKXJumpstart上线新项目GPT(QnA3.AI)】2024年02月22日03点23分2月22日,据官方消息,OKXJumpstart上线新项目上线新项目GPT(QnA3.AI)。用户可于2024年2月26日UTC时间上午6:00开始质押BTC和ETH,以换取GPT代币。本次OKXJumpstart限台湾、土耳其、俄罗斯、乌克兰、格鲁吉亚、白俄罗斯、哈萨克斯坦、亚美尼亚、摩尔多瓦、阿塞拜疆、塔吉克斯坦、吉尔吉斯斯坦、土库曼斯坦KYC用户参与。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人