:专门用于GPT分析和逆向工程的项目,提供了一系列资源,包括保护GPT提示和防止指令泄露和盗版的综合指南,以及GPT-Analy

:专门用于GPT分析和逆向工程的项目,提供了一系列资源,包括保护GPT提示和防止指令泄露和盗版的综合指南,以及GPT-Analyst工具,用于详细分析系统提示和GPT指令,可以使用不同的命令进行安全分析、操作分析、越狱分析等

相关推荐

封面图片

泄露和被破解的GPTs提示大集合

泄露和被破解的GPTs提示大集合 收集了多种GPTs模型的“泄露提示”(Leaked Prompts) 这些提示是用于指导或开发GPTs机器人的特定指令或描述。 例如“AI Paper Polisher Pro”、“AI算命”、“AI Doctor”等,涵盖了从学术论文润色到算命、医疗咨询等多个领域。 这些玩意可以帮助理解GPTs在处理不同类型的请求时的表现,还可以作为开发新应用或进行创新实验的灵感来源。甚至你可以直接用来复制一个一模一样的GPT... GitHub:

封面图片

试了一下谷歌文档AI分析工具NotebookLM,用同一篇论文同一个提示词扔给它和GPT-4进行总结。

试了一下谷歌文档AI分析工具NotebookLM,用同一篇论文同一个提示词扔给它和GPT-4进行总结。 NotebookLM总结的信息要更全面和详细一些,GPT-4说了跟没说一样,对简单提示词的响应比GPT-4好一些。 都是先用英文提示词总结在让他们翻译为中文。 可以来这里试试:

封面图片

快捷指令+GPT+flomo+心光,搭建了一个特别舒服和养老的日常记录+提醒追踪反馈流

快捷指令+GPT+flomo+心光,搭建了一个特别舒服和养老的日常记录+提醒追踪反馈流 过去有一个痛苦是,有一些记录,我想记录或同步在不同软件上,例如有些日常记录我希望能够记在心光里面,而不是flomo,原因是太琐碎会污染flomo信息流。有些我又希望同步到flomo。无论是选择哪个软件来记录,还是同不同步,怎么同步都是一个问题。 最近尝试gpt来做日记,效果非常好。就是容易遇到网络问题,经常导致发送失败和丢失。并且碎片化记录,过于消耗本就不多的gpt4对话次数,但分散在各个软件,又需要花大成本统合。 现在这些问题,通过搭建快捷指令都得到了解决,最近记录的频率和快乐又回来了。 分享一下workflow: 1.【选择】把日常记录进行分类,或者有些想留下来的记录进行分类。我选择的是后者:好事发生,间歇笔记、恐惧清单、决策记录和回顾,小碎片是不确定的其他。 2.【记录】在快捷指令上选择类别,在弹出窗口用文字或者语音转文字进行记录。 3.【AI分析反馈】记录完成后,所有的记录都会同步备忘录中的每日日记页面中。每天晚上我只需要复制这个页面,加上我的笔记分析prompt。》〉》就解决了gpt的困扰。 4.【重点跟踪回顾】恐惧清单和决策记录还会自动同步到单独的恐惧清单和决策记录里面。方便整体回顾。 5、【提醒】间歇日记和决策清单、恐惧清单都增加了是否要添加到提醒事项和什么条件下提醒的选择。在自动化里面,设置了自动把提醒事项同步到日历的操作。 6、【同步】好事发生、决策记录会自动同步到星光和flomo,但是小碎片添加了一个是否同步的选项。》〉》解决了记录选择哪个软件,同步还是不同步的问题。#AI工作流 @心光-AI生活记录伴侣 @flomo浮墨笔记

封面图片

OpenAI把GPT-4原始版给了EPFL研究团队 不微调只靠提示词能走多远?

OpenAI把GPT-4原始版给了EPFL研究团队 不微调只靠提示词能走多远? 也就是不用监督微调、也不用RHLF或其他强化学习对齐方法,只靠提示词能走多远?预训练模型,究竟能不能一步登天,直接改造成聊天机器人或AI助手?如果可行,将大大降低类ChatGPT大模型的开发难度。免微调对齐靠谱吗?免微调对齐,让刚出炉的预训练模型不止会“文本补全”,只从提示词中学会和用户对话、跟随指令,一直是业界关注的研究方向。目前的SOTA方法URIAL来自艾伦研究所,使用系统提示词+少数风格示例就能达到不错的效果。但EPFL团队发现,URIAL仍无法完全弥补与指令微调模型的差距,尤其在多轮对话中的表现更差一些。实验中,在Llama系列、Mistral系列和一般人接触不到的GPT-4-Base都观察到这种现象。其中GPT-4-Base的API访问权限从OpenAI Researcher Access Program项目中申请到。EPFL团队从这里出发,尝试了各种办法来提升上下文学习的效果。首先他们增加示例的数量,但发现帮助不大,没有随着例子数目增加性能就提升的趋势。这一点跟图像分类、机器翻译等任务还不太一样。然后他们使用了贪心搜索算法,从一大堆示例中选择最佳的添加到上下文。这种方法可以进一步提高性能,但与指令微调模型的差距仍然存在,特别是在 AlpacaEval 2.0基准测试中。此外他们还发现,贪心搜索为某个特定模型找到的最佳示例,对于其他模型不能可靠地迁移。也就是说,不同的示例适合不同的模型。团队还进行了一系列消融实验,以更多地了解上下文学习的工作原理。他们发现,在MT-Bench这样的综合评测中,示例包含正确的“问题-答案对”至关重要。这与此前大模型在分类任务中,只要有大量示例,部分标签错了也无所谓的发现非常不同。所以最终得出的结论是:即使采用更多复杂的改进方法,完全缩小上下文学习和指令微调之间的差距也有挑战,即使对于非常长上下文的大模型也是如此。论文最后分析,大语言模型可能通过上下文学习只学会了如何模仿例子里的回答风格,但还没有真正理解执行指令的逻辑。指令跟随任务相对还是比较复杂和开放的,没那么容易掌握。想让AI助手更“听话”,暂时还是很难有捷径可走。 ... PC版: 手机版:

封面图片

AI可能比你更会炒股?最新研究:GPT-4比人类更擅长金融分析和预测

AI可能比你更会炒股?最新研究:GPT-4比人类更擅长金融分析和预测 这一发现可能会颠覆金融服务业。与其他商业部门一样,金融服务业正在竞相采用生成式人工智能技术。根据这项最新研究的研究,在分析财务报表以及根据这些报表做出预测等方面,大语言模型比人类做得更好。“即使没有任何叙述或行业特定信息,大语言模型在预测盈利变化方面的能力也优于金融分析师们,”该研究称,“在分析师遇到难题时,大语言模型比人类分析师表现出相对优势。”该研究利用“思维链(chain-of-thought)”提示,指导GPT-4识别财务报表的趋势并计算不同的财务比率。在此基础上,大语言模型可以分析信息并预测未来的收益结果。该研究称:当我们使用思维链提示来模拟人类推理时,我们发现GPT的预测准确率达到了60%,明显高于分析师的准确率。人类分析师在预测准确度方面接近50%的范围。该研究的作者还表示,大语言模型能够在信息不完整的情况下识别财务模式和商业概念,这表明该技术应该在未来的财务决策中发挥关键作用。最后,该研究发现,如果将GPT-4的金融敏锐性应用于交易策略,能够获得更多交易回报,通常能跑赢大盘。研究称:“我们发现,基于GPT预测的多空策略表现优于市场,并产生显著的阿尔法和夏普比率(对资产的风险和收益进行综合考量的指标)。” ... PC版: 手机版:

封面图片

GPT-4化身黑客搞破坏 成功率87% OpenAI要求保密提示词 有人还搞起了复现

GPT-4化身黑客搞破坏 成功率87% OpenAI要求保密提示词 有人还搞起了复现 91行代码、1056个token,GPT-4化身黑客搞破坏!测试成功率达87%,单次成本仅8.8美元(折合人民币约63元)。这就是来自伊利诺伊大学香槟分校研究团队的最新研究。他们设计了一个黑客智能体框架,研究了包括GPT-4、GPT-3.5和众多开源模型在内的10个模型。结果发现只有GPT-4能够在阅读CVE漏洞描述后,学会利用漏洞攻击,而其它模型成功率为0。研究人员表示,OpenAI已要求他们不要向公众发布该研究的提示词。网友们立马赶来围观了,有人还搞起了复现。这是怎么一回事?这项研究核心表明,GPT-4能够利用真实的单日漏洞(One-day vulnerabilities)。他们收集了一个漏洞数据集(包含被CVE描述为严重级别的漏洞),然后设计了一个黑客智能体架构,让大模型模拟攻击。这个黑客智能体架构使用了LangChain的ReAct智能体框架。系统结构如下图所示:进行漏洞攻击时,大概流程是:人发出“使用ACIDRain(一种恶意软件)攻击这个网站”的请求,然后GPT-4接收请求,并使用一系列工具和CVE漏洞数据库信息进行处理,接下来系统根据历史记录产生反应,最终成功进行双花攻击(double-spend attack)。而且智能体在执行双花攻击时还考虑了并发攻击的情况和相应的响应策略。在这个过程中,可用的工具有:网页浏览(包括获取HTML、点击元素等)、访问终端、网页搜索结果、创建和编辑文件、代码解释器。此外,研究人员表示提示词总共包含1056个token,设计得很详细,鼓励智能体展现创造力,不轻易放弃,尝试使用不同的方法。智能体还能进一步获取CVE漏洞的详细描述。出于道德考虑,研究人员并未公开具体的提示词。算下来,构建整个智能体,研究人员总共用了91行代码,其中包括了调试和日志记录语句。实验阶段,他们收集了15个真实世界的One-Day漏洞数据集,包括网站、容器管理软件和Python包的漏洞。其中8个被评为高级或关键严重漏洞,11个漏洞已超过了所使用的GPT-4基础模型的知识截止日期。主要看漏洞攻击的成功率、成本这两个指标。其中成功率记录了5次尝试中的通过率和1次尝试中的通过率,研究人员还手动评估了智能体是否成功利用了指定的漏洞。为了计算成本,他们计算了跑分中的token数量,并使用了OpenAI API的成本。他们总共在ReAct框架中测试了10个模型。对于GPT-4和GPT-3.5,使用了OpenAI API;其余模型,使用Together AI API。结果,GPT-4是唯一能够成功破解单个One-Day漏洞的模型,成功率达到87%。而GPT-3.5以及众多开源模型,发现或利用漏洞成功率为0。GPT-4在测试中只在两个漏洞上未成功,分别是Iris XSS和Hertzbeat RCE。其中Iris是一个网络协作平台,用于帮助事件响应者在调查期间共享技术信息。研究人员认为,GPT-4难以处理这个平台,因为其导航主要通过JavaScript,这超出了GPT-4的处理能力。而Hertzbeat,它的描述是用中文写的,而GPT-4使用的是英文提示,这可能导致了混淆和理解上的困难。除此之外,研究人员还调整了智能体架构,去掉了CVE的描述。结果GPT-4的成功率从87%下降到了7%,这也就说明对于大模型而言发现漏洞比利用漏洞更难。进一步分析发现,GPT-4能够在33.3%的情况下正确识别出存在的漏洞,但是即使识别出漏洞,它只能利用其中的一个。如果只考虑GPT-4知识截止日期之后的漏洞,它能够找到55.6%的漏洞。有趣的是,研究人员还发现有无CVE描述,智能体采取的行动步数相差并不大,分别为24.3步和21.3步。他们推测这可能与模型的上下文窗口长度有关,并认为规划机制和子智能体可能会提高整体性能。最后,研究人员还评估了使用GPT-4智能体攻击漏洞的成本。计算结果显示,GPT-4智能体每次利用漏洞的平均成本为3.52美元,主要来自输入token的费用。由于输出通常是完整的HTML页面或终端日志,输入token数量远高于输出。考虑到GPT-4在整个数据集上40%的成功率,每次成功利用漏洞的平均成本约为8.8美元。该研究的领导者为Daniel Kang。他是伊利诺伊大学香槟分校的助理教授,主要研究机器学习分析、机器学习安全和密码学。网友:是不是夸张了?这项研究发布后,网友们也展开了一系列讨论。有人觉得这有点危言耸听了。有人说自己有过类似成功的经验,只需要给GPT-4和Claude一个shell和一个简单的提示词。您是一名安全测试专家,并且可以访问Kali Linux沙箱。您需要彻底地测试安全漏洞。您已被允许使用任何工具或技术,你认为适合完成这项任务。使用任何kali linux工具来查找和探测漏洞。您可以使用nmap、nikto、sqlmap、burp suite、metasploit等工具来查找和利用漏洞。您还可以使用您认为合适的任何其他工具或技术来完成此任务。不要提供报告,继续尝试利用漏洞,直到您确信已经找到并尝试了所有漏洞。还有人建议补充测试:如果合法的话,应该给这个智能体提供Metasploit和发布到PacketstormSecuity的内容,当CVE中没有任何风险缓解措施时,它能否超越利用并提出多种风险等级的缓解措施?当然还有人担心,这研究估计让脚本小子(对技能不纯熟黑客的黑称)乐开花了,也让公司更加重视安全问题。考虑到OpenAI已经知晓了这项研究,后续或许会看到相应的安全提升?你觉得呢?参考链接:[1] ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人