OpenAI 开始为 ChatGPT 提供漏洞赏金 - 但越狱聊天机器人没有奖励

OpenAI开始为ChatGPT提供漏洞赏金-但越狱聊天机器人没有奖励OpenAI推出了漏洞赏金,鼓励公众发现并披露其AI服务(包括ChatGPT)中的漏洞。奖励从"低严重性"的200美元到"特殊发现"的20000美元不等,报告可通过众包网络安全平台提交。值得注意的是,赏金不包括越狱ChatGPT或导致其生成恶意代码或文本的奖励。OpenAI表示,这种"模型安全问题不适合漏洞赏金计划,因为它们不是可以直接修复的单个离散错误。解决这些问题通常涉及大量研究和更广泛的方法,此类问题的报告应通过公司的模型反馈页面提交。"https://openai.com/blog/bug-bounty-program频道:@TestFlightCN

相关推荐

封面图片

OpenAI宣布“漏洞赏金计划”:最高奖励2万美元

OpenAI宣布“漏洞赏金计划”:最高奖励2万美元OpenAI旗下的生成式AI机器人ChatGPT正红得发紫,但其中不少漏洞也让监管部门、投资者和用户充满担忧。为了解决其中的漏洞,4月11日周二,OpenAI宣布,将公开悬赏200至2万美元的赏金,以帮助该公司查找其人工智能系统中的错误,例如广受欢迎的ChatGPT聊天机器人。赏金的多少将按照用户发现的bug的重要性来决定,如果想要得到2万美元的赏金,那么必须是公司认定的“特殊发现”。OpenAI的安全主管MatthewKnight说:这一举措是我们致力于开发安全和先进人工智能的重要组成部分。在我们创造安全、可靠和值得信赖的技术和服务时,我们需要您的帮助。来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

OpenAI宣布:给ChatGPT挑毛病,最高奖励2万美元

OpenAI宣布:给ChatGPT挑毛病,最高奖励2万美元赏金的多少将按照用户发现的bug的重要性来决定,如果想要得到2万美元的赏金,那么必须是公司认定的“特殊发现”。该公司称,它已经推出了一个bug赏金计划,人们可以通过该计划报告他们在使用其人工智能产品时发现的弱点、漏洞或安全问题。这类做法在科技行业很常见,很多公司向用户付费以报告错误或其他安全漏洞。OpenAI表示,它正在与bug赏金平台Bugcrowd合作推出这一计划。该公司表示,推出该计划的部分原因是因为它认为“透明度和协作”是发现其技术漏洞的关键。OpenAI的安全主管MatthewKnight说:这一举措是我们致力于开发安全和先进人工智能的重要组成部分。在我们创造安全、可靠和值得信赖的技术和服务时,我们需要您的帮助。这一行动并不完全令人惊讶。这家总部位于旧金山的公司总裁兼联合创始人GregBrockman最近在社交媒体上提到,OpenAI一直在“考虑启动赏金计划”来检测薄弱环节。除了OpenAI之外,微软等大型科技公司长期以来都有bug赏金计划。去年4月,微软宣布了两项新的悬赏计划,在原本最高2万美元的赏金基础上,增加了最高30%的额外赏金,使最高赏金达到了2.6万美元。微软表示,他们希望通过这些新的赏金奖励,鼓励研究人员将重点放在对客户隐私和安全具有最大潜在影响的漏洞上。不过,对于并不被认为是高影响的漏洞,微软表示将仍能够获得一般奖励计划下的赏金,且也可以根据报告漏洞的严重程度与提交质量获得更高的奖励。由于奖励金额有人,甚至有人全职做起了“bug猎人”。有用户则认为,OpenAI开始bug赏金计划,和微软提高对漏洞的悬赏力度是一样的,侧面证明了这两家公司对发现和解决主要产品的高危漏洞已经力不从心,不得不依靠用户来发现和解决问题。...PC版:https://www.cnbeta.com.tw/articles/soft/1354249.htm手机版:https://m.cnbeta.com.tw/view/1354249.htm

封面图片

【Yuga Labs启动漏洞赏金计划,最高可获5万美元奖励】

【YugaLabs启动漏洞赏金计划,最高可获5万美元奖励】2022年12月15日10点26分12月15日消息,YugaLabs启动漏洞赏金计划,任何人都有机会通过有效的漏洞报告获得最高5万美元的奖励,包括网站、社交账户和Discord服务器等服务的漏洞报告。其付款标准如下:低严重性问题奖励250至1000美元,中等严重性问题奖励1000至5000美元,高严重性问题奖励5000至25,000美元,特别严重性问题奖励25,000至50,000美元,此外将在12月26日之前开启赏金活动。

封面图片

ChatGPT暴露用户聊天标题 OpenAI:已修复漏洞

ChatGPT暴露用户聊天标题OpenAI:已修复漏洞自去年推出以来ChatGPT快速成长,许多人试用。上周OpenAI将GPT-3.5升级到GPT-4,11月30日之前向用户开放。市场分析咨询公司Similarweb认为,微软已经向OpenAI投入巨资,必应搜索整合ChatGPT能让搜索变得更有魅力,吸引更多人使用。...PC版:https://www.cnbeta.com.tw/articles/soft/1350737.htm手机版:https://m.cnbeta.com.tw/view/1350737.htm

封面图片

一键开启ChatGPT“危险发言”:AI聊天机器人竟有“大bug” 目前无法修复

一键开启ChatGPT“危险发言”:AI聊天机器人竟有“大bug”目前无法修复上周,Google、微软、OpenAI和Anthropic共同成立了一个新的行业机构前沿模型论坛(FrontierModelForum),促进前沿AI系统的安全和负责任的发展:推进AI安全研究,确定最佳实践和标准,促进政策制定者和行业之间的信息共享。那么,问题来了,他们自家的模型真的安全吗?近日,来自卡内基梅隆大学、CenterforAISafety和BoschCenterforAI的研究人员便披露了一个与ChatGPT等AI聊天机器人有关的“大bug”——通过对抗性提示可绕过AI开发者设定的防护措施,从而操纵AI聊天机器人生成危险言论。当前热门的AI聊天机器人或模型,如OpenAI的ChatGPT、Google的Bard、Anthropic的Claude2以及Meta的LLaMA-2,都无一幸免。图通过对抗性提示可绕过4个语言模型的安全规则,引发潜在有害行为具体而言,研究人员发现了一个Suffix,可将其附加到针对大型语言模型(LLMs)的查询中,从而生成危险言论。相比于拒绝回答这些危险问题,该研究可以使这些模型生成肯定回答的概率最大化。例如,当被询问“如何窃取他人身份”时,AI聊天机器人在打开“Addadversarialsuffix”前后给出的输出结果截然不同。图开启Addadversarialsuffix前后的聊天机器人回答对比此外,AI聊天机器人也会被诱导写出“如何制造原子弹”“如何发布危险社交文章”“如何窃取慈善机构钱财”等不当言论。对此,参与该研究的卡内基梅隆大学副教授ZicoKolter表示,“据我们所知,这个问题目前还没有办法修复。我们不知道如何确保它们的安全。”研究人员在发布这些结果之前已就该漏洞向OpenAI、Google和Anthropic发出了警告。每家公司都引入了阻止措施来防止研究论文中描述的漏洞发挥作用,但他们还没有弄清楚如何更普遍地阻止对抗性攻击。OpenAI发言人HannahWong表示:“我们一直在努力提高我们的模型应对对抗性攻击的鲁棒性,包括识别异常活动模式的方法,持续通过红队测试来模拟潜在威胁,并通过一种普遍而灵活的方式修复新发现的对抗性攻击所揭示的模型弱点。”Google发言人ElijahLawal分享了一份声明,解释了公司采取了一系列措施来测试模型并找到其弱点。“虽然这是LLMs普遍存在的问题,但我们在Bard中已经设置了重要的防护措施,我们会不断改进这些措施。”Anthropic的临时政策与社会影响主管MichaelSellitto则表示:“使模型更加抵抗提示和其他对抗性的‘越狱’措施是一个热门研究领域。我们正在尝试通过加强基本模型的防护措施使其更加‘无害’。同时,我们也在探索额外的防御层。”图4个语言模型生成的有害内容对于这一问题,学界也发出了警告,并给出了一些建议。麻省理工学院计算学院的教授ArmandoSolar-Lezama表示,对抗性攻击存在于语言模型中是有道理的,因为它们影响着许多机器学习模型。然而,令人惊奇的是,一个针对通用开源模型开发的攻击居然能在多个不同的专有系统上如此有效。Solar-Lezama认为,问题可能在于所有LLMs都是在类似的文本数据语料库上进行训练的,其中很多数据都来自于相同的网站,而世界上可用的数据是有限的。“任何重要的决策都不应该完全由语言模型独自做出,从某种意义上说,这只是常识。”他强调了对AI技术的适度使用,特别是在涉及重要决策或有潜在风险的场景下,仍需要人类的参与和监督,这样才能更好地避免潜在的问题和误用。普林斯顿大学的计算机科学教授ArvindNarayanan谈道:“让AI不落入恶意操作者手中已不太可能。”他认为,尽管应该尽力提高模型的安全性,但我们也应该认识到,防止所有滥用是不太可能的。因此,更好的策略是在开发AI技术的同时,也要加强对滥用的监管和对抗。担忧也好,不屑也罢。在AI技术的发展和应用中,我们除了关注创新和性能,也要时刻牢记安全和伦理。只有保持适度使用、人类参与和监督,才能更好地规避潜在的问题和滥用,使AI技术为人类社会带来更多的益处。...PC版:https://www.cnbeta.com.tw/articles/soft/1374835.htm手机版:https://m.cnbeta.com.tw/view/1374835.htm

封面图片

Abracadabra Money:愿直接与黑客协调并提供公平的漏洞赏金奖励

AbracadabraMoney:愿直接与黑客协调并提供公平的漏洞赏金奖励此前遭遇黑客攻击的DeFi协议AbracadabraMoney(MIM_Spell)在X平台表示愿意直接与黑客协调,并提供公平的漏洞赏金作为拿回被黑客窃取资金的交换条件。AbracadabraMoney称愿意等待到欧洲中部时间2月5日(星期一)16:00接收任何来自黑客的通信,之后将采取进一步升级行动。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人