OpenAI宣布“漏洞赏金计划”:最高奖励2万美元

OpenAI宣布“漏洞赏金计划”:最高奖励2万美元 OpenAI旗下的生成式AI机器人ChatGPT正红得发紫,但其中不少漏洞也让监管部门、投资者和用户充满担忧。 为了解决其中的漏洞,4月11日周二,OpenAI宣布,将公开悬赏200至2万美元的赏金,以帮助该公司查找其人工智能系统中的错误,例如广受欢迎的ChatGPT聊天机器人。赏金的多少将按照用户发现的bug的重要性来决定,如果想要得到2万美元的赏金,那么必须是公司认定的“特殊发现”。 OpenAI的安全主管 Matthew Knight 说:这一举措是我们致力于开发安全和先进人工智能的重要组成部分。在我们创造安全、可靠和值得信赖的技术和服务时,我们需要您的帮助。 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

相关推荐

封面图片

AMD 推出"漏洞赏金猎人"计划 发现漏洞者最高可获3万美元奖励

AMD 推出"漏洞赏金猎人"计划 发现漏洞者最高可获3万美元奖励 此外,AMD还透露了一个奖励机制,根据该机制,参与该活动的人员将获得现金奖励,奖金根据所发现漏洞的严重程度和各自的级别而有所不同。以下是"漏洞猎人"的奖励方式:图片来源:IntigritiIntigriti其实,漏洞赏金在业内并不新鲜,因为它是公司应对漏洞的一种好方法,无需在检测过程中投入太多。通常情况下,个人首先要深入生态系统检测某个特定的漏洞,完成检测后,他们就会向组织发送一份报告,详细描述该漏洞并披露其潜在影响。在此基础上,实施赏金计划的组织会根据多种因素(其中之一是漏洞严重性)给予猎人相应的奖励。有趣的是,Google的"漏洞奖励计划"(VRP)过去在漏洞赏金领域取得了成功。根据该计划,Google总共向研究人员奖励了 3100 万美元,通过该计划,Android生态系统中的多个漏洞也被检测到并得到缓解。众所周知,特斯拉和 Meta 等主流公司也推出了类似的计划,因为这对研究人员和公司来说都是双赢的局面。由于AMD扩大了范围,现在允许公共研究人员参与到这一过程中,因此我们很有兴趣继续观察 AMD 的新漏洞悬赏计划能取得什么样的成果。 ... PC版: 手机版:

封面图片

谷歌在2023年支付了1000万美元的漏洞奖金 价值最高的漏洞报告获11.3万美元奖励

谷歌在2023年支付了1000万美元的漏洞奖金 价值最高的漏洞报告获11.3万美元奖励 在 2022 年谷歌向研究人员支付 1,200 万美元的奖金,而在 2023 年谷歌支付了 1,000 万美元的奖金,尽管略低于 2022 年,不过这仍然是一笔非常可观的奖励。谷歌公布的数据显示,2023 年谷歌共向 68 个国家或地区的 632 名研究人员支付了奖金,如果算平均的话,每个人获得 15,822 美元的奖金。不过这种算平均没有意义,多数漏洞的奖金比较低,一些漏洞的奖金非常高,例如在 2023 年单一漏洞报告的最高奖励是 113,337 美元 (约合人民币 81. 万元,注:这里说的是单一漏洞报告而不是单一漏洞,一个报告可能涉及完整的攻击链、里面可能包含多个漏洞利用)在 2023 年占比最高的依然是 Android 系统,谷歌为 Android 方面的漏洞支付了 340 万美元,为了吸引更多研究人员帮助谷歌排查 Android 的漏洞,谷歌还将 Android 平台的单一漏洞奖励提高到最高 15000 美元的奖励。以下是谷歌对 2023 年漏洞赏金计划的总结:推出额外奖励计划,为特定目标提供额外奖励 (例如在去年 6 月 1~12 月 31 日针对 Chrome 沙盒逃逸漏洞的奖金翻倍)将额外奖励计划扩展到 Chrome 和 Cloud,其中以 v8 CTF 为重点,关注 Chrome v8 引擎的安全性针对第一方 Android 应用程序的移动 VRP 启用 (面向谷歌自家预装应用的安全计划)推出 Bughunters 博客,分享互联网见解和安全措施在东京举办 ESCAL8 安全会议,以现场黑客活动、研讨会和讲座为特色自 2010 年谷歌启动漏洞赏金计划以来,谷歌累计支付的奖金高达 5,900 万美元。 ... PC版: 手机版:

封面图片

OpenAI 开始为 ChatGPT 提供漏洞赏金 - 但越狱聊天机器人没有奖励

OpenAI 开始为 ChatGPT 提供漏洞赏金 - 但越狱聊天机器人没有奖励 OpenAI ,鼓励公众发现并披露其AI服务 (包括ChatGPT) 中的漏洞。奖励从"低严重性"的200美元到"特殊发现"的20000美元不等,报告可通过众包网络安全平台提交。 值得注意的是,赏金不包括越狱 ChatGPT 或导致其生成恶意代码或文本的奖励。OpenAI 表示,这种"模型安全问题不适合漏洞赏金计划,因为它们不是可以直接修复的单个离散错误。解决这些问题通常涉及大量研究和更广泛的方法,此类问题的报告应通过公司的模型反馈页面提交。"

封面图片

OpenAI今天宣布推出总额为1000万美元的“超对齐快速资助计划”,旨在支持针对超人工智能系统的对齐和安全性的技术研究。该计划

OpenAI今天宣布推出总额为1000万美元的“超对齐快速资助计划”,旨在支持针对超人工智能系统的对齐和安全性的技术研究。该计划将重点支持弱到强泛化、可解释性、可扩展监督等方面的研究。 OpenAI相信超级智能有可能在未来10年内诞生。这些人工智能系统将具有广泛的能力,可能带来巨大的益处,但也可能带来巨大的风险。目前,我们通过人类反馈的强化学习来确保AI系统的安全。然而,对齐未来的超人工智能系统将面临根本性的新挑战。超人工智能系统将能够展现出人类无法完全理解的复杂和创造性行为。例如,如果一个超人工智能模型生成了一百万行极其复杂的代码,人们将无法可靠地评估这些代码的安全性和危险性。依赖于人类监督的现有对齐技术,如强化学习,可能不再足够。这带来了一个基本性的挑战:人类如何引导和信任比他们聪明得多的AI系统?这是世界上最重要的尚未解决的技术问题之一。但我们认为,通过共同的努力,这个问题是可以解决的。目前有许多有希望的方法和令人兴奋的方向,以及许多唾手可得的成果。我们认为,今天机器学习研究社区和个人研究者在解决这个问题上有巨大的机会。 作为我们的“超对齐”项目的一部分,我们希望汇聚世界上最优秀的研究人员和工程师,迎接这一挑战,我们对能够吸引新的人才进入该领域尤为兴奋。 在与Eric Schmidt的合作下,我们推出了一个总额为1000万美元的资助计划,以支持针对确保超人工智能系统对齐和安全的技术研究。我们将向学术实验室、非营利组织和个人研究者提供10万美元至200万美元不等的资助。对于研究生学生,我们将提供为期一年的OpenAI超对齐奖学金,总额为15万美元,其中包括7.5万美元的生活津贴和7.5万美元的计算资源和研究经费。申请者不需要有对齐方面的先前经验,我们积极寻找首次从事对齐研究的研究者。我们的申请流程简单,并将在申请截止后的四个星期内回复申请者。请在2月18日前提交申请。 通过这些资助计划,我们特别关注以下研究方向: 从弱到强的概括:相对于超人工智能模型,人类将是弱监督者。我们能否理解和控制强模型如何从弱监督中的泛化能力? 可解释性:我们如何理解模型的内部结构?我们可以用它来构建人工智能测谎仪吗? 可扩展的监督:我们如何使用人工智能系统来帮助人类评估其他人工智能系统在复杂任务上的输出? 许多其他研究方向,包括但不限于:诚实、思想链忠实性、对抗性鲁棒性、评估和测试平台等。 via 匿名 标签: #OpenAI #AI 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

微软和 OpenAI 推出200万美元基金以打击选举深度造假

微软和 OpenAI 推出200万美元基金以打击选举深度造假 微软和 OpenAI 宣布设立200万美元基金,以应对人工智能和深度造假被用来“欺骗选民和破坏民主”的日益增长的风险。根据博文,微软和 OpenAI 的新“Societal Resilience 基金”致力于“在选民和弱势社区中进一步开展人工智能教育和扫盲” 。这将涉及向少数组织发放赠款,包括老年人技术服务 (OATS)、内容来源和真实性联盟 (C2PA)、国际民主和选举援助研究所 (International IDEA) 和人工智能伙伴关系 (PAI)。据微软称,这些赠款旨在让全社会更好地了解人工智能及其能力。

封面图片

【PW热点】OpenAI推出漏洞赏金计划,奖励最高2万美元 #抽屉IT

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人