OpenAI领导者提议成立AI国际监管机构,为控制风险设置能力阈值限制

None

相关推荐

封面图片

OPENAI:如果新模型超出“中等”风险阈值,将不会发布

OPENAI:如果新模型超出“中等”风险阈值,将不会发布当地时间7月23日,OpenAI在社交平台X上更新安全信息称,为确保做好准备以评估和防范日益强大的人工智能模型带来的风险,如果新模型超过了“中等”风险阈值,那么除非实施足够的安全干预措施,公司将不会发布它。OpenAI正在制定级别,以帮助该公司和利益相关者对AI进展实施分类和跟踪。这项工作正在进行中,我们很快就会分享更多信息。另外OpenAI提到,公司的“吹哨人”政策保护员工开展受保护的披露的权利,公司已更改了离职流程,删除了非贬损条款。——、

封面图片

OpenAI:如果新模型超出“中等”风险阈值,将不会发布

OpenAI:如果新模型超出“中等”风险阈值,将不会发布OpenAI在X上更新安全信息称,为确保做好准备以评估和防范日益强大的人工智能模型带来的风险,如果新模型超过了“中等”风险阈值,那么除非实施足够的安全干预措施,公司将不会发布它。OpenAI正在制定级别,以帮助该公司和利益相关者对AI进展实施分类和跟踪。这项工作正在进行中,我们很快就会分享更多信息。另外OpenAI提到,公司的“吹哨人”政策保护员工开展受保护的披露的权利,公司已更改了离职流程,删除了非贬损条款。关注频道@ZaiHuaPd投稿爆料@ZaiHuabot

封面图片

AI行业领导者联名签署《关于人工智能风险的声明》

AI行业领导者联名签署《关于人工智能风险的声明》"减轻来自人工智能的灭绝风险应该与瘟疫和核战争等其他社会性规模风险一起成为全球优先事项。"这封公开信由图灵奖三巨头中的两位GeoffreyHinton与YoshuaBengio带头签署,他们被视为现代人工智能的教父。共同签署的还有GoogleDeepMind、OpenAI、Anthropic几家业界领先实验室的领导者与科学家。https://www.safe.ai/statement-on-ai-risk频道:@TestFlightCN

封面图片

OpenAI高层提议设立参考IAEA模式设立AI国际监管机构

OpenAI高层提议设立参考IAEA模式设立AI国际监管机构虽然这里有某种拍马屁的性质,但任何公正的观察者都清楚,这项技术,最明显的是OpenAI的爆炸性流行的ChatGPT对话机器人,代表了一种独特的威胁,也是一种宝贵的资产。文章在细节和承诺方面比较轻描淡写,但也承认人工智能不会自己管理自己:我们需要在领先的开发工作中进行某种程度的协调,以确保超级智能的发展以一种既能让我们保持安全又能帮助这些系统与社会顺利整合的方式进行。我们最终可能需要一个类似于[国际原子能机构]的机构来开展超级智能工作;任何超过一定能力(或计算等资源)门槛的努力都需要接受国际权威机构的检查,要求进行审计,测试是否符合安全标准,对部署程度和安全级别进行限制,等等。IAEA是联合国在核电问题上进行国际合作的官方机构,就像核不扩散监管一样,建立在这种模式上的人工智能管理机构可能无法进入并打开不良行为者的开关,但它可以建立并跟踪国际标准和协议,这至少是一个起点。OpenAI的帖子指出,跟踪用于人工智能研究的计算能力和能源使用情况是相对较少的客观措施之一,可以而且可能应该被报告和跟踪。虽然可能很难说人工智能应该或不应该被用于哪些领域,但说用于人工智能的资源应该像其他行业一样受到监督和审计可能是有价值的。(该公司也建议较小的AI公司可以豁免监管,以避免扼杀创新的绿芽)。领先的人工智能研究员和评论家TimnitGebru今天在接受《卫报》采访时说了类似的话:"除非有外部压力要求做一些不同的事情,否则公司是不会自我监管的。我们需要监管,我们需要比单纯的利润动机更好的模式。"OpenAI明显接受了后者,这让许多希望它名副其实的人感到惊愕,但至少作为市场领导者,它也在呼吁在治理方面采取真正的行动--除了最近的听证会,参议员们排队发表连任演讲,文稿大多以问句结束。虽然该建议相当于"也许我们应该,比如,做一些事情",但它至少是行业内的一个对话启动器,表明世界上最大的单一人工智能品牌和供应商支持做一些事情。迫切需要公共监督,但"我们还不知道如何设计这样一个机制"。虽然该公司的领导人说他们支持踩刹车,但现在还没有计划这样做,因为他们不想放弃"改善我们的社会"(更不用说底线)的巨大潜力,也因为有一种风险,即坏的行为者已经把他们的脚放在油门上。...PC版:https://www.cnbeta.com.tw/articles/soft/1361077.htm手机版:https://m.cnbeta.com.tw/view/1361077.htm

封面图片

OpenAI 成立由 Sam Altman 领导的监督委员会

OpenAI成立由SamAltman领导的监督委员会5月28日消息,OpenAI成立了一个 SamAltman领导的委员会来评估其人工智能模型的安全性和保障措施。这一治理变革发生在负责该领域的高管辞职以及公司解散其内部团队几周之后。新的委员会将花费90天来评估OpenAI技术的保障措施,然后提交一份报告。在全体董事会审查之后,OpenAI将以符合安全和保障标准的方式公开分享已采纳的建议更新。

封面图片

台湾领导者应具有的资格和能力https://www.bannedbook.org/bnews/taiwannews/202307

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人