OpenAI发布AI安全指南:董事会有权阻止新AI模型发布人工智能(AI)研究公司OpenAI公布了一套关于防范AI风险的指导方

None

相关推荐

封面图片

OpenAI发布新规则:董事会有权阻止发布AI模型

封面图片

OpenAI 成立“防备”预警团队:董事会有权阻止新 AI 模型发布

OpenAI成立“防备”预警团队:董事会有权阻止新AI模型发布OpenAI公司日前宣布成立新的“防备(Preparedness)”团队,旨在监控旗下技术可能带来的潜在威胁,防止其落入坏人之手,甚至被用于制造化学和生物武器。该团队由麻省理工学院人工智能教授亚历山大・马德里(AleksanderMadry)领导,将招募人工智能研究人员、计算机科学家、国家安全专家和政策专家等,对OpenAI开发的技术进行持续监测和测试,一旦发现任何危险苗头,及时向公司发出警告。防备团队每月将向一个新的内部安全咨询小组发送报告,阿尔特曼和公司高层可以根据这些报告决定是否发布新的AI系统,但董事会有权撤销这一决定。来源,频道:@kejiqu群组:@kejiquchat

封面图片

OpenAI发布指导意见:董事会能够阻止CEO发布新款AI模型,哪怕公司领导层认为AI模型是安全的。

封面图片

OpenAI 发布灾备架构应对大模型风险:董事会有权推翻决策

OpenAI发布灾备架构应对大模型风险:董事会有权推翻决策当地时间12月18日,OpenAI在官网发布灾备架构初始版本,描述其应对流程以跟踪、评估、预测和防范日益强大的模型带来的灾难性风险。OpenAI规定了四个安全风险等级,并表示只有得分在“中”或以下的模型才能部署。OpenAI表示,其将会成立专责小组,监察技术工作,并建立安全决策的运行架构,“我们正在建立一个跨职能的安全咨询小组,审查所有报告,并将报告同时提交领导层和董事会。虽然领导层是决策者,但董事会有权推翻决策”。此外,OpenAI将制定加强安全和外部问责的协议。灾备小组将定期进行安全演习,以测试其业务压力和公司文化。

封面图片

OpenAI发布ModelSpec文件,旨在指导AI模型的行为

封面图片

美英等国发布人工智能系统开发联合指南,要求使AI“通过设计变得安全”

美英等国发布人工智能系统开发联合指南,要求使AI“通过设计变得安全”路透华盛顿11月27日-美国、英国和其他十几个国家周日公布了美国高级官员所说的第一份关于如何保护人工智能免受流氓行为者侵害的详细国际协议,敦促企业创建“设计安全”的人工智能系统。在周日公布的一份长达20页的文件中,18个国家一致认为,设计和使用人工智能的公司需要以确保客户和广大公众免受滥用的方式开发和部署人工智能。该协议不具有约束力,主要包含一般性建议,例如监控人工智能系统是否被滥用、保护数据免遭篡改以及审查软件供应商。除美国和英国外,签署新指南的18个国家还包括德国、意大利、捷克共和国、爱沙尼亚、波兰、澳大利亚、智利、以色列、尼日利亚和新加坡。——

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人