美国开放人工智能研究中心成立安全委员会

美国开放人工智能研究中心成立安全委员会美国开放人工智能研究中心(OpenAI)28日表示,该公司新成立一个安全委员会,并已开始训练新人工智能模型,以取代其ChatGPT聊天机器人目前所依赖的GPT-4系统。OpenAI在当天发布的一份声明中说,该安全委员会将就其项目和运营的“关键安全决策”向董事会提供建议。委员会成员包括OpenAI首席执行官萨姆・奥尔特曼和董事会主席布雷特・泰勒,以及其他几位技术和决策专家。(新华社)

相关推荐

封面图片

美国国土安全部任命人工智能安全顾问委员会

美国国土安全部任命人工智能安全顾问委员会美国国土安全部(DHS)周五宣布成立一个顾问委员会,他们将就人工智能在16种关键基础设施中的作用向政府提供建议,包括能源、公用事业、交通、国防、信息技术、食品和农业以及金融服务等重要服务。该委员会将为交通运输部门、管道和电网运营商、互联网服务提供商和其他部门制定建议,以“预防和准备应对与人工智能相关的对影响国家或经济安全、公共健康或安全的关键服务的中断”。该委员会由22名成员组成,其中的科技领袖包括OpenAI首席执行官SamAltman、Anthropic首席执行官DarioAmodei、英伟达首席执行官黄仁勋、IBM首席执行官ArvindKrishna、Adobe首席执行官ShantanuNarayen、微软首席执行官SatyaNadella、Alphabet首席执行官SundarPichai、思科首席执行官ChuckRobbins、AWS首席执行官AdamSelipsky、​​AMD首席执行官苏姿丰以及斯坦福大学教授李飞飞。但意外的是活跃在人工智能领域的Meta公司首席执行官马克·扎克伯格和一向公开倡导人工智能安全性的埃隆·马斯克都没有出现在委员会成员名单中。——

封面图片

在解散安全团队后,OpenAI 成立了山姆·奥尔特曼参与的监督委员会

在解散安全团队后,OpenAI成立了山姆·奥尔特曼参与的监督委员会美国人工智能公司OpenAI成立了一个董事会委员会来评估其人工智能模型的安全性和保障措施,这是在其负责该领域的高管辞职以及公司解散其内部安全团队数周后做出的治理变革。新委员会将用90天时间评估OpenAI技术中的安全措施,然后提交报告。该公司28日在一篇博客文章中表示:“在全体董事会审查后,OpenAI将以符合安全和保障的方式公开分享已采纳建议的更新情况。”OpenAI还表示,最近已开始训练其最新的人工智能模型。——

封面图片

OpenAI董事会成立安全委员会,开始训练下一代AI模型

OpenAI董事会成立安全委员会,开始训练下一代AI模型OpenAI当地时间5月28日发布声明,宣布公司董事会成立安全与安保委员会。这个新委员会由董事会主席布雷特·泰勒、董事AdamD'Angelo、NicoleSeligman和首席执行官山姆·奥特曼领导,将负责就OpenAI项目和运营的关键安全与安保决策向董事会全体成员提出建议。根据声明,该委员会的首要任务是在未来90天内评估并进一步发展OpenAI的流程和保障措施。90天后,委员会将与全体董事会分享建议。在全体董事会审查之后,OpenAI将以符合安全和保障的方式公开分享已采纳建议的最新进展。关注频道@ZaiHuaPd频道投稿@ZaiHuabot

封面图片

OpenAI成立安全委员会 将开始训练新模型

OpenAI成立安全委员会将开始训练新模型OpenAI首席执行官山姆·奥特曼OpenAI在公司博客上表示,董事布雷特·泰勒(BretTaylor)、亚当·德安吉洛(AdamD'Angelo)和妮可·塞利格曼(NicoleSeligman)也将加入该委员会。值得一提的是,OpenAI致力于防止人工智能失控的“超级对齐”团队刚经历了解散。5月14日,OpenAI联合创始人、首席科学家伊尔亚·苏茨克维(IlyaSutskever)宣布离职,几小时后,超级对齐团队负责人杨·莱克(JanLeike)也宣布离职。(作者/周文浩)更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。...PC版:https://www.cnbeta.com.tw/articles/soft/1432644.htm手机版:https://m.cnbeta.com.tw/view/1432644.htm

封面图片

据美国媒体近日报道,美国开放人工智能研究中心 (OpenAI) 首席技术官米拉・穆拉蒂近日在接受采访时,被问及 OpenAI 使

据美国媒体近日报道,美国开放人工智能研究中心(OpenAI)首席技术官米拉・穆拉蒂近日在接受采访时,被问及OpenAI使用了什么数据来训练其视频生成模型Sora,以及是否使用了来自多个社交媒体平台的数据。穆拉蒂表示,她并不确定OpenAI是否使用了社交媒体平台的数据。她强调OpenAI使用的是“公开可用的数据或得到许可的数据”,但她拒绝介绍更多细节。去年12月,美国《纽约时报》指控OpenAI及其投资方微软公司未经授权使用《纽约时报》文章训练ChatGPT等聊天机器人。有媒体报道称,还有多家版权所有方也对一些研发人工智能的企业提起诉讼,控告这些企业在人工智能训练中滥用版权作品。围绕人工智能训练是否符合版权法所规定的“合理使用”这一关键问题,美国相关法院尚未作出裁决。(央视新闻)

封面图片

推进人工智能安全研究 美国“AI四大天王”牵头成立行业机构

推进人工智能安全研究美国“AI四大天王”牵头成立行业机构7月26日,Google、微软、OpenAI和Anthropic这AI“四大天王”发布联合公告,宣布成立前沿模型论坛(FrontierModelForum),来确保未来可以安全且负责任地开发前沿人工智能模型。公告指出,前沿模型论坛的核心目标包括:推进人工智能安全研究,促进负责任地开发人工智能系统,最大限度地降低风险,并实现对大模型能力和安全性的独立、标准化评估。确定前沿模型负责任开发和部署的最佳案例,帮助公众了解这项技术的性质、能力、局限性和影响。与各国政府、学术界、社会组织及公司合作,分享有关AI大模型信任和安全风险的知识。支持开发有助于应对全球社会挑战的应用程序,例如减缓和适应气候变化、早期癌症检测和预防以及应对网络威胁。联合公告还指出,该论坛将在未来几个月内成立一个咨询委员会来指导AI战略,并将成立工作组和执行委员会,来安排包括章程、管理和资金在内的工作。微软副董事长兼总裁布拉德·史密斯(BradSmith)表示,创造AI大模型的公司有责任确保其安全可靠,并始终处于人类控制之下:这一举措是将科技行业聚集在一起,负责任地推进人工智能并应对挑战,使其造福全人类的重要一步。但针对这一论坛,英国《金融时报》指出,论坛的建立意味着科技巨头们的工作将集中于日益强大的人工智能带来的潜在风险,而不是回答当今监管机构与版权、数据保护和隐私有关的实际问题。华盛顿大学的计算语言学家EmilyBender认为这些公司的做法是试图逃避监管,让公众将注意力集中在对“AI‘涌现’并接管人类工作”的恐惧上,会分散人们对“数据盗窃、监视等实际问题”的注意力:“监管需要来自外部。它需要由代表各国政府制定,来限制这些公司的行为。”此前,美国联邦贸易委员会(FTC)已对OpenAI发起调查。当地时间7月13日媒体报道称,FTC告知OpenAI,将调查ChatGPT是否通过发布虚假信息损害了人们的利益,以及OpenAI是否存在“不公平或欺骗性”的隐私和数据安全行为。这一举动早有预警,今年5月,白宫与OpenAI、Google、微软等公司的首席执行官会面,探讨相关技术的风险。白宫还表示,七家最大的AI公司已经同意在8月份的年度DefCon极客大会上开放模型,接受一定程度的公众监督。近日,在白宫“指示”下,美国人工智能(AI)巨头“自我管控”的条例浮出水面。白宫公布,拜登政府得到了亚马逊、Anthropic、Google、Inflection、Meta、微软和OpenAI七家公司自愿的承诺,管控AI带来的风险。他们承诺,将帮助推动AI技术安全且透明地发展。...PC版:https://www.cnbeta.com.tw/articles/soft/1373291.htm手机版:https://m.cnbeta.com.tw/view/1373291.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人