OPENAI 扩大游说团队以影响监管

OPENAI 扩大游说团队以影响监管 OpenAI 正在建立一支国际游说团队,试图影响那些正在加强审视强大人工智能的政界人士和监管者。该公司向记者表示,已将其全球事务团队的员工人数从2023年初的3人增至35人。目标是到2024年底将这一数字增加到50。OpenAI 负责政府事务的副总裁安娜•马坎朱表示:“我们切入的角度并不是我们只需打入内部并阻止监管……因为我们的目标不是利润最大化,而是确保通用人工智能(AGI)造福全人类。”全球事务部战略性地定位于人工智能立法先进的地区。这包括在比利时、英国、爱尔兰、法国、新加坡、印度、巴西和美国派驻员工。

相关推荐

封面图片

OpenAI 正在组建一个新团队,以控制“超级智能”人工智能

OpenAI 正在组建一个新团队,以控制“超级智能”人工智能 OpenAI 正在组建一个由其首席科学家兼公司联合创始人之一 Ilya Sutskever 领导的新团队,以开发引导和控制“超级智能”人工智能系统的方法。 ,Sutskever 和 OpenAI 联盟团队的负责人 Jan Leike 预测,人工智能可能会在十年内实现超越人类的智能。苏茨克弗和雷克说,这种人工智能假设它最终确实到来不一定是仁慈的,需要研究控制和限制它的方法。 他们写道:“目前,我们还没有一个解决方案来引导或控制潜在的超级人工智能,并防止其失控。” “我们目前调整人工智能的技术,例如根据人类反馈进行强化学习,依赖于人类监督人工智能的能力。但人类无法可靠地监督比我们聪明得多的人工智能系统。” 为了推动“超级智能对齐”领域的发展,OpenAI 正在创建一个新的超级对齐团队,由 Sutskever 和 Leike 领导,该团队将有权使用公司迄今为止已获得的 20% 的计算资源。该团队由 OpenAI 之前的对准部门的科学家和工程师以及公司其他部门的研究人员加入,目标是在未来四年内解决控制超级智能 AI 的核心技术挑战。

封面图片

【外媒:贝莱德正重组其游说团队以维护公司声誉并应对监管挑战】

【外媒:贝莱德正重组其游说团队以维护公司声誉并应对监管挑战】 11月20日消息,随着美国总统大选年临近,以及国会继续对贝莱德进行审查,该公司正在重组一个处理与政府官员和监管机构关系的关键游说团队。 贝莱德全球企业事务主管John Kelly近日在一份公司备忘录中写道,这家资金管理巨头正在寻求聘请一位新的美国政府事务和公共政策负责人,以及一位新的州政府事务负责人。以州为中心的职位将负责在“优先级别首府”开展工作,以管理州层面的关系。 据悉,贝莱德已提交现货比特币和以太坊ETF申请。 快讯/广告 联系 @xingkong888885

封面图片

马斯克称正在提高特斯拉AI团队薪酬 以阻止OpenAI挖角

马斯克称正在提高特斯拉AI团队薪酬 以阻止OpenAI挖角 马斯克回应了The Information有关特斯拉人工智能科学家Ethan Knight加入马斯克旗下初创公司xAI的报道。马斯克说:“Ethan 打算加入OpenAI,所以要么是xAI,要么是OpenAI。”马斯克帮助创办了OpenAI,但后来与该公司闹翻。他现在正在特斯拉内部和旗下初创公司xAI多维度布局人工智能。 ... PC版: 手机版:

封面图片

Anthropic 聘请前 OpenAI 安全负责人领导新团队

Anthropic 聘请前 OpenAI 安全负责人领导新团队 Leike 在 X 上发表文章说,他在 Anthropic 的团队将专注于人工智能安全和安保的各个方面,特别是"可扩展监督"、"弱到强的泛化"和自动对齐研究。一位熟悉内情的消息人士透露,Leike 将直接向 Anthropic 的首席科学官 Jared Kaplan 汇报工作,而 Anthropic 的研究人员目前正在研究可扩展的监督以可预测和理想的方式控制大规模人工智能行为的技术随着 Leike 团队的发展,他们将转而向 Leike 汇报工作。在许多方面,Leike 的团队听起来与 OpenAI最近解散的 Superalignment 团队有着相似的使命。Leike 共同领导的 Superalignment 团队雄心勃勃,目标是在未来四年内解决控制超级智能人工智能的核心技术难题,但经常发现自己受到 OpenAI 领导层的束缚。Anthropic 经常试图将自己定位为比 OpenAI 更注重安全。Anthropic的首席执行官达里奥-阿莫迪(Dario Amodei)曾是OpenAI的研究副总裁,据报道,他在与OpenAI就公司的发展方向(即OpenAI日益增长的商业重心)产生分歧后与OpenAI分道扬镳。阿莫德伊带着许多前OpenAI员工创办了Anthropic公司,其中包括OpenAI的前政策负责人杰克-克拉克(Jack Clark)。 ... PC版: 手机版:

封面图片

OpenAI 已解散长期人工智能风险团队

OpenAI 已解散长期人工智能风险团队 去年 7 月,OpenAI 宣布成立一个新的研究团队,为通用人工智能的到来做准备。OpenAI 首席科学家、公司联合创始人之一 Ilya Sutskever 被任命为这个新团队的联合负责人。OpenAI 表示,该团队将获得 20% 的计算能力。 现在 OpenAI 证实,“超级对齐团队”已不复存在。此前多位相关研究人员离职,该团队的两名研究人员 Leopold Aschenbrenner 和 Pavel Izmailov 因泄露公司机密而被解雇,周二 Sutskever 宣布将离开公司,该团队的另一位联合负责人也辞职了。该小组的工作将被纳入 OpenAI 的其他研究工作中。

封面图片

【OpenAI称ChatGPT应受到监管:ChatGPT或被坏人利用】

【OpenAI称ChatGPT应受到监管:ChatGPT或被坏人利用】 人工智能研究公司OpenAI首席技术官米拉·穆拉蒂(Mira Murati)表示,ChatGPT可能会“编造事实”,这与其他基于语言模型的人工智能工具没有什么区别一样。 当被问及像OpenAI这样的公司等机构是否有责任监管这一工具时,穆拉蒂说:“对OpenAI等公司来说,最重要的是以一种可控和负责任的方式将其引入公共意识。”但她强调,公司还需要来自监管机构、政府甚至所有人的帮助。穆拉蒂补充说,现在对ChatGPT进行监管“并不算为时过早”。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人