OpenAI联创Ilya Sutskever成立新人工智能公司SSI

OpenAI联创Ilya Sutskever成立新人工智能公司SSI PANews 6月20日消息,据CNBC报道,OpenAI联合创始人Ilya Sutskever周三宣布成立新的人工智能初创公司Safe Superintelligence(SSI)。Sutskever表示,新公司将直接追求安全的超级智能,只有一个重点、一个目标和一个产品。Sutskever与曾负责苹果AI业务的Daniel Gross以及OpenAI前员工Daniel Levy共同创立了这家新公司。

相关推荐

封面图片

OpenAI 联合创始人 Ilya Sutskever 成立新公司 Safe Superintelligence

OpenAI 联合创始人 Ilya Sutskever 成立新公司 Safe Superintelligence OpenAI 联合创始人和首席科学家 Ilya Sutskever 上个月离开公司,现在正式宣布成立新公司 Safe Superintelligence,表示将专注于打造安全的 AI。Safe Superintelligence 的联合创始人还包括了苹果 AI 前负责人 Daniel Gross 以及以在 OpenAI 训练模型闻名的 Daniel Levy。Ilya 三人在联合声明中表示,他们在致力于提高 AI 能力的同时将安全性置于优先地位,这一目标让他们的商业模式可以保证安全和进步都不受短期商业压力的影响。Sutskever 表示他花了数年时间思考安全,已经想出了一些方法,但没有提供更多细节。他表示安全的 AI 将以人类过去几百年发展的自由民主价值观为基础。 via Solidot

封面图片

OpenAI 联合创始人 Ilya Sutskever 成立新公司 Safe Superintelligence

OpenAI 联合创始人 Ilya Sutskever 成立新公司 Safe Superintelligence OpenAI 联合创始人和首席科学家 Ilya Sutskever 上个月离开公司,现在正式宣布成立新公司 ,表示将专注于打造安全的 AI。Safe Superintelligence 的联合创始人还包括了苹果 AI 前负责人 Daniel Gross 以及以在 OpenAI 训练模型闻名的 Daniel Levy。Ilya 三人在联合声明中表示,他们在致力于提高 AI 能力的同时将安全性置于优先地位,这一目标让他们的商业模式可以保证安全和进步都不受短期商业压力的影响。Sutskever 表示他花了数年时间思考安全,已经想出了一些方法,但没有提供更多细节。他表示安全的 AI 将以人类过去几百年发展的自由民主价值观为基础。来源 , 频道:@kejiqu 群组:@kejiquchat

封面图片

OpenAI 的联合创始人和前首席科学家 Ilya Sutskever 正在创办一家新的人工智能公司,专注于安全问题。Suk

OpenAI 的联合创始人和前首席科学家 Ilya Sutskever 正在创办一家新的人工智能公司,专注于安全问题。Sutskever 在周三的一篇文章中透露了 Safe Superintelligence Inc.(SSI),这是一家创业公司,只有“一个目标和一个产品”:创建一个安全且强大的人工智能系统。 这份公告称 SSI 是一家“同时注重安全和能力”的初创公司,从而让公司能够快速推进其 AI 系统,同时仍然优先考虑安全性。公告还指出,像 OpenAI、谷歌和微软这样的公司中的 AI 团队常常面临外部压力,而 SSI 公司的“单一专注”使其能够避免“管理负担或产品周期的干扰”。 “我们的商业模式意味着安全、保障和进步都不受短期商业压力的影响,”公告中称。“这样,我们可以在平稳中扩展。”除了 Sutskever,SSI 的联合创始人还有前 Apple 人工智能负责人 Daniel Gross 和之前在 OpenAI 工作过的 Daniel Levy。 去年,Sutskever 带头推动将 OpenAI 的 CEO Sam Altman 赶下台。,并暗示将启动一个新项目。Sutskever 离职后不久,,理由是安全过程已经“被闪亮的产品所取代”。OpenAI 的政策研究员 Gretchen Krueger 也在宣布离职时提到了安全问题。 随着 OpenAI 与苹果和微软的合作不断推进,我们可能不会很快看到 SSI 也这样做。在接受彭博社采访时,Sutskever 表示,SSI 的第一个产品将是安全的超级智能,在此之前公司“不会做任何其他事情”。 标签: #OpenAI 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

OpenAI 已解散长期人工智能风险团队

OpenAI 已解散长期人工智能风险团队 去年 7 月,OpenAI 宣布成立一个新的研究团队,为通用人工智能的到来做准备。OpenAI 首席科学家、公司联合创始人之一 Ilya Sutskever 被任命为这个新团队的联合负责人。OpenAI 表示,该团队将获得 20% 的计算能力。 现在 OpenAI 证实,“超级对齐团队”已不复存在。此前多位相关研究人员离职,该团队的两名研究人员 Leopold Aschenbrenner 和 Pavel Izmailov 因泄露公司机密而被解雇,周二 Sutskever 宣布将离开公司,该团队的另一位联合负责人也辞职了。该小组的工作将被纳入 OpenAI 的其他研究工作中。

封面图片

OpenAI 的长期人工智能风险团队已经解散

OpenAI 的长期人工智能风险团队已经解散 5 月 17 日消息,据美国杂志 WIRED 报道,去年 7 月,OpenAI 宣布成立一个新的研究团队,为超级智能的到来做准备,这种超级智能能够智胜和压倒其创造者。OpenAI 的首席科学家、公司联合创始人之一 Ilya Sutskever 被任命为这个新团队的联合领导人。OpenAI 表示,该团队将获得其计算能力的 20%。 现在 OpenAI 的超级对齐团队已经解散,公司证实了这一消息。在此之前,已经有几名参与其中的研究人员离职,周二的消息称 Sutskever 将离开公司,而该团队的另一位联合领导人也辞职了。该团队的工作将被整合到 OpenAI 的其他研究工作中。 来源:财经慢报频道

封面图片

OpenAI 正在组建一个新团队,以控制“超级智能”人工智能

OpenAI 正在组建一个新团队,以控制“超级智能”人工智能 OpenAI 正在组建一个由其首席科学家兼公司联合创始人之一 Ilya Sutskever 领导的新团队,以开发引导和控制“超级智能”人工智能系统的方法。 ,Sutskever 和 OpenAI 联盟团队的负责人 Jan Leike 预测,人工智能可能会在十年内实现超越人类的智能。苏茨克弗和雷克说,这种人工智能假设它最终确实到来不一定是仁慈的,需要研究控制和限制它的方法。 他们写道:“目前,我们还没有一个解决方案来引导或控制潜在的超级人工智能,并防止其失控。” “我们目前调整人工智能的技术,例如根据人类反馈进行强化学习,依赖于人类监督人工智能的能力。但人类无法可靠地监督比我们聪明得多的人工智能系统。” 为了推动“超级智能对齐”领域的发展,OpenAI 正在创建一个新的超级对齐团队,由 Sutskever 和 Leike 领导,该团队将有权使用公司迄今为止已获得的 20% 的计算资源。该团队由 OpenAI 之前的对准部门的科学家和工程师以及公司其他部门的研究人员加入,目标是在未来四年内解决控制超级智能 AI 的核心技术挑战。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人