单独写一条吧,我还挺“看好” Ilay 创立的新公司 SSI(Safe SuperIntelligence)。

单独写一条吧,我还挺“看好” Ilay 创立的新公司 SSI(Safe SuperIntelligence)。 因为在欧美社会里,这种 to G 公司比技术公司赚钱更容易,而且更直接,也鲜有风险。 to G 或 to ESG 公司的几种最直接的赚钱方式: 1. 立法咨询(在立法过程中,以第三方身份向法律编纂者提供行业内专业知识); 2. 合规咨询(向企业和行业提供法律建议和治理者监管意图); 3. 直接游说(帮着企业影响治理者思路); 4. 社群连接(帮企业调解与非客户利益相关方关系-比如弱势群体); 所以,以后 llya 的新公司以后在某种程度上就是 OpenAI 的上游了。 比起在一个技术公司内部做制衡性部门,纯外部的 ESG 公司立场更鲜明,只要卯足了劲干行业公司就行,不怕行业公司不买单。 打个最简单的比方,以后 OpenAI 花几十亿美金训练的新模型,SSI 花几十万美金组织一个关于种族偏见的蓝方攻击测试,然后就能出份报告让 OpenAI 花几千万来买修正微调方案。 和推进大模型技术本身相比,这甚至是个无本万利的 PMF 赛道,而且在欧美社会这完全不属于敲诈勒索,甚至不属于灰色地带,是彻彻底底的白道生意。 这种生意里唯一真正重要的资源是创始人自身威望,但 llya 是谁?被全球第一的 AGI 公司因太过重视道德而被踢走的技术伦理官,这个领域里还有比他在政府那边威望更高的人吗? 举个例子,游戏圈最近闹得沸沸扬扬的政治正确组织 Sweet Baby 就是这种独立 ESG 公司的典型,你看它踢到《黑神话:悟空》这块铁板之前有多少外国大公司给他们付费:微软、2K、V社、EA、华纳兄弟…… 欧美数得上号的游戏公司基本都要找他们。 所以 Ilay 成立 SSI,我甚至觉得就是有点要让 OpenAI “敬酒不吃吃罚酒”的意思。

相关推荐

封面图片

OpenAI 联合创始人 Ilya Sutskever 成立新公司 Safe Superintelligence

OpenAI 联合创始人 Ilya Sutskever 成立新公司 Safe Superintelligence OpenAI 联合创始人和首席科学家 Ilya Sutskever 上个月离开公司,现在正式宣布成立新公司 ,表示将专注于打造安全的 AI。Safe Superintelligence 的联合创始人还包括了苹果 AI 前负责人 Daniel Gross 以及以在 OpenAI 训练模型闻名的 Daniel Levy。Ilya 三人在联合声明中表示,他们在致力于提高 AI 能力的同时将安全性置于优先地位,这一目标让他们的商业模式可以保证安全和进步都不受短期商业压力的影响。Sutskever 表示他花了数年时间思考安全,已经想出了一些方法,但没有提供更多细节。他表示安全的 AI 将以人类过去几百年发展的自由民主价值观为基础。来源 , 频道:@kejiqu 群组:@kejiquchat

封面图片

OpenAI 联合创始人 Ilya Sutskever 成立新公司 Safe Superintelligence

OpenAI 联合创始人 Ilya Sutskever 成立新公司 Safe Superintelligence OpenAI 联合创始人和首席科学家 Ilya Sutskever 上个月离开公司,现在正式宣布成立新公司 Safe Superintelligence,表示将专注于打造安全的 AI。Safe Superintelligence 的联合创始人还包括了苹果 AI 前负责人 Daniel Gross 以及以在 OpenAI 训练模型闻名的 Daniel Levy。Ilya 三人在联合声明中表示,他们在致力于提高 AI 能力的同时将安全性置于优先地位,这一目标让他们的商业模式可以保证安全和进步都不受短期商业压力的影响。Sutskever 表示他花了数年时间思考安全,已经想出了一些方法,但没有提供更多细节。他表示安全的 AI 将以人类过去几百年发展的自由民主价值观为基础。 via Solidot

封面图片

ilya另起炉灶了lol

ilya另起炉灶了lol OpenAI联合创始人、首席科学家Ilya Sutskever与OpenAI分道扬镳数周后,今日终于公布了自己的新动向。 Ilya今天在X上宣布自己创立了新公司SSI(Safe Superintelligence Inc.),瞬间炸起了AI业界的广泛关注和讨论。 Ilya是AI领域的顶尖科学家,曾主导OpenAI旗下GPT系列、DALL-E等里程碑式项目。然而,他与联合创始人Sam Altman在公司发展方向上的分歧由来已久。 Ilya更倾向于专注AI的安全性和可控性,提出"AI Alignment"(AI系统应与人类价值观保持一致)的理念,而sama则日益重视商业化发展。最终,分歧导致了Ilya的离职。 这一冲突反映出业界在"AI安全性"和"商业化"之间的深层次拉扯,涉及AI技术的未来走向。 从SSI官网披露的信息来看,这家新公司明确提出"构建安全的超级智能(Safe Superintelligence)",并将其视为当前最重要的技术问题。 这一理念与OpenAI日益商业化的策略形成鲜明对比,引发业界的广泛思考。 同时,SSI的成立被视为继Anthropic之后,AI安全派的又一次集结。此前OpenAI的另一位元老Dario Amodei也因类似原因离职,转而投入Anthropic阵营。 Ilya创立SSI,标志着AI业界在技术路线之争、产业生态重塑、社会责任拷问等方面进入新的博弈阶段。SSI能否在"安全"与"发展"之间找到平衡,开创一条不同于OpenAI的道路,将是业界长期关注的焦点。 当然,SSI的未来还有很多不确定性。它能否如愿实现"安全超智能"的宏伟目标?能否在商业竞争中站稳脚跟?能否赢得更多科技伦理学家的认同和支持?这些都有待时间给出答案。 但无论结果如何,SSI的诞生本身确实说明了AI发展进入了一个新的阶段。 ilya推特原文 SSI官网链接

封面图片

华为申请注册“引望”等商标 此前车BU已成立引望新公司

华为申请注册“引望”等商标 此前车BU已成立引望新公司 据了解,引望就是华为车BU成立的新公司。根据此前的报道,深圳引望智能技术有限公司1月16日正式成立,由华为技术有限公司全资持股,注册资本为10亿元人民币,注册地址位于华为总部办公楼。新公司两位主要成员郑丽英(执行董事,经理)和宋柳平(监事)均为华为高管。该公司的经营范围包含了“智能车载设备制造、汽车零部件研发、人工智能行业应用系统集成服务、人工智能基础软件开发、人工智能理论与算法软件开发、通信设备制造、数据处理和存储支持服务、信息咨询服务等。”该公司作为华为智能车业务更好服务产业的第一步,将装载华为车BU目前的技术和资源,目前还是华为全资,后面随着更多伙伴加入,成为一个股权多元的技术开放平台。 ... PC版: 手机版:

封面图片

跨越AGI,Ilya官宣创业:我要的是“核安全” SSI剑指安全超级智能

跨越AGI,Ilya官宣创业:我要的是“核安全” SSI剑指安全超级智能 出走36天后,Ilya终于官宣了自己的下一步动向:创建新公司,剑指安全超级智能!是的,从名字就可以看出,这个新公司SSI的核心,就是Safe SuperIntelligence。才7小时,就迎来近2w的点赞5月15日,Ilya发文称,自己将离开工作近十年的OpenAI,并祝愿前公司“打造出既安全又有益的AGI”。OpenAI会不会这么做不知道,但Ilya是直接一步做到位了。消息一出,立刻引得网友们奔走相告。果然,出走半生,Ilya最心系的还是AI安全。而官方介绍的第一句话,就十分震撼“超级智能触手可及”。个人介绍也第一时间更新为SSI现在,全网都在翘首以盼,Ilya将拿出震惊全人类的世界级前沿研究。网友:直接一步迈入超级智能Ilya口中的“SSI”,也即安全超级智能,究竟是指什么意思呢?显然,这将是Ilya毕生事业之所系,也大概率是他和Sam Altman发生严重的理念不和,从而出走OpenAI的主因。这下可好,我们直接越过AGI,一步迈进Super Intelligence(超级智能)了。要是别人说这个话可能是托大,但他可是Ilya。他在OpenAI看到的东西,或许真能把全体人类带向超级智能。评论区有人拿LeCun玩梗。有人cue到Ilya的前东家奥特曼。当然,也有网友发出了灵魂拷问:你们并不是第一家因为安全理念不合,从OpenAI分支出来的公司了。SSI会和Anthropic有什么不同吗?是的,这一幕仿佛历史的重演,想当年OpenAI创立时,也曾发下类似“造福全人类”的豪言壮语。这一次,会是历史的轮回吗?的确,从Ilya发出离别信、po出和OpenAI众元老合影的那天起,一个时代已经终结。Ilya:我要打造的安全超级智能,是这样的在SSI的官方介绍语中,Ilya这样解释了公司的宗旨和愿景目标唯有一个,就是“实现安全的超级智能”。并且,Ilya同时向天下牛人们广发英雄令,召集世界上最优秀的工程师和研究者来“完成你一生的工作,并帮助解决我们这个时代最重要的技术挑战”。超级智能即将实现。构建安全的超级智能(SSI)是我们这个时代最重要的技术问题。我们已经启动了世界上第一个专注于SSI的实验室,目标只有一个:实现安全的超级智能。它的名字是Safe Superintelligence Inc(安全超级智能公司)。SSI是我们的使命、我们的名字和我们整个产品路线图,因为这是我们唯一的重点。我们的团队、投资者和商业模式都一致致力于实现SSI。我们将安全性和能力视为需要通过革命性工程和科学突破来解决的技术问题,并行推进。我们计划尽可能快地提高能力,同时确保我们的安全性始终领先。这样,我们就可以安心地扩展规模。我们单一的目标意味着不会被管理负担或产品周期分散注意力,我们的商业模式意味着安全性、安全性和进步都不会受到短期商业压力的影响。我们是一家美国公司,在帕洛阿尔托和特拉维夫设有办事处,我们在那里有深厚的根基,并有能力招聘顶尖的技术人才。我们正在组建一支由世界上最优秀的工程师和研究人员组成的精干团队,专注于SSI及其他任何事情。如果你是这样的人,我们提供一个机会,让你完成你一生的工作,并帮助解决我们这个时代最重要的技术挑战。现在是时候了。加入我们。Ilya Sutskever, Daniel Gross, Daniel Levy2024年6月19日SSI联创而SSI的几位联创,背景分别是这样的。Daniel LeviyDaniel Leviy曾在2022年加入OpenAI担任技术员工,领导了优化团队(Optimization team)。此前,他于2021年在斯坦福大学获得计算机科学博士学位,导师是John Duchi,主要研究方向在机器学习、优化和隐私。并于2018年获得斯坦福计算机科学硕士学位,由Stefano Ermon教授指导,在概率模型和强化学习方面做研究。2015年获得巴黎综合理工学院应用数学学士学位。入职OpenAI之前,他还在Facebook应用机器学习、Google大脑实习。Daniel GrossDaniel Gross本人的LinkedIn个人主页暂时还未更新。不过,他本人介绍中已经更新了自己是SSI创始人。在19岁的时候,Gross创办了搜索引擎公司Greplin(随后更名为Cue),2013年被苹果收购后,据称以4000万-6000万完成交易,他便加入了苹果公司。在此期间,他领导了苹果AI和搜索的项目。离职苹果之后,Gross作为Y-Combinator合伙人,成立了全新的AI项目部门。也就是从那时起,他一直专注于投资。2018年,Gross再次创业,创办了Pioneer.app,专为创业者提供启动资金的加速器。过去几年里,他投资了多家公司,其中就包括我们熟知的Uber、Character.ai、Perplexity.ai、Figma、GitHub等等。而且,2021年开始他联手Nat Friedman在AI领域展开重大投资,并运营一个AI Grant的项目,向AI本土公司提供25万美元的资金支持。去年,他们还部署了超算Andromeda Cluster,由2,512个H100组成,供投资初创公司使用。Daniel Gross还被时代期刊“Time 100”评为2023年AI领域最具影响力的人物之一。Ilya专访:我要的是核安全正如公司名字所强调的那样,Ilya将AI安全性置于首要地位。关键当然在于,确认哪种AI系统比其他系统更安全,或者真正意义上的安全性到底是什么。目前,Ilya对此说法比较含糊。不过,他本人也暗示了,SSI将试图通过在AI系统中植入“工程突破”来实现安全性,而不是依赖于对AI施加实时的防护措施。他本人表示,当我们说安全时,我们指的是“核安全”,而非“信任与安全”。在硅谷,Ilya拥有近乎神话般的地位,始终是全行业关注的焦点。在不少人眼里,没有Ilya的OpenAI就什么也不是。如果不是Ilya,或许OpenAI不会这么快因ChatGPT而崛起。这句留言说出了大家的心声“最终,奥特曼可能仍然会做正确的事情,但你可以永远相信Ilya”。在接受Bloomberg的独家采访时,Ilya强调,在SSI到达的安全超级智能之前,它不会做任何事。“它将免受必须处理大型而复杂的产品,以及必须陷入竞争激烈的外部压力的影响。”不过,Ilya拒绝透露SSI背后的财务支持者是谁,也并未透露目前公司筹集了多少资金。经历了OpenAI复杂的宫斗事件后,Ilya的再出发,也是某种返璞归真安全超级智能,在某种程度上是对最初OpenAI概念的回归:一个研究组织试图构建一种在许多任务上,可以等于甚至超越人类的通用人工智能。只不过,随着算力导致的资金缺口增大,OpenAI投奔了微软,导致公司的组织结构变了。所有的AI参与者,都面临着同样的难题:AI模型的规模在指数级增长,需要为不断扩大的计算需求付出代价。这种经济现实,也使SSI成为投资者的一场豪赌:押注Ilya和团队是否会取得突破,是否更有优势。但Gross已经保证:“在我们面临的所有问题中,资金绝不是问题。”Ilya表示,他花了数年事件思考安全问题,而且已经想到了一些方法。在最基本的层面上,安全的超级智能应该具有不会大规模伤害人类的特性。在此之后,我们可以说我们希望它成为一股向善的力量。我们希望在一些关键价值观的基础上开展运营。我们正在思考的一些价值观,可能是过去几百年来支撑自由民主的成功价值观,比如自由、民主。在他看来,主导AI的LLM将在SSI中发挥重要作用,但他的目标是更大的东西。比起和我们交谈、对话之后就完事了的LLM,他想要的系统更加通用、功能更广泛。“你指的是一个正在自主开发技术的巨型超级数据中心。这太疯狂了,对吧?我们希望为安全做出贡献。”让我们期待,Ilya重新起航后,麾下的新公司会给全人类带来怎样的惊喜。 ... PC版: 手机版:

封面图片

人工智能公司 OpenAI 向好莱坞推荐视频生成技术Sora

人工智能公司 OpenAI 向好莱坞推荐视频生成技术Sora 人工智能公司 OpenAI 在好莱坞发起了魅力攻势,与派拉蒙、环球和华纳兄弟探索等主要电影公司举行了会议,展示其视频生成技术 Sora,并缓解对人工智能模型将损害电影行业的担忧。据多位知情人士透露,首席执行官萨姆•奥尔特曼和首席运营官布拉德•莱特卡普在最近几天举行的会议上向电影行业巨头的高管们做了介绍。奥尔特曼和莱特卡普展示了 Sora 一个新的生成式人工智能模型,能够根据简单的文字提示生成细节栩栩如生的视频。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人