Ilya宣布成立安全超级智能公司

Ilya宣布成立安全超级智能公司就在凌晨,Ilya的“下一个计划”终于揭开了神秘面纱——创业新公司SSI(SafeSuperIntelligence)。顾名思义,Ilya的这家公司主攻的便是构建安全超级智能。短短一句话,数小时便引来了数万的点赞和众多网友的围观。毕竟新公司围绕“安全”,不免让网友产生疑问:兄弟,你(在OpenAI)看到啥了?关注频道@ZaiHuaPd频道爆料@ZaiHuabot

相关推荐

封面图片

OpenAI联创Ilya Sutskever成立新人工智能公司SSI

OpenAI联创IlyaSutskever成立新人工智能公司SSIPANews6月20日消息,据CNBC报道,OpenAI联合创始人IlyaSutskever周三宣布成立新的人工智能初创公司SafeSuperintelligence(SSI)。Sutskever表示,新公司将直接追求安全的超级智能,只有一个重点、一个目标和一个产品。Sutskever与曾负责苹果AI业务的DanielGross以及OpenAI前员工DanielLevy共同创立了这家新公司。https://www.panewslab.com/zh/sqarticledetails/jujypcx3.html

封面图片

OpenAI 的前首席科学家Ilya Sutskever正在创办一家新的人工智能公司

OpenAI的联合创始人和前首席科学家IlyaSutskever正在创办一家新的人工智能公司,专注于安全问题。Sutskever在周三的一篇文章中透露了SafeSuperintelligenceInc.(SSI),这是一家创业公司,只有“一个目标和一个产品”:创建一个安全且强大的人工智能系统。这份公告称SSI是一家“同时注重安全和能力”的初创公司,从而让公司能够快速推进其AI系统,同时仍然优先考虑安全性。公告还指出,像OpenAI、谷歌和微软这样的公司中的AI团队常常面临外部压力,而SSI公司的“单一专注”使其能够避免“管理负担或产品周期的干扰”。“我们的商业模式意味着安全、保障和进步都不受短期商业压力的影响,”公告中称。“这样,我们可以在平稳中扩展。”除了Sutskever,SSI的联合创始人还有前Apple人工智能负责人DanielGross和之前在OpenAI工作过的DanielLevy。去年,Sutskever带头推动将OpenAI的CEOSamAltman赶下台。,并暗示将启动一个新项目。Sutskever离职后不久,,理由是安全过程已经“被闪亮的产品所取代”。OpenAI的政策研究员GretchenKrueger也在宣布离职时提到了安全问题。随着OpenAI与苹果和微软的合作不断推进,我们可能不会很快看到SSI也这样做。在接受彭博社采访时,Sutskever表示,SSI的第一个产品将是安全的超级智能,在此之前公司“不会做任何其他事情”。标签:#OpenAI频道:@GodlyNews1投稿:@GodlyNewsBot

封面图片

OpenAI 联合创始人 Ilya Sutskever 成立新公司 Safe Superintelligence

OpenAI联合创始人IlyaSutskever成立新公司SafeSuperintelligenceOpenAI联合创始人和首席科学家IlyaSutskever上个月离开公司,现在正式宣布成立新公司,表示将专注于打造安全的AI。SafeSuperintelligence的联合创始人还包括了苹果AI前负责人DanielGross以及以在OpenAI训练模型闻名的DanielLevy。Ilya三人在联合声明中表示,他们在致力于提高AI能力的同时将安全性置于优先地位,这一目标让他们的商业模式可以保证安全和进步都不受短期商业压力的影响。Sutskever表示他花了数年时间思考安全,已经想出了一些方法,但没有提供更多细节。他表示安全的AI将以人类过去几百年发展的自由民主价值观为基础。来源,频道:@kejiqu群组:@kejiquchat

封面图片

Ilya的新创业伙伴 是个技术加强版的Sam Altman?

Ilya的新创业伙伴是个技术加强版的SamAltman?SSI是一家纯研究机构,将通过在AI系统中嵌入工程突破来实现安全,而不是依赖临时加上的安全措施,近期没有销售AI产品或服务的打算。Ilya曾多次在公开场合表示,他的主要工作是弄清楚如何让“超级智能”安全可控。换句话说,SSI的成立的目的,就是Ilya希望在没有OpenAI、Google和Anthropic等竞争对手所面临的干扰下继续他的工作。安全的超级智能在某种程度上是对最初OpenAI“初心”的回归,OpenAI最初的目标也是开发安全且有益的人工智能,不受商业和竞争压力的干扰,确保AI技术的安全性和对人类的长期利益。然而,随着时间的推移,OpenAI和其他公司在商业化和竞争压力下,不得不平衡安全与市场需求。Ilya以及OpenAI对齐团队成员的离开,核心原因也是OpenAI内部对安全的优先级产生了不可调和的分歧,通过SSI,他试图通过自己的公司解决这些问题。DanielGross在2018年参加YC的播客节目录制新的联创,技术加强版SamAltman?SSI的另外两位联合创始人是DanielGross和DanielLevy,DanielLevy是Ilya在OpenAI的老下属,两人共同参与了多个重要的AI项目,他也是OpenAI优化团队的领导者,在GPT-4的架构和优化方面享有盛誉。而DanielGross的经历则更具戏剧色彩,Gross1991年出生于以色列耶路撒冷,热爱编程的他在家乡度过了人生的前十八年,本来打算入伍加入以色列国防军,但在一次前往旧金山的入伍前旅行中,他陷入了硅谷的创业热潮。2010年Gross被Y-Combinator录取,获得资助,当时他是YC有史以来最年轻的创始人,他也因逃避以色列国防军服役,再未返回以色列。Gross随后推出了搜索引擎Greplin,后更名为Cue。2013年Cue被苹果收购之后,Gross也加入苹果,领导人工智能工作。2017年Gross加入YC担任的合伙人,专注于人工智能,并创建了专门的“YCAI”计划。2021年,DanielGross与Github前CEONatFriedman成立了早期风险投资基金AIGrant。2023年,AIGrant部署了自己的计算集群Andromeda,这是一个由2512个H100GPU组成的超级计算机集群,供其投资组合中的初创公司使用。Andromeda可以在约10天内完成Llama65B模型的训练作为投资人,Gross的投资组合可谓亮眼,他投资了Uber、Coinbase、Figma、GitHub、Airtable、Notion、CoreWeave、Character.ai、Perplexity.ai、Pika、Suno等公司。Gross的投资组合显示了对科技行业整体发展趋势的全面理解,经常在具有颠覆性潜力的项目上下注。从投资选择看,Gross特别关注技术驱动的创新以及AI和软件领域,倾向于支持那些能够改变市场格局、具有高成长潜力的初创公司,特别是那些能够对人类日常生活和工作方式产生深远影响的创新解决方案的公司。在这家新成立的公司中,Ilya担任的角色是首席科学家,负责革命性突破,而Gross在某种意义上替代了Altman的角色。对比两人,我们也可以看到一些明显的共性和区别。Gross和Altman两人都“师出”PaulGraham,与YC颇有渊源,在技术创业和投资领域有丰富的经验,在硅谷拥有广泛的人际网络和资源,适合担当一家公司的头面人物。此外,相较于更加“长袖善舞”,跑遍全世界会见各地的立法者、监管者和投资人的Altman,Gross在气质上与Ilya更接近,两人都是技术天才型人物,他对技术的理解可能为公司在战略、技术方向和资源整合方面提供关键支持。Altman在OpenAI商业化上的野心路人皆知,而Gross与Ilya的合作关系可能更适合专注于AI的安全性和研究本身,Gross在商业与投融资方面的经验,也补足了Ilya的短板。所以Gross的加入,有点像是Ilya离开OpenAI之后,找到了一位新的SamAltman,只是不知道Altman内心会作何感想?“DanielGross,别搞砸了”这并不是OpenAI第一次出现员工因为安全问题的分歧离去创办自己的AI公司。2021年,前OpenAI员工Dario和DanielaAmodei兄妹创办的Anthropic,也致力于比行业竞争对手更注重安全性,而Ilya的SSI看上去更加纯粹,也更具神秘感。在AI行业中,有两大对立阵营:谨慎派和创新派。一方遵循硅谷“快速行动,打破常规”的伦理,称为“有效加速主义”,而另一方则希望确保所开发的技术足够安全,在实验室环境中经过充分测试,并在释放具有颠覆性的AI技术之前设置适当的防护措施,被称为“有效利他主义”。两方都希望AI技术的利益能够惠及全球所有人。llya一直是人工智能领域的安全派,这一点和他的导师GeoffreyHinton类似,Hinton从Google辞职,原因之一就是为了对AI安全提出警告,并且声称“对毕生工作感到后悔和恐惧”。近年来,llya的工作重点一直放在超级对齐上,去年llya在OpenAI内部创建了一个超级对齐团队,旨在确保未来的人工智能技术不会对人类造成伤害,他越来越担心AI可能变得危险,甚至可能毁灭人类,SSI的成立让他可以专注在避免这件事情的发生。llya表示,虽然大型语言模型在人工智能领域占据主导地位,并将在SSI中扮演重要角色,但他们的目标是开发更强大的系统。他想追求的系统将具有更广泛的用途和能力,就像一个能够自主开发技术的巨大超级数据中心,所以必须要确保安全。Vault-Tec背后隐藏着丰富的故事线和阴暗实验。SafeSuperintelligenceInc这个名字,听上去就像是来自以核战争后的末日世界为背景的《辐射》系列游戏,不仅是因为Ilya提到了SSI要追求的是“核安全”级别的安全,游戏中经常涉及的一个话题也是科技激进发展带来的潜在风险和道德困境。这种使命感也与《辐射》中的公司相似,游戏中一家名为Vault-Tec的公司致力于保护人类在核战争中的生存,SafeSuperintelligenceInc的名字也传达出一种明确的使命。正如在《辐射》中往往对公司背后的故事和目的披上一层神秘感一样,SafeSuperintelligenceInc也给人留下广阔的想象空间。Vault-Tec公司在游戏中以其建造避难所而著称,这些避难所表面上是为了保护人类免受核战争的毁灭,但实际上往往隐藏着更加阴暗的目的和实验。即使是最具有前瞻性和保护目的的科技企业,也可能因为内部实验、决策或外界环境的变化而产生意想不到的后果。SSI使命是否能真正实现,或者是否会在实际操作中偏离初衷,仍然值得关注。这件事可能更多取决于DanielGross会不会成为又一个SamAltman。...PC版:https://www.cnbeta.com.tw/articles/soft/1435564.htm手机版:https://m.cnbeta.com.tw/view/1435564.htm

封面图片

谷歌、微软等14家科技公司成立“安全人工智能联盟”

谷歌、微软等14家科技公司成立“安全人工智能联盟”人工智能需要一个能够跟上其快速增长步伐的安全框架和应用标准。谷歌等14家科技公司7月18日在阿斯彭安全论坛上宣布成立安全人工智能联盟(CoSAI)。谷歌表示:“过去一年来,我们一直致力于组建这个联盟,以推进全面的安全措施,应对人工智能带来的独特风险,包括实时出现的问题和未来可能出现的问题。”该联盟的创始成员包括亚马逊、微软、Anthropic、Chainguard、英特尔、Cohere、思科、GenLab、IBM、OpenAI、英伟达、Paypal和Wiz。——

封面图片

ilya另起炉灶了lol

ilya另起炉灶了lolOpenAI联合创始人、首席科学家IlyaSutskever与OpenAI分道扬镳数周后,今日终于公布了自己的新动向。Ilya今天在X上宣布自己创立了新公司SSI(SafeSuperintelligenceInc.),瞬间炸起了AI业界的广泛关注和讨论。Ilya是AI领域的顶尖科学家,曾主导OpenAI旗下GPT系列、DALL-E等里程碑式项目。然而,他与联合创始人SamAltman在公司发展方向上的分歧由来已久。Ilya更倾向于专注AI的安全性和可控性,提出"AIAlignment"(AI系统应与人类价值观保持一致)的理念,而sama则日益重视商业化发展。最终,分歧导致了Ilya的离职。这一冲突反映出业界在"AI安全性"和"商业化"之间的深层次拉扯,涉及AI技术的未来走向。从SSI官网披露的信息来看,这家新公司明确提出"构建安全的超级智能(SafeSuperintelligence)",并将其视为当前最重要的技术问题。这一理念与OpenAI日益商业化的策略形成鲜明对比,引发业界的广泛思考。同时,SSI的成立被视为继Anthropic之后,AI安全派的又一次集结。此前OpenAI的另一位元老DarioAmodei也因类似原因离职,转而投入Anthropic阵营。Ilya创立SSI,标志着AI业界在技术路线之争、产业生态重塑、社会责任拷问等方面进入新的博弈阶段。SSI能否在"安全"与"发展"之间找到平衡,开创一条不同于OpenAI的道路,将是业界长期关注的焦点。当然,SSI的未来还有很多不确定性。它能否如愿实现"安全超智能"的宏伟目标?能否在商业竞争中站稳脚跟?能否赢得更多科技伦理学家的认同和支持?这些都有待时间给出答案。但无论结果如何,SSI的诞生本身确实说明了AI发展进入了一个新的阶段。ilya推特原文https://x.com/ilyasut/status/1803472978753303014?s=46&t=ivCXWVuX_xbdGPrenQrBFgSSI官网链接https://ssi.inc/

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人