真的建议大家去看下 OpenAI 老大 @sama Sam Altman 的每一条推。有很多是看一遍都不够那种。

真的建议大家去看下 OpenAI 老大 @sama Sam Altman 的每一条推。有很多是看一遍都不够那种。 : 推油 @sama ,这个时代的乔布斯/比尔盖茨。 Open AI CEO & YC ex CEO 对于 AI 的一些观点。 来源 Twitter,翻译 by 《产品沉思录》。 一图流浓缩如下:

相关推荐

封面图片

【如何评价 OpenAI CEO Sam Altman 离开 OpenAI? 】当然是喜大普奔啊。原本看他一副ChatGPT之父

【如何评价 OpenAI CEO Sam Altman 离开 OpenAI? 】当然是喜大普奔啊。原本看他一副ChatGPT之父的样子到处发表他那重复的演讲就已经很不爽了,完了他又搞了个世界币???没有一点点手握人类未来之重器负责任的样子,其离谱程度远超马斯克。他对OpenAI的贡献哪里配和乔布斯比?现在终于被辞退了。 #抽屉IT

封面图片

种种消息表明,两天前才被 OpenAI 突然开除的 Sam Altman ,似乎就要回归了。

种种消息表明,两天前才被 OpenAI 突然开除的 Sam Altman ,似乎就要回归了。 然而 OpenAI 董事会刚刚却做出了一个令人意外的决定聘请亚马逊游戏直播平台 Twitch 的前 CEO Emmett Shear 担任首席执行官,临时接替 CEO 的 Mira Murati 才上任不到两天。 一家市值近千亿美元的明星公司,拥有市场上最领先的大模型产品,三天换了三位 CEO,放在整个科技商业史上都是相当炸裂,1985 年把乔布斯扫地出门的苹果都自愧不如。 标签: #OpenAI 频道: @GodlyNews1 投稿: @Godlynewsbot

封面图片

据 OpenAI CEO Sam Altman 于 Bill Gates 的 ” 播客中透露,OpenAI 将推出的新一代大型语

据 OpenAI CEO Sam Altman 于 Bill Gates 的 ” 播客中透露,OpenAI 将推出的新一代大型语言模型 GPT-5,将具备更出色的推理能力、提高的准确性,并支援影片功能。Altman 表示,GPT-5 将成为一款全面多模态的模型,支援语音、图像、程式码以及影片。 GPT-5 解决过去的疑难杂症 在访谈中,Altman 指出,GPT-5 将解决许多先前版本在回应不可靠或无法正确理解查询等问题。他谈及未来 AI 模型将实现的功能:“语音输入,语音输出。图像。最终还会支援影片。”他还解释说,自从推出图像和音讯支援后,用户反应远超预期。 GPT-5 的神秘面纱 关于 GPT-5,目前所知不多,仅从 Altman 和其他人的暗示中获得一些信息。预计它将成为一款真正的多模态模型,与 Google 的新型号 Gemini Ultra 类似。 OpenAI 于去年开始训练 GPT-5,Altman 暗示这将是 GPT-4 的一个重大进步,特别是在理解复杂查询和真实世界方面。他对 Bill Gates 表示:“至少在接下来的 5 到 10 年内,我们将处于一个陡峭的改进曲线上。这是这些模型将会有的最愚蠢状态!”(“At least for the next 5 or 10 years we will be on a steep improvement curve, this is the stupidest these models will ever be.”) 朝向 AGI 目标迈进 许多大型人工智能实验室,包括 OpenAI,都将创造超越人类智慧、能力更强的人工智能(AGI)作为最终目标。虽然早期有猜测 GPT-5 或许会成为某种形式的超智慧,但现在对于这个型号的推测表明,它将是一个比 GPT-4、Anthropic 的 Claude 2 或 Google 的 Gemini Ultra 更优秀的 AI 版本。也就是说,它将具有更好的推理能力,不仅可能在许多学术评估上超越人类,而且还会有超越仅仅模仿人类智慧的理解度。它可能也是达成 AGI 的下一步。Altman 在 Y-Combinator W24 活动的一次演讲中表示,创业家和企业家应该以“AGI 将在相对较短的时间内实现”为思维模式来建立他们的业务。 GPT-5 将解决目前 AI 模型的大问题 目前这一代 AI 模型的一个主要问题是它们会创造出虚假的信息,也就是所谓的幻觉。Altman 表示,这一可靠性问题将在 GPT-5 中得到解决。他对 Bill Gates 说:“如果你问 GPT-4 同一个问题 1 万次,其中的 1 次可能相当不错,但它并不总是知道哪一次是最好的,而你希望每次都能得到那 1 万次中最佳的回应,因此提高可靠性将非常重要。” 此外,GPT-5 的另一项重大改进将是在定制 AI 回应、行动和解决问题的方式上。Altman 说:“人们对 GPT-4 有着非常不同的期望,包括不同的回应风格,甚至在回应时有不同的假设集。”他还表示:“我们将使所有这些成为可能,并且还能够让它使用你自己的数据。” 标签: #OpenAI#ChatGPT 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

OpenAI的CEO Sam Altman参加了一场关于AI监管的听证会,总时长达3个小时。 这里是本次听证会的10个主要重点(

OpenAI的CEO Sam Altman参加了一场关于AI监管的听证会,总时长达3个小时。 这里是本次听证会的10个主要重点(word count: 22796, token: 53692 总结: Claude 100k): 1. 人工智能技术正在迅速发展,需要适当的监管。Sam Altman和其他人都呼吁政府采取行动,制定规则和标准来管理AI的风险。 2. 需要明确定义监管的范围和对象。Sam Altman提出可以根据模型的计算能力或功能能力来划定范围。 3. 需要建立独立的监管机构。Sam Altman和Gary Marcus都支持建立一个机构来监管AI技术。 4. 需要制定安全标准和许可证要求。Sam Altman提出需要对超过一定规模的AI模型实施许可证和测试要求。 5. 需要确保不同人群获得公平对待。Padilla参议员提出需要确保AI模型具有语言和文化包容性。 6. 需要保护个人隐私和数据。Sam Altman表示OpenAI允许用户选择不使用其数据进行训练,并可以删除用户数据。 7. 需要防止AI技术被滥用以操纵选举。参议员们担心AI技术可以预测和影响公众舆论和选举结果。 8. 需要保护知识产权。Blackburn参议员担心AI可以生成受版权保护的内容,需要确保内容创作者得到补偿。 9. 需要应对对就业的影响。参议员们担心AI技术会减少工作,需要与行业和政府合作应对这种影响。 10. 需要国际合作。Sam Altman认为虽然美国应该领导,但也需要考虑全球影响,可以探索国际合作的机会。

封面图片

Ilya的新创业伙伴 是个技术加强版的Sam Altman?

Ilya的新创业伙伴 是个技术加强版的Sam Altman? SSI是一家纯研究机构,将通过在AI系统中嵌入工程突破来实现安全,而不是依赖临时加上的安全措施,近期没有销售AI产品或服务的打算。Ilya曾多次在公开场合表示,他的主要工作是弄清楚如何让“超级智能”安全可控。换句话说,SSI的成立的目的,就是Ilya希望在没有OpenAI、Google和Anthropic等竞争对手所面临的干扰下继续他的工作。安全的超级智能在某种程度上是对最初OpenAI“初心”的回归,OpenAI最初的目标也是开发安全且有益的人工智能,不受商业和竞争压力的干扰,确保AI技术的安全性和对人类的长期利益。然而,随着时间的推移,OpenAI和其他公司在商业化和竞争压力下,不得不平衡安全与市场需求。Ilya以及OpenAI对齐团队成员的离开,核心原因也是OpenAI内部对安全的优先级产生了不可调和的分歧,通过 SSI,他试图通过自己的公司解决这些问题。Daniel Gross在2018年参加YC的播客节目录制新的联创,技术加强版Sam Altman?SSI的另外两位联合创始人是Daniel Gross和Daniel Levy,Daniel Levy是Ilya在OpenAI的老下属,两人共同参与了多个重要的AI项目,他也是OpenAI优化团队的领导者,在GPT-4的架构和优化方面享有盛誉。而Daniel Gross的经历则更具戏剧色彩,Gross 1991年出生于以色列耶路撒冷,热爱编程的他在家乡度过了人生的前十八年,本来打算入伍加入以色列国防军,但在一次前往旧金山的入伍前旅行中,他陷入了硅谷的创业热潮。2010年Gross被Y-Combinator录取,获得资助,当时他是YC有史以来最年轻的创始人,他也因逃避以色列国防军服役,再未返回以色列。Gross随后推出了搜索引擎Greplin,后更名为 Cue。2013年Cue被苹果收购之后,Gross也加入苹果,领导人工智能工作。2017年Gross加入YC担任的合伙人,专注于人工智能,并创建了专门的“YC AI”计划。2021年,Daniel Gross与Github前CEO Nat Friedman成立了早期风险投资基金AI Grant。2023 年,AI Grant部署了自己的计算集群Andromeda,这是一个由 2512 个 H100 GPU 组成的超级计算机集群,供其投资组合中的初创公司使用。Andromeda可以在约10天内完成Llama 65B模型的训练作为投资人,Gross的投资组合可谓亮眼,他投资了Uber、Coinbase、Figma、GitHub、Airtable、Notion、CoreWeave、Character.ai、Perplexity.ai、Pika、Suno等公司。Gross的投资组合显示了对科技行业整体发展趋势的全面理解,经常在具有颠覆性潜力的项目上下注。从投资选择看,Gross特别关注技术驱动的创新以及AI和软件领域,倾向于支持那些能够改变市场格局、具有高成长潜力的初创公司,特别是那些能够对人类日常生活和工作方式产生深远影响的创新解决方案的公司。在这家新成立的公司中,Ilya担任的角色是首席科学家,负责革命性突破,而Gross在某种意义上替代了Altman的角色。对比两人,我们也可以看到一些明显的共性和区别。Gross和Altman两人都“师出”Paul Graham,与YC颇有渊源,在技术创业和投资领域有丰富的经验,在硅谷拥有广泛的人际网络和资源,适合担当一家公司的头面人物。此外,相较于更加“长袖善舞”,跑遍全世界会见各地的立法者、监管者和投资人的Altman,Gross在气质上与Ilya更接近,两人都是技术天才型人物,他对技术的理解可能为公司在战略、技术方向和资源整合方面提供关键支持。Altman在OpenAI商业化上的野心路人皆知,而Gross与Ilya的合作关系可能更适合专注于AI的安全性和研究本身,Gross在商业与投融资方面的经验,也补足了Ilya的短板。所以Gross的加入,有点像是Ilya离开OpenAI之后,找到了一位新的Sam Altman,只是不知道Altman内心会作何感想?“Daniel Gross,别搞砸了”这并不是OpenAI第一次出现员工因为安全问题的分歧离去创办自己的AI公司。2021年,前OpenAI员工Dario和Daniela Amodei兄妹创办的Anthropic,也致力于比行业竞争对手更注重安全性,而Ilya的SSI看上去更加纯粹,也更具神秘感。在AI行业中,有两大对立阵营:谨慎派和创新派。一方遵循硅谷“快速行动,打破常规”的伦理,称为“有效加速主义”,而另一方则希望确保所开发的技术足够安全,在实验室环境中经过充分测试,并在释放具有颠覆性的AI技术之前设置适当的防护措施,被称为“有效利他主义”。两方都希望AI技术的利益能够惠及全球所有人。llya一直是人工智能领域的安全派,这一点和他的导师Geoffrey Hinton类似,Hinton从Google辞职,原因之一就是为了对AI安全提出警告,并且声称“对毕生工作感到后悔和恐惧”。近年来,llya的工作重点一直放在超级对齐上,去年llya在OpenAI内部创建了一个超级对齐团队,旨在确保未来的人工智能技术不会对人类造成伤害,他越来越担心AI可能变得危险,甚至可能毁灭人类,SSI的成立让他可以专注在避免这件事情的发生。llya表示,虽然大型语言模型在人工智能领域占据主导地位,并将在SSI中扮演重要角色,但他们的目标是开发更强大的系统。他想追求的系统将具有更广泛的用途和能力,就像一个能够自主开发技术的巨大超级数据中心,所以必须要确保安全。Vault-Tec背后隐藏着丰富的故事线和阴暗实验。Safe Superintelligence Inc这个名字,听上去就像是来自以核战争后的末日世界为背景的《辐射》系列游戏,不仅是因为Ilya提到了SSI要追求的是“核安全”级别的安全,游戏中经常涉及的一个话题也是科技激进发展带来的潜在风险和道德困境。这种使命感也与《辐射》中的公司相似,游戏中一家名为Vault-Tec的公司致力于保护人类在核战争中的生存,Safe Superintelligence Inc的名字也传达出一种明确的使命。正如在《辐射》中往往对公司背后的故事和目的披上一层神秘感一样,Safe Superintelligence Inc也给人留下广阔的想象空间。Vault-Tec公司在游戏中以其建造避难所而著称,这些避难所表面上是为了保护人类免受核战争的毁灭,但实际上往往隐藏着更加阴暗的目的和实验。即使是最具有前瞻性和保护目的的科技企业,也可能因为内部实验、决策或外界环境的变化而产生意想不到的后果。SSI使命是否能真正实现,或者是否会在实际操作中偏离初衷,仍然值得关注。这件事可能更多取决于Daniel Gross会不会成为又一个Sam Altman。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人