想要对当下(2024年6月)AI行业有比较清楚的认识和框架,极限情况这两篇文章差不多够用:

想要对当下(2024年6月)AI行业有比较清楚的认识和框架,极限情况这两篇文章差不多够用: 1、@张小珺 和@广密 的对谈《为什么 AGI 应用还没有大爆发?》 2、创新工场汪华老师在极客公园大会上的发言《AI 应用爆发何时到来?》 一篇偏美国,一篇偏国内。 读三遍,做些整理和总结基本上可以保证不会被各种江湖道士忽悠了…

相关推荐

封面图片

这是同一本联合早报,同一个记者,同一个报道主题,前后间隔12小时,在新加坡本地版和中国版的两篇文章标题。

这是同一本联合早报,同一个记者,同一个报道主题,前后间隔12小时,在新加坡本地版和中国版的两篇文章标题。 谢谢《联合早报》在中国版发文的时候”吃相稍微好看了一点“,但这不意味着大陆人民是瞎子,会放着至今标题还没改的前一篇文章视而不见。 投稿By:Ambrosia

封面图片

彭博社 的一篇文章《》称:

彭博社 的一篇文章《》称: 一名德国高中老师 Christoph Schuhmann 创立了一个名为“Large-scale AI Open Network”(LAION)的免费AI训练数据集。该数据集已经包含了超过50亿张图片,并被广泛应用于训练文本到图像生成器,如Google的Imagen和Stable Diffusion。Schuhmann和他的志愿者团队从各大网站如Pinterest、Shopify和亚马逊网络服务等爬取了大量图像,并与之关联描述性文本,最终形成了目前最大的免费图像和标题数据集。此举引发了一系列道德和法律问题,例如是否可以利用公共可用的材料来构建数据库,以及这些创作者是否应该得到报酬。虽然Stability AI和Midjourney等公司因版权侵犯而面临诉讼,但Schuhmann并不担心这些问题,他只想将数据开放出来。 摘要来自 ChatGPT

封面图片

最近拜读了去年火热的斯坦福AI小镇文章的作者Joon Sung Park的两篇文章,分别是22年的Social Simulacr

最近拜读了去年火热的斯坦福AI小镇文章的作者Joon Sung Park的两篇文章,分别是22年的Social Simulacra和23年的Generative Agents(斯坦福AI小镇本文)。两篇都发在交互顶会UIST上(后者得了best paper) 比起Generative agents,22年发表的Social Simulacra聚焦于一个更小的领域- 交互设计原型(prototyping)。具体的思路是:交互原型设计师常常需要了解一个设计的效果,目前的常用做法是招募少量的真人做用户调查。 然而,现实情况下,少量用户的反馈往往并不能体现出这个设计的实际效果,或者使用的潜在隐患。这是因为“用户的行为会彼此影响”。 作者在这里举了“反社会行为”作为例子,比如说,一个人在使用社交媒体时,可能只会根据自己的信息发表观点,但是当很多人都参与讨论时,就会带来煽动性言论(inflammatory comments)或者钓鱼引战(trolling)等现象。这样的问题在小规模的用户测试中是无法被检测到的。 为了在“设计阶段”就能了解到大规模用户可能涌现的群体行为,有一种特定的方法叫做social computing system。这个方法可以看作代理人基模型(agent-based model)在设计学中的应用。尽管代理人基模型在其他学科里已经有很广泛的应用了,但是在设计和用户体验方面的探索还很少,这是本研究的一个创新点。 这篇文章的另一个亮点在于,使用了大语言模型(llm):首先,设计师把自己的设计意图输入给语言模型,然后语言模型生成一系列的用户行为(比如发帖/回复)。基于大量社交媒体数据训练的GPT3,已经足够生成各种积极或者消极的回复,其中也包含作者关注的反社会行为。 最后,作者通过用户实验+一个类似于图灵实验的方式来说明这个方法的有效性:让用户区分真实的用户行为,和使用Social Simulacra生成的用户行为。结果显示,用户在超过40%的数据上都无法判断这是真人还是生成数据,这说明了Social Simulacra在模拟真实用户的表现上效果很好。 阅读22年的Social Simulacra一文,可以看到很多Generative agents的影子:二者都使用了大语言模型(GPT3和GPT3.5),二者都尝试用llm去模拟人(一种是社交媒体行为,一种是生活行为),二者都考虑到了人类互相影响所带来的1+1>2的集体效应,并尝试用技术的方法去模拟这种人类群体效应。 两句话总结体会:1. 阅读Social Simulacra对于理解Generative Agents的想法有很大的帮助,两者结合更可以体现作者思考的连贯性。2. 此外,作者对前沿技术的敏感也让人惊讶。想到这篇文章要在22年3月投稿,而gpt3在20年6月才首次发布beta版本。要在很短的时间内把一项尚不成熟的技术用于解决跨学科问题,作者的技术嗅觉真是很准确也很超强啊。

封面图片

最近读到的LLM相关的文章,个人感觉质量最高的是这两篇:

最近读到的LLM相关的文章,个人感觉质量最高的是这两篇: 1. 马丁:大模型赛道的技术和应用分析 从技术测的预训练、Alignment(SFT / RLHF)、评测、MOE,到团队组织,到创业环境,再到应用层可能的机会(2C/2B),非常系统地给出了LLM现状的一个综述。尽管其中有不少都是opinions,但这些opinions是经过深度思考和前沿交流之后沉淀下来的,非常干,值得关注。 对个人启发比较大的几个点: - 目前制约大模型能力接近GPT4的主要因素不是knowhow(正在迅速贬值),而是如何在算力有限的情况下更快地试错。这样看来,随着中美算力的差距越来越大,模型能力的差距可能正在拉大而不是缩小。这可以通过即将发布的Google Gemini能否大幅超越GPT4来验证。 - 在预训练中,大家过于关注算力,对数据规模、数据质量、数据管理、数据配比、数据清洗、scaling up(做小规模的精准验证)的关注不够。MOE尤其考验数据和Infra能力; - 尚未证明RLHF一定比SFT更好,更难倒是真的; - 9月是大模型创业公司下场的最后期限,之后就太晚了。投资人之后会更关注Infra和应用方向。好团队的标准:技术实力(工程能力而不是学术能力)+ 行业资源knowhow( + 政府资源额外加分); - Infra层面上,未来需要一个足够强的未做过alignment的foundation model,在此基础上提供加训、自定义对齐、评测、部署等更加精细的服务,而不是像现在这样只是简单地调用各个大模型的API; - 向量数据库解决的是匹配外部知识的问题,它既不是唯一解,也不是最优解,甚至不如一些传统的搜索和NLP算法。如果是引入外部知识,那么更好的方法是pretrain或continued pretrain; - 在国内,相对于2B,更看好2C,但character.ai之类的chatbot窗口期已过。 2. 对话杨植麟:Moonshot AI即将完成超10亿元融资,公司最终目标并非超越OpenAI

封面图片

去年被 Google 收购的一家创业公司 Socratic (移动学习教育 APP),创始人 Shreyans 有一篇文章,总结

去年被 Google 收购的一家创业公司 Socratic (移动学习教育 APP),创始人 Shreyans 有一篇文章,总结了她从这次收购中看到了、学到了什么。 去年读的时候感觉挺平常的,今天重读一遍发现有一些点还是很深刻的,比如大公司对于创业公司的看法是什么、什么情况才会注意到创业公司、大公司相比于创业公司的优劣势等。 1)Google does things the Google way, 谷歌以谷歌的方式做事 谷歌使用的几乎每一款软件和基础设施都是在谷歌构建的,这是比大多数公司更早面对最棘手的工程问题下的自然结果。 这意味着我们无法保留我们自己的代码库,必须从头开始,在谷歌的技术栈上重建我们的应用程序,与新团队一起重建产品。 2)简单的事情反复完成会让人感到不可思议 我注意到的一个模式是,伟大的 AI 研究人员愿意手动检查大量数据。不仅如此,他们还构建了基础设施,使他们能够快速手动检查数据。虽然并不光彩,但手动检查数据可以提供有关问题的宝贵直觉。 3)大多数问题不值得谷歌花费时间 大多数用户规模在 1000 万至 5000 万之间的问题并不值得谷歌花费时间,而且不符合他们的战略。但对于符合他们性质、战略以及某人的晋升目标的问题,他们将投入大量精力。 4)谷歌员工渴望交付出色的工作,但往往无法做到 虽然毫无疑问,有一些人是冲着美食而来,每天只工作 3 小时,享受着提前退休的生活,但我所遇到的所有人都是认真、努力工作,并希望能够做出优秀的工作。 打败渴望出色的员工的是审查的重重关卡、频繁的组织重组、过去失败留下的制度疤痕,以及在国际舞台上做一些简单事情的复杂性。初创公司可以忽略许多问题,但谷歌员工很难做到这一点。 另一个阻碍他们的是他们自己。所有聪明的人都能反驳任何事情,但却不能支持某件事情。所有的领导者缺乏说出令人不适的真相的勇气,以及所有被雇佣却没有明确项目可供工作的人,但仍必须通过虚构的工作来保留其晋升资格。 5)头重脚轻、结构庞大的组织很难调整方向 我亲身经历的另一个阻碍进展的因素是组织结构的顶层过重。一个团队拥有多位成功的联合创始人和 10~20 年的谷歌老兵听起来可能是取得伟大成就的秘诀,但这也是制造僵局的秘诀。 如果有多个领域可以探索,明确的目标以及强大的自主权来追求这些路径,这种结构可能有效。但如果你想要致力于一个统一的产品,它需要一个明确的领导者,一个明确的方向,以及更多的实干者而非思考者。与直觉相反,在早期项目中增加更多人并不能使项目进展得更快。 6)在谷歌,只要你玩对了游戏,惊喜的事情就是可能的 谷歌曾经有一套他们称之为“三尊重”的内部价值观:尊重用户,尊重彼此,尊重机遇。 前两者比较容易理解,但第三者却让大多数人感到困惑。我的理解是:你在谷歌,这是一个极其盈利、充满天才的企业。你薪水丰厚,食物丰盛,生活在永恒的春天天堂硅谷。 所以,拥有这种疯狂的运气,你能做的最好的事情是什么呢?

封面图片

奥特曼阁下抵达他忠诚的董事会

奥特曼阁下抵达他忠诚的董事会 当地时间周五,3月8日,OpenAI发布博文,宣布董事会新增成员,除了奥特曼之外,还有三位履历亮眼女性加入。此前奥特曼回归后,解散了旧董事会,只有一人留任,又增加了两人。随着新成员的加入,如今的OpenAI董事会从三人扩充到七人,且性别构成相对平衡,兼备商业与技术背景。不久前,马斯克起诉OpenAI,曾提到奥特曼回归后的新董事会(三人版本)缺少技术背景,是拖延宣布AGI到来的手段,而AGI到来是OpenAI与微软深度合作的终止节点。与此同时,OpenAI也公布了对于去年11月公司“事变”的调查结果总结,未公布调查完整报告。该调查由美国著名律师事务所WilmerHale进行,属于第三方独立调查。在OpenAI最新发布的一篇博文中,称董事会特别委员会已宣布调查结束,董事会“对山姆·奥特曼先生和格雷格·布洛克曼先生对OpenAI的持续领导表示完全信任。”同时,OpenAI表示调查显示,“事变”与OpenAI的财务状况无关,与公司对投资者、客户、业务合作伙伴的承诺之担忧也无关,而是董事会和奥特曼之间关系破裂、信任不再的结果。也就是说,独立调查肯定了OpenAI前董事会在发动“事变”时给出的缘由,即“失去信任”,而否认了外界的种种猜测,包括内部因为AI安全问题以及与科技巨头微软的合作而产生分歧。至此,OpenAI去年年终给世界贡献的一出大戏,才算迎来了真正意义上的结局。01OpenAI在周五当天共发布了两篇博文,一篇关于董事会新成员任命,一篇关于“事变”调查盖棺。在奥特曼之外,董事会新添的三位成员分别是:苏·德斯蒙德-赫尔曼(Sur Desmond-Hellmann),妮可·赛丽格曼(Nicole Seligman),菲吉·西莫(Fidji Simo)。OpenAI称赞三人有技术行业、非营利组织和董事会成员的背景,在领先的全球组织和复杂的监管环境中有丰富的经验。董事会主席布莱特·泰勒(Bret Taylor)表示:“他们的经验和领导能力将使董事会能够监督 OpenAI 的发展,并确保我们追求 OpenAI 的使命,即确保人工通用智能造福全人类。”其中德斯蒙德-赫尔曼是非营利组织领导者和医生,目前在辉瑞公司董事会和总统科学技术顾问委员会任职。此前,她曾是宝洁、Meta、比尔和梅琳达·盖茨医学研究所董事会成员,并担任过比尔和梅琳达·盖茨基金会的CEO。除此之外,她是加州大学旧金山教授及该校第一位女性校长,在职5年。在美国基因泰克公司担任产品开发总监期间,她在开发首个基因靶向癌症药物方面发挥了领导作用。赛丽格曼则是律师出身,不仅曾是美国最高法院的法官助理,还为克林顿夫妻提供咨询。此前,赛丽格曼曾在索尼担任过执行副总裁兼总法律顾问,负责监督全球法律和合规事务,还曾兼任索尼娱乐公司和索尼美国公司总裁。目前,她是三个上市公司派拉蒙全球、MeiraGTx、Intuitive的董事会成员。除此之外,她还有非营利机构领导的工作在身,包括施瓦茨曼动物医疗中心及纽约市多伊基金,后者致力于为无家可归者和服刑回归社会的人提供住房、职业培训等支持。而西莫则在科技行业颇有经验,拥有15年头部企业的领导经验。目前,她是配送公司Instacart的董事长兼CEO,同时是Shopify的董事会成员。在此之前,西莫还曾担任Facebook应用负责人。除此之外,西莫创立了MetroDora研究所,后者是致力于神经免疫疾病护理和治疗的多学科医疗机构和研究基金会。去年年底“事变”后,奥特曼回归OpenAI,解散旧董事会,成立新董事会1.0版本:布莱特·泰勒,董事会主席;Quora的CEO亚当·迪安杰罗(Adam D’Angelo),唯一一名旧董事会“遗老”;拉里·萨默斯(Larry Summers),著名经济学家,克林顿时期的财政部部长,奥巴马时期的美国国家经济委员会主席。此次再添新成员,OpenAI新董事会迎来2.0版本,人数扩充到7人,已经比旧董事会壮大。02在新董事会成员公布的同时,OpenAI还宣布了一件大事:关于“事变”的第三方对立调查宣告结束。接手该调查的知名律师事务所WilmerHale对OpenAI前董事会成员、OpenAI高管及其他相关证人进行了数十次采访,审阅了3万份文件,并评估了公司的各种行为。WilmerHale最终认为,是旧董事会与奥特曼的信任破裂导致了2023年11月17日的事件。旧董事会当时认为,他们的行动将减轻内部的管理挑战,没有预料到将会破坏公司的稳定。WilmerHale还认为,旧董事会的决定并非出于对产品安全、开发速度、OpenAI财务状况的担忧,也并不是因为忧心于OpenAI对投资者、客户或商业伙伴的声明。而且,WilmerHale指出,旧董事会在很短的时间内实施了决定,没有进行全面的调查,没有给奥特曼解决他们关切的问题的机会,也没有提前通知关键的利益相关者。在审阅了WilmerHeler的调查结果后,董事会特别委员会建议董事会全体成员核准11月21日重新雇佣奥特曼与格雷格·布洛克曼(Greg Brockman)的决定。“我们一致认为山姆和格雷格是OpenAI的正确领导者。”回顾去年11月的OpenAI“事变”,这是一个意料之中的结果。当时,OpenAI旧董事会突然将奥特曼,并解除其CEO职务,布洛克曼随之辞职。布洛克曼也是OpenAI的关键人物,是其联合创始人兼董事会主席。在旧董事会中,原本有三位OpenAI内部董事,登时只剩下伊利亚·苏茨克维(Ilya Sutskever)一人。OpenAI陷入混乱,其“金主”、商业合作伙伴微软陷入震惊,而外界对这突如其来的奇袭之缘由众说纷纭。OpenAI旧董事会给出的缘由是不再信任奥特曼。但外界有各类猜测,主要集中在OpenAI可能存在内部分歧上。彼时OpenAI新模型“Q*”的传闻正甚,OpenAI被传已在AGI(通用人工智能)的门前。再加上苏茨克维屡次表达对AI威胁的恐惧,外界认为OpenAI“事变”的背后,是以奥特曼为代表的“商业利益”方,和拼命想踩刹车的“保守派”之间的争斗,苏茨克维也一度被怀疑是“幕后黑手”。但事情在三天之内经历了多重反转,包括OpenAI几乎全部的员工签署公开信,要求旧董事会请奥特曼回来,否则就集体辞职。而微软则不仅宣布将邀请奥特曼和布洛克曼加入,成立新的AI项目,还张开双臂欢迎所有离开OpenAI的员工。和“事变”同样突然的,是奥特曼突然成功回到了OpenAI,重新坐上CEO之位。很快,旧董事会不复存在,新董事会由三人组成,全是外部成员,其中只有一位是旧董事会遗老。苏茨克维则在X社交平台上发文“忏悔”,他继续留在OpenAI,布洛克曼也回到公司。次月,OpenAI成立董事会特别委员会,并委托WilmerHale,对“事变”进行调查。四个月后的今天,我们看到了调查结果的总览,没有什么“惊喜”,一切中规中矩:没有阴谋,没有黑手,正如旧董事会所言“失去信任”。03OpenAI想为此事画一个句号。奥特曼在周五的新闻电话会议上说:“我很高兴这件事已经结束,”他补充:“我看到一些人利用新闻爆料来伤害公司,打击我们的使命,这让人心寒。”奥特曼还回应了近期的另一则新闻,表示他支持米拉·穆拉蒂(Mira Murati)。穆拉蒂是OpenAI的首席技术官,在“事变”中曾被短暂任命为临时CEO,但她据当时的报道在内部积极推动奥特曼回归。在X平台上,她也一直保持甚至带头和奥特曼、布洛克曼互动。但《纽约时报》新鲜出炉的一篇报道却援引知情人士的消息称,穆拉蒂实际上是“事变”的重要推手。在去年10月,她曾与苏茨克维前后脚向旧董事会反映,奥特曼“操纵”高管以达到自己的目的。报道发出后,穆拉蒂在X上回应,反驳了这一说法,并且认为这是旧董事会想拉她当替罪羊。“米拉…... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人