这几天Kimi突然在二级市场火了,做二级市场的朋友也开始跟我打听,“Kimi真的很厉害吗?区别在哪里”。

这几天Kimi突然在二级市场火了,做二级市场的朋友也开始跟我打听,“Kimi真的很厉害吗?区别在哪里”。我蛮惊讶的,但不是很意外。一直以来,无论是chatgpt还是sora两波浪潮,中国AI环境里各种要素有一种“弱者思维”:OpenAI做了,你为什么不做?/OpenAI都没做,你为什么要做?这样的环境体现在中国AI创始人身上就是不太“敢”或是“能”去做创新的技术战略。在技术路线分散的时候,为一项技术路线赢取支持是一件太难的事情。大家都避免去“赌”。比如sora赛道的几家中国公司,其实在Sora破圈前就已经自研出了类sora的架构--diffusiontransformer(U-ViT,CVPR2023)。但是为什么直到sora出现之后,“长视频”这个点才引起了大家的追逐?因为即使是在已知架构可以带来提升的前提下,“把视频长度做长”这件事在当时仍然是风险远远大于收益的一件事,谁也不知道60秒的视频生成会不会引起全民关注,进而给公司能带来多少资源以支撑自己进一步做下去。但今天我们看到了什么?虽然长文本在研究领域一直是比较热的话题,但在工业界,就像sora爆发前的“长视频”一样,大家都觉得这是一个“重要但不紧急”的事项。去年十月份,月之暗面率先对外介绍自己的“长文本”战略,并且在机器之心独家详细解释了“为什么长文本是重要的”背后逻辑。在Kimi指数狂扫A股的时候,百度、阿里、360开始紧急上线自己的“长文本”能力。系统化的战略认知能为一个人带来战略眼光,坚定并真实的信念感能为一个人吸引到同频的支持者,脚踏实地的快速迭代能为一个人时刻校准方向。所有的一切形成了一种不偏不倚的理性勇气,勇气带来了创新,创新带来了领导者地位。某种角度看,月之暗面已经成为中国的OpenAI。

相关推荐

封面图片

最近用 Kimi 长文创作总是磕磕绊绊,要求 5000 字的情况下,Kimi 只能给到 1000 多字。

最近用Kimi长文创作总是磕磕绊绊,要求5000字的情况下,Kimi只能给到1000多字。无意中发现了橙篇AI,现在AI长文创作对我来说,简直信手拈来。橙篇AI,一个集合“知识问答、内容搜索、图文理解、长文创作”的多模态AI效率工具。地址:https://cp.baidu.com/据说橙篇是百度文库6月刚出不久,基于文心大模型,主打长文创作的AI效率工具。你可以简单理解为,橙篇是免费版的ChatGPT+Kimi.ai+Metaso+Notion.ai+Midjourney+Gamma。-ChatGPT:橙篇-AI问答-Kimi.ai:橙篇-文档总结-Metaso:橙篇-资料搜索-Notion.ai:橙篇-长文神器-Midjourney:橙篇-AI漫画(即将上线)-Gamma:橙篇-智能PPT(即将上线)最近这几天,我深度使用了它的大多数功能。发现橙篇最秀还是「长文神器」。你只需提供一个标题(大概10个字?),AI会自动帮写大纲和扩写长文。我专门试了下这个功能,给出长文的那一刻我傻了,几分钟就给我干出了20000字,我平时哼哼唧唧几个小时,最多也就写1000。如果你是长文创作选手,推荐你试试橙篇。橙篇有什么惊艳功能?#文档总结橙篇文档总结功能,支持10+常用格式、每个文件最大上传200MB、100个文件批量上传、长文无损理解等特性,Kimi的链接总结只是橙篇基操。#搜索资料橙篇支持“学术检索、全网搜索”这两种搜索模式,我这两天使用的体验效果,发现和Kimi有的一拼,部分不那么复杂的搜索需求,已经完全替代了Metaso。#长文写作橙篇的长文写作功能,主要有“主题生成长文、范文参考写作”。主题生成长文功能,只要你提供一个标题,它就能直接给你生成文章大纲和长文本内容。而范文参考写作,橙篇AI会根据你提供的范文Word和主题,自动生成相关风格长文。据说这功能最高可以输出10万字内容,AI赛道真是太卷辣~相比其他AI工具,橙篇有什么优势?#对新手足够友好相比ChatGPT、Kimi等其他AI工具,首页只孤零零显示一个输入框不同。

封面图片

给文字 AI 就能做电影!为什么 OpenAI 的 Sora 能为 AI 影片生成带来大飞跃

给文字AI就能做电影!为什么OpenAI的Sora能为AI影片生成带来大飞跃https://abmedia.io/what-openai-sora-make-different?utm_source=rss&utm_medium=rss&utm_campaign=what-openai-sora-make-different&utm_source=rss&utm_medium=rss&utm_campaign=what-openai-sora-make-different

封面图片

OpenAI的Sora视频生成模型也能用来渲染游戏

OpenAI的Sora视频生成模型也能用来渲染视频游戏这篇题为《作为世界模拟器的视频生成模型》(Videogenerationmodelsasworldsimulators)的论文由多位OpenAI研究人员共同撰写,揭开了Sora架构关键方面的神秘面纱--例如,Sora可以生成任意分辨率和长宽比(最高1080p)的视频。根据论文所述,Sora能够执行一系列图像和视频编辑任务,从创建循环视频、向前或向后延伸视频到更改现有视频的背景。但最吸引笔者的还是Sora"模拟数字世界"的能力,OpenAI的合著者如是说。在一次实验中,OpenAI将Sora放到Minecraft上,让它在控制玩家的同时渲染世界及其动态(包括物理)。Sora在Minecraft中控制一名玩家,并渲染视频游戏世界,请注意,颗粒感是由视频到GIF的转换工具造成的,而不是Sora。图片来源:OpenAIOpenAI那么,Sora是如何做到这一点的呢?正如NVIDIA高级研究员JimFan(通过Quartz)所说,与其说Sora是一个创意引擎,不如说它是一个"数据驱动的物理引擎"。它不仅能生成单张照片或视频,还能确定环境中每个物体的物理特性,并根据这些计算结果渲染照片或视频(或交互式3D世界,视情况而定)。合著者写道:"这些功能表明,继续扩展视频模型是开发物理和数字世界以及其中的物体、动物和人的高能力模拟器的一条大有可为的途径。"现在,Sora在视频游戏领域也有其通常的局限性。该模型无法准确模拟玻璃碎裂等基本互动的物理过程。即使在可以建模的互动中,Sora也经常出现不一致的情况,例如在渲染一个人吃汉堡时,却无法渲染汉堡上的咬痕。不过,如果我没看错的话,Sora似乎可以为更逼真(甚至可能是逼真)的程序生成游戏铺平道路。这既令人兴奋,又令人恐惧(考虑到Deepfake的影响)--这也许就是为什么OpenAI选择暂时将Sora关在一个非常有限的访问程序后面的原因。相关文章:OpenAI推出文本到视频人工智能模型SoraOpenAI首个视频生成模型发布能生成长达1分钟的高清视频...PC版:https://www.cnbeta.com.tw/articles/soft/1418461.htm手机版:https://m.cnbeta.com.tw/view/1418461.htm

封面图片

公募 REITs 平稳度过三周年大考 二级市场回归理性

公募REITs平稳度过三周年大考二级市场回归理性三年前的2021年6月21日,首批9只公募REITs正式登陆境内资本市场,开启了不动产投资信托基金这一巨大蓝海。如今,首批公募REITs迎来上市三周年。三年来,公募REITs走出了一段先扬后抑、大起大落,然后逐渐回归理性的“过山车”行情,即使在近期战略配售份额“解禁潮”的冲击下,首批公募REITs仍然平稳度过了三周年大考,二级市场正在恢复活力。与此同时,公募REITs也在一级市场上形成了首发+扩募双轮驱动的发展格局,底层资产类型持续扩容,为盘活庞大的存量资产蹚出一条新路。截至6月21日,全市场已上市的公募REITs共36只,总发行规模近1200亿元。(证券时报)

封面图片

ChatGPT火了,OpenAI却飘了?

ChatGPT火了,OpenAI却飘了?1月中旬,《纽约时报》报道称,北密歇根大学的哲学教授AntonyAumann在世界宗教课程评分时,惊喜地读到了一篇“全班最好的论文”。学生用简洁的段落、恰当的举例和严谨的论据,探讨了罩袍禁令的道德意义。然而,在Aumann的追问之下,学生承认论文用ChatGPT写的。类似的例子还有很多。也正是随着ChatGPT在全球范围内的爆火,OpenAI也被迅速推到了舆论的“风口浪尖”。可以说,OpenAI目前处于聊天机器人军备竞赛的领头地位。单以ChatGPT为例,公开发布和微软数十亿美元的合作不仅刺激了Google和亚马逊紧急在产品线中布局人工智能,OpenAI还与贝恩合作,将机器学习引入可口可乐的运营,并计划扩展到其他企业合作伙伴。毫无疑问,OpenAI的人工智能已经成了笔大生意,但其实这与OpenAI最初的计划有些出入。“人类的未来应该由人类来决定”上周五,OpenAI首席执行官SamAltman发表了一篇博文,题为“规划AGI和超越”(PlanningforAGIandbeyond)。在文章中,他宣称OpenAI的通用人工智能(AGI)目前还远没达到要求,许多人怀疑它能否造福全人类,是否“有可能给每个人带来令人难以置信的新能力”。Altman用一种宽泛的、理想主义的语言来论证人工智能的发展不应停止,“人类的未来应该由人类来决定”,这里暗暗指向了OpenAI。几乎是在ChatGPT爆火的周期内,这篇博文和OpenAI近期的行动不断提醒着大家,OpenAI的基调和使命与它成立时相比发生了多大的变化。成立初期的OpenAI只是一个非营利组织。虽然公司一直着眼于AGI发展,但成立时他们承诺不追求利润,免费分享开发代码。而今天,这些承诺已经无处可寻。OpenAI的动力变成了速度和利润2015年,Altman、马斯克、PeterThiel、ReidHoffman宣布成立一家非营利性研究机构OpenAI。在成立声明中,OpenAI宣布,研究承诺“以最有可能造福全人类的方式推进人工智能,不受产生经济回报的限制”。该博客还称,“由于我们的研究没有财务义务,可以更好地专注于对人类的积极影响”,并鼓励所有研究人员分享“论文、博客文章或代码,我们的专利(如果有的话)将与世界共享”。8年后,我们面对的是一家既不透明也不以积极的人类影响为动力的公司。相反,正如包括马斯克在内的许多批评者所认为的那样,OpenAI的动力变成了速度和利润。同时,OpenAI正在释放技术。当然其中存在缺陷,但仍准备以牺牲人类员工为代价增加工作场所的自动化转变。例如,Google强调了自动完成代码的人工智能带来的效率提升,从而导致数千名工人被裁。OpenAI初期,媒体与从业者们都将其设想为以开放的方式进行基础人工智能研究,目的不确定。联合创始人GregBockman曾说:“我们现在的目标......是做最好的事情。这有点模糊不清”。这也无形之中促成了公司在2018年方向的转变。当时,OpenAI向资本资源寻求一些方向,“我们的主要受托责任是对人类。我们预计需要调集大量资源来完成我们的使命”。到2019年3月,OpenAI已经完全摆脱了其非盈利的头衔,建立了一个“封顶利润(cappedprofit)”部门。这使得OpenAI开始接受投资,并会为投资者提供封顶为投资100倍的利润。这项决定被视为是与Google等大科技公司的一次竞争,而不久后公司也如愿获得了微软10亿美元的投资。在宣布成立营利性公司的博文中,OpenAI继续使用相同的说法,宣称其使命是“确保通用人工智能惠及全人类”。但正如Motherboard写道,当风险投资家的主要目标是利润时,很难相信他们能拯救人类。OpenAI还值得公众的信任吗?2019年,OpenAI宣布和发布GPT-2语言模型时面临了舆论反弹。起初,该公司表示,由于“担心该技术的恶意应用”,它不会发布训练模型的源代码。虽然这在一定程度上反映了其对开发有益人工智能的承诺,但它也不是很“开放”。批评者想知道为什么OpenAI会在宣布了一个工具之后却不发布,于是不少人认为这只是宣传噱头。直到三个月后,OpenAI才在GitHub上发布了该模型,并表示这一行动是“负责任地发布人工智能的一个重要基础,特别是在强大的生成模型方面”。调查记者KarenHao在2020年期间在公司内部待了几天,根据他的说法,OpenAI的内部文化开始不再反映谨慎的、研究驱动的人工智能开发过程,而是更注重出人头地,这也导致人们指责其助长了“人工智能炒作周期”。员工现在也被要求对手头的工作保持沉默,以遵守公司新的章程。“公司公开支持的内容和闭门造车的方式之间存在着错位。随着时间的推移,它已经允许激烈的竞争和不断增加的资金压力侵蚀其透明、开放和合作的创始理想。”Hao写道。但总的来说,GPT-2的推出对OpenAI而言无疑是一件值得庆祝的事,也是公司发展至今的重要基石。“这绝对是成功故事框架的一部分”,现任政策研究主管MilesBrundage在一次会议上说,“这一部分的剧情应该是这样的:我们做了一件雄心勃勃的事情,现在有些人正在复制它,这里还应该有一些对这项创新益处的解释”。从那时起,OpenAI保留了GPT-2发布公式中的炒作部分,但取消了开放性。2020年,GPT-3正式推出,并迅速“独家”授权给微软。GPT-3的源代码仍未发布,尽管目前OpenAI已经在紧锣密鼓地筹备GPT-4了;该模型只是通过ChatGPT的API向公众开放,OpenAI还推出了一个付费层以保证对该模型的访问。这样做当然是有一些考量。首先就是钱。OpenAI在API公告博客中表示,“将技术商业化有助于支付我们正在进行的人工智能研究、安全和政策工作”。第二个原因是偏向于帮助大公司。“除了大公司之外,任何人都很难从底层技术中获益”。最后,公司还表示,通过API而不是开源发布更安全,因为该公司可以应对滥用情况。“你们一直告诉我们AGI快了,但在你们的网站上甚至没有一个一致的定义。”计算机科学家TimnitGebru在Twitter上表示。华盛顿大学语言学教授EmilyM.Bender在Twitter上说,“他们不想解决实际世界中的实际问题(这将需要让出权力)。他们想相信自己是神,不仅可以创造一个‘超级智能’,而且有恩惠,以一种与人类‘一致’的方式这样做”。这种人工智能是否会像该公司最初设想的那样,负责任地分享,公开开发,没有盈利动机?或者它是会被匆匆推出,有许多令人不安的缺陷,但主要是为OpenAI带来收益?OpenAI是否会将其科幻的未来保持在闭源状态?结合了ChatGPT之后,微软的必应聊天机器人处于“走火入魔”的状态,不断欺骗和呵斥着用户,传播错误信息。OpenAI不能可靠地检测自己的聊天机器人生成的文本,尽管教育工作者对学生使用该应用程序作弊的情况越来越关注。人们也已经轻易地对语言模型进行了越狱,无视OpenAI在其周围设置的护栏,机器人在输入随机的单词和短语时会崩溃。没有人能说清楚原因,因为OpenAI没有分享底层模型的代码,可能在某种程度上,OpenAI自己也不太可能完全理解它的工作原理。考虑到这一切,我们都应该仔细考虑OpenAI是否值得它要求公众给予的信任,而对此,OpenAI没有做出任何实质性的回应。...PC版:https://www.cnbeta.com.tw/articles/soft/1347537.htm手机版:https://m.cnbeta.com.tw/view/1347537.htm

封面图片

OpenAI首席科学家Ilya离开OpenAI了吗?

OpenAI首席科学家Ilya离开OpenAI了吗?OpenAI联合创始人兼总裁格雷格·布罗克曼(GregBrockman)、CTO米拉·穆拉蒂(MiraMurati)等人,也在积极为Sora宣传。但伊尔亚的最后一条推文,停留在了2023年12月15日。OpenAI在其官网上的Sora的文章后面留下了团队成员的名字。在一串致谢名单中,我们看到了萨姆·奥尔特曼、格雷格·布罗克曼、米拉·穆拉蒂等人的名字,但唯独没有出现伊尔亚·苏茨克维。这不禁让人怀疑,伊尔亚究竟是在埋头研究GPT-5,还是已经离开了OpenAI?值得一提的是,OpenAI创始成员之一、AI技术研究员安德烈·卡帕蒂(AndrejKarpathy)在Sora发布前夕离职。有网友大胆猜想:“如果Andrej和Ilya创办一家真正开放的人工智能公司怎么办?”1.“我们终于知道伊尔亚看到什么了”今天,OpenAI最新发布的Sora模型再次让人们感受到了人工智能的强大,强大到令人害怕。Sora不仅仅是一个视频生成模型,它涌现出了对物理世界的理解能力(尽管还存在局限),OpenAI直接将其定义为“世界模拟器”(worldsimulators)——它打开了一条通往模拟物理世界的有效路径。不少人感慨,“现实不存在了”,“物理学不存在了”。人们似乎在这一刻终于理解了伊尔亚为什么一直执着于人工智能的安全性研究。强大的AI模型对世界带来的风险并非遥不可及。有网友表示:“现在,我们知道伊尔亚看到什么了。”埃隆·马斯克则在贴子里留下了一个笑哭的表情。去年,随着GPT-4以及后续一系列更强大的大语言模型的更新,以伊尔亚为代表的OpenAI成员越来越多地考虑AI的可控性问题。为此,OpenAI在2023年7月5日宣布成立一个新的团队“超级对齐”(Superalignment),来研究引导和控制比人类聪明得多的AI系统。这一项目由伊尔亚与同事简·莱克(JanLeike)共同领导,并将OpenAI20%的算力专门用于该项目的研究。一般认为,去年11月闹得沸沸扬扬的OpenAI“宫斗事件”的导火索,就是伊尔亚对于AI的发展理念与萨姆产生了分歧,伊尔亚越来越担忧OpenAI的技术可能造成极度危险的局面,他觉得萨姆对待AI应该更加谨慎。显然,萨姆并没有停下来。在硅谷,对于AI的不同态度把人群分成了保守派与激进派。保守派也被称为EA(EffectiveAltruism,有效利他主义),代表人物是“人工智能教父”杰弗里·辛顿(GeoffreyHinton),伊尔亚就是他的学生。激进派被称为“e/acc(有效加速主义)”,很多知名的科技大佬、AI从业者都是e/acc主义的信徒。萨姆并未公开表达过自己的立场,但考虑到他带领下的OpenAI一系列激进的产品发布节奏,事实上他已经成为e/acc的代言人。伊尔亚联合董事会成员罢免了萨姆。但在大股东微软的斡旋与OpenAI全体员工请辞的压力下,伊尔亚最终妥协让步,萨姆在几天后重新回到了OpenAI并掌权,并重组了董事会。宫斗事件结束后,伊尔亚并没有立即离开OpenAI,萨姆希望继续他们之间的工作关系,并正在讨论他如何继续在OpenAI的工作。萨姆表达了对伊尔亚的谢意:“我尊重并热爱着伊尔亚,我认为他是这个领域的指路明灯,也是人类的瑰宝。我对他的恶意为零。”但去年外媒一篇报道曾指出,伊尔亚似乎处于一种“迷茫”的状态,在OpenAI变得“隐形”。自萨姆回归以来,伊尔亚就没有出现在OpenAI旧金山的办公室内。马斯克也向伊尔亚抛出了橄榄枝,他表示伊尔亚应该加入特斯拉或他的AI公司xAI。伊尔亚对于人工智能安全的工作还在继续。12月14日,OpenAI发布了超级对齐项目的最新研究论文:使用GPT-2级别的小模型来监督GPT-4级别的大模型,并获得接近GPT-3.5级别的性能。同时,OpenAI宣布与EricSchmidt合作,启动了一项1000万美元的资助计划支持技术研究,以确保超人类人工智能系统的一致性和安全性。作为该论文核心作者之一的伊尔亚,也在X上转发了相关内容。但这是宫斗事件至今,伊尔亚在X上转发的关于OpenAI进展的唯一内容。我们暂时无法得知伊尔亚是否已经离开了OpenAI,但他对于Sora的沉默态度似乎并不寻常。伊尔亚在签名上写着:“朝着拥抱人性多样化的通用人工智能发展。”2.人才是OpenAI的核心竞争力虽然伊尔亚并不在Sora的研究团队中,但Sora仍然表现出了压倒性的性能优势,可见人才密度是OpenAI领先的重要因素。Sora团队整体非常年轻。核心成员有三位,分别是研究负责人BillPeebles(比尔·皮布尔斯)与TimBrooks(蒂姆·布鲁克斯)与系统主管ConnorHolmes。ConnerHolmes曾是微软研究员,在微软工作时以外援形式参与了DALL·E3的推理优化工作,后来跳槽加入OpenAI。BillPeebles本科就读于MIT,主修计算机科学,参加了GAN和text2video的研究,还在英伟达深度学习与自动驾驶团队实习,研究计算机视觉。毕业后正式开始读博之前,他还参加了Adobe的暑期实习,研究的依然是GAN。2022年5月,Bill到Meta进行了为期半年的实习,和谢赛宁(Bill开始实习时还未离开Meta)合作发表了DiT模型,首次将Transformer与扩散模型(DiffusionModel)结合到了一起。从加州大学伯克利分校博士毕业之后,Bill加入了OpenAI。Sora的模型架构,就是参考了Bill与谢赛宁合作发表的DiT论文。值得一提的是,该论文主要聚焦在了DiT架构在图像生成领域的性能表现。有人推测,随着Bill加入OpenAI,他很可能把自己在视频领域的研究成果,也带到了OpenAI的Sora项目中。Sora的另一个核心作者是TimBrooks,曾在Google负责Pixel手机摄像头的机器学习工作,以及在英伟达负责视频生成模型研究。2023年从加州大学伯克利分校博士毕业后,Tim加入OpenAI,参与了DALL·E3相关研究。在其他几位作者中,也包括两位华人LiJing与YufeiGuo。今天,上海交大校友、目前在纽约大学担任助教的谢赛宁在朋友圈辟谣了自己是Sora作者之一的消息。他表示,Sora是Bill他们在OpenAI的呕心沥血之作,虽然不知道细节,但他们每天基本不睡觉高强度工作了一年。同时,谢赛宁也对Sora发表了他的观点:第一,对于Sora这样的复杂系统,人才第一,数据第二,算力第三,其他都没有什么是不可替代的;第二,在问Sora为什么没出现在中国的同时,可能也得问问假设真的出现了(可能很快),我们有没有准备好?如何能保证知识和创意的通畅准确传播让每个人拥有讲述和传播自己故事的“超能力”,做到某种意义上的信息平权。但是又不被恶意利用,变成某些人某些组织的谋利和操纵工具。oai有一整套的redteaming,safetyguardrail的研究部署,欧美有逐渐成熟的监管体系,我们准备好了吗?这件事跟技术成熟前,生成点小打小闹的漂亮图片不是一个量级,真相捕捉和黑镜里讲的故事,很有可能很快变成现实。(封面图来自X,左边为安德烈·卡帕蒂,右边为伊尔亚·苏茨克维)...PC版:https://www.cnbeta.com.tw/articles/soft/1419189.htm手机版:https://m.cnbeta.com.tw/view/1419189.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人