斯坦福人工智能领袖李飞飞打造"空间智能"初创公司

斯坦福人工智能领袖李飞飞打造"空间智能"初创公司其中三位消息人士称,投资方包括硅谷风险投资公司AndreessenHorowitz,另外两位消息人士称,投资方还包括她去年作为科学合伙人加入的加拿大公司RadicalVentures。AndreessenHorowitz和RadicalVentures的发言人拒绝发表评论。李飞飞没有回应置评请求。李飞飞被广泛誉为"人工智能教母",这一称号源自"教父"的称谓,通常用来指因在人工智能技术方面取得突破而在2018年获得计算机世界最高奖项图灵奖的三位研究人员。在介绍这家初创公司时,一位消息人士提到了李飞飞上个月在温哥华TED大会上发表的演讲,她在演讲中说,最前沿的研究涉及一种算法,这种算法可以合理地推断出图像和文字在三维环境中的样子,并根据这些预测采取行动,这种算法使用的概念叫做"空间智能"。为了说明这个想法,她展示了一张猫伸出爪子把玻璃杯推向桌子边缘的图片。她说,在一瞬间,人脑就能评估"这个玻璃杯的几何形状、它在三维空间中的位置、它与桌子、猫和其他一切的关系",然后预测会发生什么,并采取行动加以阻止。她说:"在空间智能的驱动下,大自然创造了这种看与做的良性循环。"她补充说,她自己在斯坦福大学的实验室正试图教计算机"如何在三维世界中行动",例如,利用大型语言模型让机械臂执行任务,如根据口头指令开门和制作三明治。李在人工智能领域的成名作是开发了一个名为ImageNet的大规模图像数据集,该数据集帮助开创了一代计算机视觉技术,首次能够可靠地识别物体。她是斯坦福大学以人为本的人工智能研究所(Human-CenteredAIInstitute)的联合主任,该研究所致力于以"改善人类状况"的方式开发人工智能技术。除学术工作外,李飞飞还在2017年至2018年期间领导Google云的人工智能工作,曾在Twitter董事会任职,并曾为政策制定者提供咨询,包括在白宫。李飞飞曾对人工智能研究资金缺口表示遗憾,他呼吁美国政府以"登月心态"投资于该技术的科学应用及其风险研究。她在斯坦福大学的个人资料显示,她将于2024年初至2025年末休部分假期。她的个人简介中列出的研究兴趣包括"认知启发人工智能"、计算机视觉和机器人学习。在LinkedIn上,她把目前的工作列为"新手"和"新事物",从2024年1月开始。李飞飞转向初创公司,加入了炙手可热的人工智能公司之间的竞争,教他们的算法学习常识,以克服当前技术(如大型语言模型)的局限性。许多人说,在人工智能模型实现人工通用智能(AGI)之前,必须先建立起这种"推理"能力。"推理"能力指的是一个临界点,在这个临界点上,系统可以像人类一样或更有能力地完成大多数任务。一些研究人员认为,他们可以通过建立更大、更复杂的现有模型来提高推理能力,而另一些研究人员则认为,前进的道路涉及使用新的"世界模型",这种模型可以从周围的物理环境中获取视觉信息来发展逻辑,复制婴儿的学习方式。...PC版:https://www.cnbeta.com.tw/articles/soft/1429556.htm手机版:https://m.cnbeta.com.tw/view/1429556.htm

相关推荐

封面图片

“人工智能教母”李飞飞4个月创立一家10亿美元的初创企业

“人工智能教母”李飞飞4个月创立一家10亿美元的初创企业斯坦福大学人工智能领军人物李飞飞在短短4个月内悄悄打造了一家价值10亿美元的初创企业,加入了整个科技行业的人工智能技术商业化的激烈竞争。据三名知情人士透露,被称为“人工智能教母”的计算机科学家李飞飞在今年4月创建了一家名为WorldLabs的公司。其中两名知情人士透露,这家初创公司已经筹集了两轮融资,资金来自安德里森-霍洛维茨和人工智能基金RadicalVentures等顶级科技投资者。这些投资者对该公司的估值超过10亿美元。其中一人表示,WorldLabs在最新一轮融资中筹集了约1亿美元。——()

封面图片

消息称“AI 教母”李飞飞正建立初创公司,开发可理解 3D 空间关系的 AI 系统

消息称“AI教母”李飞飞正建立初创公司,开发可理解3D空间关系的AI系统路透社消息,计算机科学家李飞飞正在建立一家初创公司。该公司旨在利用类似人类的视觉处理技术,使AI具备高级推理能力,有望成为AI技术的一次飞跃。李飞飞被广泛称为“AI教母”,与通常用来指因AI技术突破而在2018年获得图灵奖的三位研究人员的“AI教父”对应。这三名“AI教父”则是杰弗里・辛顿、杨立昆、约书亚・本西奥。一位消息人士通过李飞飞上个月在温哥华TED大会发表的演讲,对这家初创公司进行了详细描述:李飞飞曾表示,最前沿的研究涉及一种算法,这种算法可以合理地推断出图像和文字在三维环境中的样子,并根据这些预测采取行动,使用的概念叫作“空间智能”。李飞飞曾展示一张猫伸出爪子把杯子推向桌子边缘的图片。她说,在一瞬间,人脑就能评估“这个玻璃杯的几何形状、它在三维空间中的位置、它与桌子、猫和其他一切的关系”,然后预测会发生什么,并采取行动加以阻止。目前,她在斯坦福大学的实验室正试图“教计算机如何在三维世界中行动”,例如使用大型语言模型让机械臂执行任务、根据口头指令开门和制作三明治等。当前有不少声音认为,在人工智能模型实现人工通用智能(AGI)之前,必须先建立起这种“推理”能力。“推理”能力指的是一个阈值,在这个阈值上,系统可以像人类一样或更有能力地完成大多数任务。来源,频道:@kejiqu群组:@kejiquchat

封面图片

斯坦福大学发布人工智能状况报告

斯坦福大学发布人工智能状况报告虽然现在人工智能发展之快,让任何与人工智能有关的报告一发布就面临过期的风险,但是我们仍然能从这份386页的中得到一些有用的信息:·在过去的十年里,人工智能的发展已经从学术界主导翻转到了工业界主导,而且这没有改变的迹象。·在传统基准上测试模型正变得困难,这里可能需要一种新的模式。·人工智能训练和使用的能源占用正在变得相当大,但我们还没有看到它如何在其他地方增加效率。·与人工智能相关的技能和工作岗位正在增加,但没有你想象的那么快。·政策制定者们正在努力编写一个明确的人工智能法案,如果有的话,这是一个愚蠢的差事。·投资已经暂时停滞,但这是在过去十年的天文数字般的增长之后。·超过70%的中国、沙特和印度受访者认为人工智能的好处多于坏处。美国人呢?35%。来源,,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

AI教母李飞飞首次创业 “空间智能”公司已完成种子轮

AI教母李飞飞首次创业“空间智能”公司已完成种子轮作为AI领域影响力最大的女性和华人,李飞飞长期对学术界和工业界贡献斐然。她在斯坦福拿下终身教职,曾担任Google云AI首席科学家、推动GoogleAI中国中心成立、并长期统筹Google云AI、Google大脑以及中国本土团队工作。但躬身创业,这是头一回。目前,李飞飞及相关投资方对于这一新消息尚未做出回应。但李飞飞的领英页面上已经多了一条新履历。title是“新手”,介绍只写了“somethingnew”,确定是全职,从2024年1月开始,现在已经进行5个月。计划“让AI实现高级推理”汇总各方信息,目前比较有迹可循的线索是参投的加拿大风投RadicalVentures。去年,李飞飞去年以科学合伙人的身份加入了这家基金。更多蛛丝马迹,可以从李飞飞近期的公开活动看起。上个月,李飞飞在温哥华举行的TED大会中发表了主题演讲,内容正是与空间智能相关。演讲中,李飞飞对“空间智能”的描述是从物体之间的关系中获得预测和洞察力的能力。她表示,AI对空间智能理解的进步,正在催化机器人学习,使我们更接近让AI能与世界互动的目标。为了解释“空间智能”,她展示了一张猫咪伸出爪子要把玻璃杯推向桌子边缘的照片。她表示,人类大脑在这一瞬间可以评估玻璃杯的几何形状、它在3D世界中的位置、它与桌子、猫和其他东西的关系,并且能预测接下来会发生什么,采取行动制止。大自然创造了这种由空间智能驱动的视觉和行为的良性循环。同时,她表示自己的团队在实验室中也正在尝试如何教会电脑在3D世界中行动。比如通过大语言模型,让一个机器人手臂执行任务,打开一扇门、做一个三明治以及对人类的口头指令做出反应等。这里提到的工作应该是和去年发布的具身智能成果VoxPoser有关。这个项目可以让人类给机器人下达指令,如“打开上面的抽屉,小心花瓶!”然后大语言模型+视觉语言模型就能从3D空间中分析出目标和需要绕过的障碍,帮助机器人做行动规划。并且在真实世界中,机器人在未经“培训”的情况下,就能直接执行这个任务。除此之外,近期李飞飞也参与了一系列学术成果的发表,涉足领域包括计算机视觉、机器人、智能体等。比如一些的便携式的动作数据收集系统。还有一些与Agent相关。比如上个月发布的一项涉及1000多种人类日常活动的具身智能Benchmark,李飞飞就有参与其中。在3D空间方面,李飞飞团队也在今年年初发布了一款隔空3D建模模型,可以透过遮挡物建模出人物的动作。此外,她还与来自微软、斯坦福、UCLA等机构的15名研究人员共同发布了一份关于AgentAI的立场文件。文件中明确了AgentAI的基本概念,并提出了AgentAI基础模型,即利用多模态预训练模型构建的通用Agent系统。文件中指出,这些模型可以处理来自机器人、游戏等领域的交互式多模态数据。另外,李飞飞的斯坦福主页显示从今年年初到2025年末,她将处于“部分休假”状态。这一起始时间,刚好与李飞飞领英页面中“newbie”履历的开始时间重合。如今,李飞飞已经成为AI领域内最具影响力的女性和华人之一。对应AI教父的称号,大家称她为AI教母。她的传奇经历一直为人津津乐道——33岁成为斯坦福计算机系终身教授,44岁成为美国国家工程院院士,现任斯坦福以人为本人工智能研究院(HAI)院长。她是计算机视觉领域举足轻重的领军人物,一手创立的ImageNet成为推动计算机视觉识别领域前进的标杆成果。其门下高徒颇多,比如先后在OpenAI、特斯拉任职的AndrejKarpathy、目前在英伟达的JimFan等,也都是AI领域内颇具影响力的人物。后来李飞飞曾短暂进入工业界,出任Google副总裁即Google云AI首席科学家。她一手推动了GoogleAI中国中心正式成立,这是Google在亚洲设立的第一个AI研究中心。并带领Google云推出了一系列有影响力的产品,包括AutoML、ContactCenterAI、DialogflowEnterprise等。最新大模型趋势里,李飞飞团队聚焦于具身智能,将大模型接入机器人,无需额外数据和训练即可把复杂指令转化成具体行动规划,开辟新一轮浪潮中的重要方向。一直以来,李飞飞都是AI领域风向标一样的存在。最近,李飞飞的个人回忆录《我看到的世界》正式发表。在这本书中,李飞飞自述了自己如何从北京到成都再到美国,如何在AI变革中逐渐找到自己的使命,并且分享了自己对AI发展的看法。由此,一个更加立体的李飞飞被勾勒出来。她说自己不是开源派也不是毁灭派,她希望人类能和AI和平相处。她分享,Google云的经历让她意识到,引领AI技术发展需要肩负起相应的责任。她也表示,如果你追求时髦算法,那么这肯定不是最好的科研。毕竟她曾经也做过冷门项目——不听同行导师建议,用数年时间标注了用于训练ImageNet的1400万张图片。……李飞飞坦言,自己非常害羞,不敢讲自己的故事。才四十多岁就写回忆录?我不是爱因斯坦。而在写完自己前40年后,李飞飞给自己掀开了一个人生新章程。正如她所说的,文明就像是一艘大船,我们在黑暗中航行。科学家李飞飞,如今有了新故事。...PC版:https://www.cnbeta.com.tw/articles/soft/1429597.htm手机版:https://m.cnbeta.com.tw/view/1429597.htm

封面图片

斯坦福大学研究表明世界上最大的人工智能模型并不很透明

斯坦福大学研究表明世界上最大的人工智能模型并不很透明今天,斯坦福HAI发布了其基础模型透明度指数,该指数追踪10个最受欢迎的人工智能模型的创建者是否披露有关其工作以及人们如何使用其系统的信息。在其测试的模型中,Meta的Llama2得分最高,其次是BloomZ,然后是OpenAI的GPT-4。但事实证明,他们都没有得到特别高的分数。其他评估的模型包括Stability的StableDiffusion、Anthropic的Claude、Google的PaLM2、Cohere的Command、AI21Labs的Jurassic2、Inflection的Inflection-1和Amazon的Titan。研究人员承认,透明度可以是一个相当广泛的概念。他们的定义基于100个指标,这些指标提供有关模型如何构建、模型如何工作以及人们如何使用模型的信息。他们解析了有关该模型的公开信息,并给每个人打分,指出这些公司是否披露了合作伙伴和第三方开发商,是否告诉客户他们的模型是否使用了私人信息,以及一系列其他问题。随着该公司发布了对模型创建的研究,Meta得分为53%,在模型基础知识上得分最高。开源模型BloomZ紧随其后,获得了50%的支持,GPT-4获得了47%的支持——尽管OpenAI的设计方法相对锁定,但它与稳定扩散并列。OpenAI拒绝公布其大部分研究成果,也没有透露数据源,但GPT-4却成功排名靠前,因为有大量有关其合作伙伴的可用信息。OpenAI与许多不同的公司合作,将GPT-4集成到他们的产品中,产生了大量可供查看的公开细节。然而,斯坦福大学的研究人员发现,这些模型的创建者都没有透露任何有关社会影响的信息,包括向何处提出隐私、版权或偏见投诉。斯坦福大学基础模型研究中心的学会负责人、该指数的研究人员之一RishiBommasani表示,该指数的目标是为政府和公司提供基准。一些拟议的法规,例如欧盟的人工智能法案,可能很快就会迫使大型基础模型的开发商提供透明度报告。“我们试图通过该指数实现的目标是使模型更加透明,并将非常不明确的概念分解为可以测量的更具体的事物,”博马萨尼说。该小组专注于每个公司的一种模型,以便更容易进行比较。生成式人工智能拥有一个庞大而活跃的开源社区,但该领域的一些最大的公司并没有公开分享研究成果或他们的代码。尽管OpenAI的名称中有“开放”一词,但它以竞争和安全问题为由,不再分发其研究成果。Bommasani表示,该组织对扩大该指数的范围持开放态度,但与此同时,将坚持使用已经评估过的10个基础模型。...PC版:https://www.cnbeta.com.tw/articles/soft/1390877.htm手机版:https://m.cnbeta.com.tw/view/1390877.htm

封面图片

人工智能对人工智能生成的内容进行训练将导致人工智能崩溃

人工智能对人工智能生成的内容进行训练将导致人工智能崩溃用于训练大型语言模型的数据最初来自人类来源,如书籍、文章、照片等,这些都是在没有人工智能的帮助下创建的。但随着越来越多的人使用人工智能来制作和发布内容,一个明显的问题出现了:当人工智能生成的内容在互联网上扩散时,人工智能模型开始对其进行训练。研究人员发现,“在训练中使用模型生成的内容会导致所产生的模型出现不可逆转的缺陷。”他们研究了文本到文本和图像到图像的人工智能生成模型的概率分布,得出结论:“从其他模型产生的数据中学习会导致模型崩溃——这是一个退化的过程,并且随着时间的推移,模型会忘记真正的基础数据分布。”他们观察到模型崩溃发生得如此之快:模型可以迅速忘记它们最初学习的大部分原始数据。这导致它们随着时间的推移,表现越来越差,错误越来越多。来源,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人