【书名】怎样做成大事【作者】傅以斌,丹·加德纳

【书名】怎样做成大事 【作者】傅以斌,丹·加德纳 【格式】#epub #mobi #azw3 #pdf 【分类】#管理学 #自我提升 #2024新书 【简介】失败的项目都是相似的,成功的项目也都是相似的。研究发现,无论人力物力多么充足,大项目也难逃三大铁坑:预算超支,时间超期,效益不足。然而,有0.5%的项目成功避免了大项目铁律。通过总结这些项目成功的经验,作者提出了做成大事的11个启发式,比如“慢思考,快行动”、“组建完美的团队”、“雇用有经验的人”、模块化,等等。对这些启发式的遵循与否,决定了每一个项目的成败。

相关推荐

封面图片

《怎样做成大事》简介:本书提供了关于怎样做成大事的深度解析,涵盖其发展背景、核心概念以及实际应用。通过真实案例与科学研究,帮助读

《怎样做成大事》 简介:本书提供了关于怎样做成大事的深度解析,涵盖其发展背景、核心概念以及实际应用。通过真实案例与科学研究,帮助读者理解其重要性,并掌握相关技能或知识点。适合对该主题感兴趣的读者,让你在短时间内提升认知,拓宽思维边界。 标签:#怎#怎样做成#知识#学习 文件大小:NG 链接:

封面图片

【书名】人生由我【作者】梅耶·马斯克

【书名】人生由我 【作者】梅耶·马斯克 【格式】#epub #mobi #azw3 #pdf 【分类】#女性 #传记 #马斯克 #自我提升 【简介】这本书展现了一个女性是怎样逐步探索世界和重建自我的。 虽然人生困境重重,但成功的蜕变依然有法可循。梅耶在书中真诚地分享了关于美丽、职场、家庭、教育和健康等人生问题的经历和建议,我们或许无法避免遇到与之相似的困境,但可以像她一样积极应对。世上没有一步到位的解决办法,我们要有足够的常识和制订计划的能力;不必把人生中的每一次改变都精确到细节,可以在问题出现的时候再着手解决;拥有良好的心态,让外表和内心一样“胸有成竹”,不因为爱而羞愧或恐惧,人生由我。 阅读: 频道:@sharebooks4you 群组:@sharing_books4u

封面图片

斯坦福爆火Llama3-V竟抄袭中国开源项目 作者火速删库

斯坦福爆火Llama3-V竟抄袭中国开源项目 作者火速删库 5 月 29 日,一个来自斯坦福的研究团队发布了一个能够“改变现状”的产品:Llama3-V,号称只要 500 美元(约为人民币 3650 元),就能基于 Llama3 训练出一个超强的多模态模型,效果与 GPT4-V、Gemini Ultra 、 Claude Opus 多模态性能相当,但模型小 100 倍。Github 项目链接: 项目链接: 在Twitter上迅速爆火,浏览量突破 30 万,转发超过 300 次,还冲上了“ HuggingFace Trending ”Top 5。但是没发布两天,Llama3-V 就遭遇了重重质疑。有人指出,Llama3-V 项目中有一大部分似乎窃取了清华大学自然语言处理实验室与面壁智能合作开发的多模态模型 MiniCPM-Llama3-V 2.5。MiniCPM-V 是面向图文理解的端侧多模态大模型系列。MiniCPM-Llama3-V 2.5 是该系列的最新版本。其多模态综合性能超越 GPT-4V-1106、Gemini Pro、Claude 3、Qwen-VL-Max 等商用闭源模型。OCR 能力及指令跟随能力进一步提升,并支持超过 30 种语言的多模态交互。这样的优秀性能,不仅让 MiniCPM-Llama3-V 2.5 成为受大家推崇的模型,或许也成为了 Llama3-V 的“模仿”对象。项目地址: 用户 JosephusCheung 在项目的评论区中提出问题,Llama3-V 是否在未提及的情况下使用 openbmb/MiniCPM-Llama3-V-2.5 进行了训练。而作者回复表明,Llama3-V 使用了 MiniCPM-Llama3-V-2.5 的预训练 tokenizer,并且是在它发布前就开始了这项工作。这样的解释明显出现了时间错位,加重了大家的怀疑。细扒其中猫腻此外,还有一位名为 Magic Yang 的网友也产生了质疑,他对于这两个模型的相似性也有着更深的洞察。他首先在 Llama3-V 的 GitHub 项目 Issue 中发布了他的疑问,没想到 Llama3-V 的作者们很快就删除了质疑帖。在这个 Issue 中,他首先提出,Llama3-V 与 MiniCPM- Llama3-V 2.5 具有相同的模型结构和配置文件,只是变量名不同。Llama3-V 的代码几乎完全照抄 MiniCPM-Llama3-V 2.5,只是进行了一些格式上的修改,包括但不限于分割图像、tokenizer、重采样器和数据加载部分。Llama3-V 的作者立马回复,称 Llama3-V 在架构上参考的是 LLaVA-UHD,并列出了在 ViT 和 LLM 选择上与 Mini CPM-Llama3-V 2.5 的差异。但 Magic Yang 发现,相比 LLaVA-UHD 所用的方法,Llama3-V 与 MiniCPM-Llama3-V 2.5 可谓是一模一样。特别是 Llama3-V 使用了与 MiniCPM-Llama3-V 2.5 相同的,连 MiniCPM-Llama3-V 2.5 新定义的特殊符号都“抄”上了。于是,他向作者提问,为什么 Llama3-V 在 MiniCPM-Llama3-V2.5 项目发布之前,就未卜先知似的拿到了其 tokenizer?这似乎算是追问了作者对 JosephusCheung 的回答。Llama3-V 作者回答称,他参考了 MiniCPM-V-2 的 tokenizer( 采用了新的 tokenizer 和原来版本中的特殊符号,因此 Llama3-V 的代码中保留了这个符号,但 Llama3-V 与 MiniCPM-Llama3-V2.5 是完全不同。但事实是,MiniCPM-V-2 的 tokenizer 与 MinicPM-Llama3-V2.5 完全不同,在 Hugging Face 里是两个文件,文件大小也完全不同,也不包含 Llama3-V 所用到的与 Llama 3 有关的 tokenizer。Magic Yang 还发现了 Llama3-V 的作者在 Hugging Face 上传项目时,直接导入了 MiniCPM-Llama3-V 2.5 的代码,后来才把一些文件里的名称替换为 Llama3-V。于是,Llama3-V 的作者的作者再次回复,称 Magic Yang 的指控大错特错。首先,想要运行 HuggingFace Transformer,需要给模型写配置文件,但是他们恰好发现 MiniCPM 的配置能用,因此,他们使用了与 MiniCPM 相同的配置。其二,Llama3-V 的模型架构 SigLIP 的灵感来源于 Idéfics ,作者之前也提到,Llama3-V 模型架构参考的 LLaVA-UHD 同样如此,并且在视觉代码方面,他们借鉴了 Idéfics ,并非照搬 MiniCPM。更令人惊讶的是, Magic Yang 发现 Llama3-V 项目的作者似乎并不理解他们自己的代码,或许也不明白搬来的 MiniCPM-Llama3-V 2.5 架构中的细节。感知器重采样器(Perceiver Resampler)使用的是单层交叉注意力,而非双层自注意力。然而,下图中的 Llama3-V 技术博客中的描述明显存在误解。Llama3-V 的技术博客Llama3-V 的代码此外,SigLIP 的 Sigmoid 激活功能并不用于训练多模态大语言模型,而是仅在 SigLIP 的预训练过程中使用。看来,作者对于自己的代码理解还是有很大偏差的。Llama3-V 的技术博客Llama3-V 的代码对于清华 NLP 实验室和面壁智能团队特别采集和标注,从未对外公开的专有数据,Llama3-V 的表现也非常出色。“清华简”是一种非常特殊且罕见的中国战国时期的古文字,而美国模型 Llama3-V 不仅认识中国古文字,在认错字的时候,也和 MiniCPM-Llama3-V 2.5 一模一样。有网友用 1000 张竹简图像对同类模型进行了测试,正常情况下,每两个模型之间的重叠应该为 0,而 Llama3-V 和 MiniCPM-Llama3-V 2.5 之间的重叠高达 87%。识别错误的结果 Llama3-V 和 MiniCPM-Llama3-V 2.5 也有高达 182 个重合。删库?也不管用在重重质疑之后,Llama3-V 的作者行动了。此前宣传 Llama3-V 的Twitter内容流已不可见。他还隐藏了 HuggingFace 的仓库。Magic Yang 再次发难,问 Llama3-V 的作者为何在 HuggingFace 上将模型设为私密?作者称,设为私密是为了修复 Llama3-V 的推理功能,MiniCPM 的配置与 Llama3-V 不兼容,当时 HuggingFace Transformers 无法正确地加载模型,为了避免下载模型的用户运行失败,他将进行一些修复。同样地,Llama3-V 的 GitHub 项目主页也显示为“404”。GitHub 地址: Magic Yang 与对话已经随着项目页面 404 而隐藏。但 Magic Yang 已将对话截图评论在了 MiniCPM-V 的 GitHub 页面。据网友反馈,当运行 Llama3-V 时,作者提供的代码无法与 HuggingFace 上的 checkpoint 兼容。然而,当把 Llama3-V 模型权重中的变量名更改为 MiniCPM-Llama3-V 2.5 后,就能成功运行。如果在 MiniCPM-Llama3-V 2.5 的 checkpoint 上添加一个简单的高斯噪声,就会得到一个在各个测试集上的表现都与 Llama3-V 极为相似的模型。有网友上传了 Llama3-V 删库前的检查点,大家可以自行测试验证。检查点链接:“抄袭”源于对队友 Mustafa 的盲信。 ... PC版: 手机版:

封面图片

破解ChatGPT惊人耗电 DeepMind新算法训练提效13倍,能耗暴降10倍

破解ChatGPT惊人耗电 DeepMind新算法训练提效13倍,能耗暴降10倍 随着AI计算需求的膨胀,还需要用水来冷却计算系统。研究称,微软用水量从2021年到22年飙升了34%,ChatGPT每处理5-50个提示就会消耗接近半升水。针对这种现状,我们有更好的解决策略吗?最近,GoogleDeepMind研究团队提出了一种加快AI训练的新方法多模态对比学习与联合示例选择(JEST),大大减少了所需的计算资源和时间。JEST以13倍更少的迭代次数,以及10倍更少的计算量,超越了最先进的模型!预训练的参考模型,已经学习了什么样的数据是有“优质的”或“有用的”。然后通过模型,来引导数据选择那些精心筛选过的小型数据集。这一发现揭示了,数据筛选水平可以作为评判Scaling Law的一个新维度。网友激动表示,“我没想到这么快就会发生。模型能够自主选择训练数据的能力是巨大的,因为它使训练变得显著更容易,你不再需要猜测什么是高质量的训练数据,你有一个能够『理解』什么样的数据对自身学习最有价值的模型”。前Google、苹果软件工程师称赞道,这项研究非常令人印象深刻。从“超级batch”中筛选数据无论是语言、视觉还是多模态模型,数据质量是预训练性能的重要驱动因素。比如Phi-3、Gemma 2等模型的成功让我们看到了,更少、更高质量的数据有可能实现更强大的性能。要筛选出高质量的数据,数据管道的建立就成为重要的工作。现有的方法大体可以分为两种:1)手动管理 2)基于模型的数据管理,用正在训练模型的特征选择高质量数据。前者成本高昂且难以扩展,后者则有望为多模态LLM实现Scaling Law。然而,现有方法忽略了一个事实。如果仅在单个数据点的层面进行筛选,就没有考虑到数据集以及batch的总体组成。毕竟,训练数据是以batch为单位,数据点之间的依赖性不可忽视。许多计算机视觉的研究都曾表明,hard negatives(表达空间中相近但标签不同的样本)相比可被平凡解的数据簇,能提供更有效的学习信号。那么如何让模型以batch为单位筛选数据呢?论文提出的JEST算法正是要解决这个问题,原理很好理解:就是直接从“超级batch”中筛选出“子batch”。技术介绍用数学语言来描述这个问题,就是从大小为B的“超级batch”中提取出与学习最相关的子batch ℬ={,∈[1,…,]}⊂,过滤比率可以写作=1−/。之前的优先采样(prioritized sampling)会使用基于模型的评分函数对每个数据点打分,再按比例采样。JEST则直接对整个子batch评分,再按照batch级别的分数采样。一种最直观的启发式方法就是在现有模型参数 : hard⁢(ℬ|)=ℓ⁢(ℬ|) 中,直接选择损失值最高的batch,这种方法可被称之为“硬学习”(hard learner)。这种方法具有丢弃琐碎数据的理想属性,已被证明适用于小型、干净的数据集;然而对于较大、较少管理的数据集往往弊大于利,因为它依旧会采样到噪声数据。另一种方法常用于多模态,使用具有参数 ∗:^easy⁢(ℬ|∗)=−ℓ⁢(ℬ|∗) 的参考模型为预训练模型采样数据。但作者依旧否定了这个方案,因为它无法直接反映模型当前的状态,可能过度依赖参考模型的选择,而且不易于扩展。最后,论文选择借鉴ICML 2022年的一篇论文中提到的方法,将上述两方面的评分结合起来:^learn⁢(ℬ|,∗)=hard⁢(ℬ|)+^easy⁢(ℬ|∗)=ℓ⁢(ℬ|)−ℓ⁢(ℬ|∗),并将这种启发式方法称为“可学习性评分”(learnability score)。其中,batch上的损失值ℓ⁢(ℬ|)是各数据点之和,使用sigmoid对比损失函数计算(sigmoid-contrastive loss),因为相比softmax对比损失而言,它的扩展性更强。由于batch上的对比损失可以分解为每个样本的条件损失之和,因此可学习性评分可被分解为单个样本可学习性评分⁢(|,∗,ℬ)之和,写作:使用的顺序采样方法则受到了block Gibbs采样的启发。在第n次迭代、对第B_n个batch进行采样时,依据如下概率公式对块{X_k}进行无替换采样:将X_k块添加到B_n中来更新当前采样的batch,直至迭代数n=N时终止。算法的总体流程如下图所示:实验中发现,使用迭代数N=16且每次迭代时独立采样b/N=2048个样本时,就足以恢复出学习性非常高的batch。可学习性评分中涉及到使用参考模型为数据点打分,之前的方法惯常使用额外的小型模型,但这会增加每次迭代的计算成本,降低总体FLOP效率增益。因此论文使用了在线模型近似的方法以及效率较高的FlexiViT架构,只使用降低分辨率的32×32的patch来评估“超级batch”,与全分辨率、patch大小为16×16的方法相比减少了72%的FLOP,以及67%的挂钟时间(wall-clock time)。此外,论文还提出了进行多分辨率训练的技巧。将每个batch随机分成两半,使用不同分辨率编码后再拼接起来,提升了评分过程和训练的效率。下图详细描述了全分辨率JEST和多分辨率Flexi-JEST方法的伪代码实现。所有JEST实验都在WebLI数据集上运行,包含经过宽松过滤的十亿规模的英语图像-文本对,参考模型的训练则使用其中经过高质量过滤100M大小的子集(被称为WebLI-curated)。在WebLI的基础上,作者还额外从网络上抓取了6亿个文本-图像对并经过同样强度的过滤,组成WebLI-curated++数据集训练参考模型,拓展出JEST++/FlexiJEST++方法,来探索对数据管理的扩展。论文所报告的平均性能包括4个多模态规范基准:ImageNet 0-Shot和10-Shot 分类以及COCO图像到文本和文本到图像的top-1检索。实验结果图1中可以看到,使用JEST或FlexiJEST方法的最明显优势就是效率提升。左图中,相比原有的SigLIP基线模型,JEST++可以在训练数据量减少13.1×的情况下达到相同准确率。即使考虑到额外引入的打分成本,也有近10×的FLOP效率提升(中图)。右图展现了JEST++/FlexiJEST++(绿色)与先前方法(灰色)的比较,相比CLIP、EVA-CLIP经典模型实现了计算成本和性能的双重提升。左图和中图的平均准确率由8个下游任务得出,右图性能由ImageNet和COCO基准测试得出产生可学习batch研究人员首先评估了JEST在选择可学习batch方面的效果。为了直观地理解这一方法,作者们先将可学习性矩阵进行可视化,即学习模型和参考模型之间,对batch中所有示例对的损失差异。JEST就是按照示例子矩阵的可学习性总和比例进行采样。由于矩阵明显非对角关系(图2,左),独立选择显然是次优的。经过少量迭代(对应于用N=16个块填充batch),作者发现子batch的可学习性快速增加,达到了需要数千次迭代的暴力吉布斯采样(Gibbs sampling )所提取batch的可学习性(图2,中)。对于0.5、0.8和0.9的过滤比例,他们从大小分别为65,536、163,840和327,680的超级batch中选择32,768个示例的子batch。在图2右侧,研究者还发现子batch的可学习性随着更大的过滤比例而增加。总之,JEST算法是在训练过程中选择高度可学习batch的有效,且高效的方法。加速多模态学习接下来,研究人员使用JEST算法选择的可学习batch,检验训练模型的效果。所有实验都使用在WebLI-curated上训练的参考模型,这是一个ViT-B/16和Bert-B图像-文本双编码器,30亿训练样本,采用sigmoid对比损失函数。图3(左)显示了在训练过程中多个下游任务(ImageNet 0-Shot/10-Shot准确率和COCO图像到文本/文本到图像检索)的平均性能。结果还发现,JEST显著加速了学习过程。在使用50%、80%和90%的过滤比例时,分别只需20亿、10亿和6.7亿训练样本就达到了30亿均匀基准的最终性能。在更大的过滤比例下,坐着观察到类似于更大batch size时的训练不稳定性,需要修改Adam优化器(β2 = 0.95)以稳定训练,这表明JEST的数据筛选可以被视为增加了有效batch ... PC版: 手机版:

封面图片

特斯拉裁员前马斯克为这事暴怒 还开除了项目负责人

特斯拉裁员前马斯克为这事暴怒 还开除了项目负责人 这次扩建是马斯克重点推进的一个项目,关键在于建设Dojo超级计算机数据中心。Dojo是特斯拉实现其电动汽车完全自动驾驶功能的关键,这一功能将由人工智能驱动。然而,根据两位前特斯拉员工的说法,那天在四月中旬,他看到的建筑扩建部分仅仅是一个金属骨架,由于持续的恶劣天气和供应问题,工程严重延误,大部分屋顶和地面层都还未完工,令马斯克大失所望。更加令他头疼的是,底层施工还受到其The Boring Company地下道路建设的影响。据知情人士透露,特斯拉原计划让电动皮卡Cybertruck能通过这条道路在园区内自动穿梭。据两名前员工透露,由于项目进度严重滞后,马斯克解雇了该建筑项目基础设施负责人阿米尔·米尔沙希(Amir Mirshahi)。马斯克对项目进展的不满表现出特斯拉目前所处的敏感时刻。随着汽车需求的显著下降和投资者对其股票的抛售,特斯拉正面临关键的转折点。近几周,这种市场低迷似乎促使马斯克加强了对特斯拉的直接干预。然而,批评者认为,他应该更专注于汽车制造商的日常运营,而不是将时间花在他的其他多家公司,包括X和SpaceX。周一,马斯克宣布裁员10%,这一决策在业界引起了轰动。截至2023年底,特斯拉的员工总数已超过14万人。有迹象显示,裁员的规模可能会进一步扩大。据一位参与讨论的前员工透露,上周特斯拉要求各部门管理层提交一份涵盖20%员工的潜在裁员名单。同一天,包括负责动力总成和能源工程的高级副总裁德鲁·巴格利诺(Drew Baglino),以及负责公共政策和业务发展的副总裁罗汉·帕特尔(Rohan Patel)在内的几位核心高管相继宣布离职。马斯克试图平息外界对这一系列动作的担忧。他坚称,公司的裁员行动不会影响到那些可能推动未来增长的关键项目。尽管如此,仍有迹象表明特斯拉正在调整其战略方向。例如,两名离职员工透露,马斯克最近暂停了一款售价2.5万美元的大众市场电动汽车的生产计划,尽管马斯克之前曾否认有关特斯拉取消该项目的报道。同时,马斯克宣布将在8月8日推出名为“自动驾驶出租车(Robotaxi)”的新车型。尽管他未透露具体细节,但曾表示,这款全自动驾驶的特斯拉汽车将使车主能通过搭载乘客来赚取额外收入。不过,这一发布日期出乎许多员工的预料,他们原本认为自动驾驶出租车的推出还需数年时间。根据《埃隆·马斯克传》作家沃尔特·艾萨克森(Walter Isaacson)的透露,这款车将没有方向盘,并在发布前面临多个监管挑战。这并非马斯克首次在产品设计未最终完成前进行公开宣布。2019年,他发布了Cybertruck电动皮卡,并承诺2021年将开始量产,售价为39900美元。然而,实际上特斯拉直到2023年底才开始交付首批Cybertruck,且售价远高于最初承诺,介于8万至10万美元之间。此外,特斯拉还面临着针对其“全自动驾驶”技术的重大法律和销售挑战。这款驾驶辅助产品最初在2020年以测试版形式发布,其名称曾让人误认为汽车能够完全自动驾驶。然而,特斯拉现在在其官方网站上明确指出,这项技术需要“驾驶员的主动监督”,并且“不会实现完全自动驾驶”。在Dojo超级计算机项目中,马斯克的矛盾心理和野心显而易见。尽管他宣布特斯拉将在2024年投资10亿美元用于建设Dojo,但他在今年1月向华尔街投资者坦言,虽然Dojo项目“值得尝试,因为潜在回报极高”,成功的可能性却“不大”。目前,特斯拉仍依赖于英伟达的芯片来运行其现有的人工智能系统。特斯拉当前正面临前所未有的挑战,大量生产的汽车无法销售。该公司最近公布,与去年同期相比,2024年第一季度的汽车销量下降了9%以上。因此,未来的产品对特斯拉来说显得尤为重要。这可能意味着特斯拉多年的增长趋势即将结束,因为该公司目前正面临车型老化和电动汽车市场竞争日益激烈的双重问题。尤其是在中国这一巨大市场,特斯拉面临的竞争异常激烈。本土对手如比亚迪等凭借低成本电动汽车的销量激增,对特斯拉构成了巨大压力。为了挽回市场份额,特斯拉不得不大幅降价,部分车型的价格甚至降低了数千美元。总的来说,这些问题已经动摇了特斯拉投资者的信心。在过去五个交易日内,特斯拉的股价已累计下跌逾9%,自年初以来的累计跌幅接近37%。韦德布什证券公司的分析师丹尼尔·艾夫斯(Daniel Ives)在一份研究报告中指出:“华尔街急需并期待在下周二(4月23日)特斯拉第一季度财报电话会议中获得答案,因为过去几个月的连串不利消息已使投资者对特斯拉的前景感到恐慌。”特斯拉以前也曾经历过类似的困境。2022年,该公司曾经裁员10%,之后又进行了几轮规模较小、更具针对性的裁员。马斯克似乎并不对最新的裁员感到意外,周一早晨,许多特斯拉员工通过马斯克发来的电邮得知了公司最新一轮的裁员消息。这种变动并非毫无预兆,早在几周前,公司内部就已经有紧缩预算的迹象。根据两名离职员工的透露,特斯拉的管理层一直在要求员工限制非必要的旅行,并归还那些不再使用的公司手机。尽管有些员工被告知不必担心裁员问题,但他们仍然察觉到了一些不安的迹象。据两位知情人士透露,巴格利诺负责的一些重大项目在近几个月遇到了不少挑战。特别是他负责的电池阴极生产工厂的规划项目,建设进度明显滞后于预期。该项目的主要负责人安东尼·瑟斯顿(Anthony Thurston)周一证实,他也被解雇了。巴格利诺领导的另一个项目特斯拉Model Y汽车电池组的重新设计,在2023年底也被迫搁置。一名离职员工透露,特斯拉在去年12月已经关闭了用于生产这种被称为结构电池组部件的装配线,并开始拆除这条生产线,以便将这些资源用于其他更为紧迫的项目。对于特斯拉的一些老员工来说,他们早就预感到即将到来的变革,奥米德·阿夫沙尔(Omead Afshar)的出现就是一个明显的预兆。作为马斯克的长期副手,阿夫沙尔此前负责监督得克萨斯州工厂的建设。2022年,在特斯拉对他使用公司资源的情况进行调查后,阿夫沙尔转往SpaceX,很少再出现在工厂附近。然而,就在裁员前几周,有人称在工厂大厅里看到了阿夫沙尔的身影,这让一些员工不禁猜测,马斯克的“修理工”可能会回来对特斯拉进行一些必要的“修理”。 ... PC版: 手机版:

封面图片

外媒:苹果高管体验ChatGPT后感到恐惧 于是砍掉汽车项目

外媒:苹果高管体验ChatGPT后感到恐惧 于是砍掉汽车项目 与OpenAI的合作预计将极大丰富苹果的AI功能,成为其即将在下月发布的一系列新AI功能的核心部分。今年4月,外界便有消息指出苹果与OpenAI的合作关系正在加强。另有报道称,在体验了OpenAI推出的聊天机器人ChatGPT后,苹果的软件业务高管团队决定对其智能助手Siri进行 “大脑移植”。ChatGPT的卓越表现,凭借其背后的强大生成式人工智能技术,在写作、编程及解答复杂问题方面的表现,使得Siri相比之下显得过时。Siri是苹果于2011年推出的iPhone虚拟助手,多年来一直局限于响应个人请求,且常常难以维持对话的连贯性,甚至频繁误解用户意图。而ChatGPT能够理解上下文并连贯地回答关联问题。为应对新技术的冲击,苹果已启动了一项十年未见的大规模重组计划,将生成式人工智能列为“帐篷支柱”(Tent Poles)项目来重点推进。这是苹果公司内部的一个特殊用语,用于组织员工参与可能影响未来十年趋势的重大项目。据三名知情人士透露,苹果预计将在6月10日的年度开发者大会上展示其AI领域的最新进展,并可能发布全新升级版的Siri,其将具备更强的对话能力,并适应更多使用场景。此外,其底层技术将采用一个全新的生成式人工智能系统,使Siri能够进行更加流畅的聊天。Siri的更新无疑是苹果在全面采纳生成式人工智能战略中的最新体现。为了支持新的Siri功能,苹果特意为今年的iPhone增加了内存以支持Siri的新功能,并与谷歌、Cohere及OpenAI等企业探讨合作,以获得这些公司在聊天机器人领域的人工智能模型。据知情人士透露,苹果高层对新兴AI技术深感忧虑,担心这些技术可能威胁到iPhone在全球智能手机市场的主导地位,并有可能取代iOS成为主操作系统。更令他们感到不安的是,新技术还可能催生一个由人工智能驱动的智能主体生态系统,这些应用能够叫车、安排日程等,这将对苹果年收入约240亿美元的App Store构成严重挑战。此外,苹果还担心,如果不能在人工智能领域取得突破,iPhone可能会成为“哑砖”。虽然Siri的普及程度难以精确统计,但iPhone目前占据了全球智能手机市场85%的利润份额,年销售额超过2000亿美元。为此,苹果决定取消一个耗资100亿美元的自动驾驶汽车项目,将资源重新投入到AI技术开发中。同时,苹果也在构建使用iPhone和Mac处理器的服务器,以降低成本并在云计算和设备之间实现更好的一致性。据三位深度参与项目的知情人士表示,尽管苹果正在提升Siri功能,但该公司并未计划推出一个与ChatGPT直接竞争的聊天机器人。相反,苹果更专注于优化Siri在处理日常任务,如设置提醒、安排日程和管理购物清单等方面的表现。新版Siri还将能够总结短信内容,提供比竞争对手更为私密的AI服务,因为所有请求处理都将在本地iPhone上完成,而非远程数据中心。这可以帮助苹果节省资金。要知道,提供云计算服务费用高昂,OpenAI为ChatGPT生成大约1000个单词就需要花费约0.12美元。尽管依赖于iPhone内置的小型AI系统带来了一定风险,如系统可能更易出错,但苹果正努力避免这些潜在问题,并在全球范围内快速推广其AI技术,利用其庞大的设备网络和领先的半导体技术优势。Siri的联合创始人汤姆·格鲁伯(Tom Gruber)指出:“Siri的愿景一直是要构建一个能够理解语言和上下文的对话界面,这是一个极大的挑战。随着技术的变革,我们现在有可能做得更好。只要Siri不是一刀切地回答所有问题,就能避免许多潜在的问题。”苹果在人工智能竞赛中拥有几个显著的优势,包括超过20亿的设备使用量,这为其人工智能产品的推广和更新提供了巨大的平台。此外,苹果还拥有业界领先的半导体团队,制造出能够支持复杂人工智能任务如面部识别的高性能芯片。但过去十年中,苹果公司在制定全面的人工智能战略上遇到了难题,其虚拟助手Siri自推出以来未见重大更新,这影响了公司智能音箱HomePod的市场表现,因为它未能连贯完成一些简单任务,如准确播放指定歌曲。业内专家指出,苹果的不同部门如软件和硬件部门之间信息共享有限,各自独立运作。然而,要成功实施人工智能,必须让AI技术渗透到所有产品和服务中。同时,苹果在吸引和保留顶尖人工智能研究人员方面也面临挑战。尽管苹果曾收购多家由该领域知名人士领导的人工智能公司,但这些顶尖人才通常在几年后离开。他们离开的原因各不相同,但苹果的高度保密文化是一个主要因素。与谷歌、Meta和微软等竞争对手相比,苹果在发表人工智能相关的学术论文数量上显得较少,也不频繁参与行业会议。最近几个月,苹果增加了发布的人工智能研究论文数量,但一些著名的人工智能研究人员对这些论文的实际价值表示怀疑,认为这些论文更多是在塑造公司在AI领域积极工作的形象,而不是提供能够市场化的创新实例。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人