在下一代 AirPods Pro 推出之前,荔枝能不能换超过 10 副。我觉得很有可能(目前是 7 还是 8 来着?

None

相关推荐

封面图片

苹果下一代AirPods爆料:搭载听力测试、体温检测功能

苹果下一代AirPods爆料:搭载听力测试、体温检测功能 =========== 关于苹果耳机的听力测试功能,古尔曼表示,这将通过耳机播放不同音调的声音来实现,检测方法类似医院的听力测试。这个功能的目的是帮助用户筛查听力是否有问题。 另外,苹果公司正探索如何将AirPods更好地变成助听器 后者的市场规模约为每年100亿美元,已经十分成熟,苹果希望能够为这个市场带来创新。 ======== 老烧尽头是助听, 你看 apple 果然懂得什么是 true music

封面图片

AirPods Max 改装项目让传言中的下一代机型升级成为现实

AirPods Max 改装项目让传言中的下一代机型升级成为现实 同时,它也是修复损坏的 AirPods Max Lightning 端口的可行方法,因为更换 Lightning 端口的成本很高。Pillonel 为 AirPods Max 定制了一个替换部件,让任何精通技术的 AirPods Max 用户都能自己将耳机升级到 USB-C 接口。这项工作涉及复杂的设计和制造过程,包括开发一个开源的 USB-C 转换电路和一个定制的印刷电路板,无需钻孔或损坏任何原始组件即可完美匹配。替换部件被设计安装在现有电路板的顶部,完全避免了与任何其他组件的接触。该设计还解决了潜在的耐用性问题,其柔性部分可减轻连接器上的应力,从而延长套件的使用寿命。Pillonel 曾探讨过通过 USB-C 端口实现音频直通的可能性,但由于集成苹果专有技术的成本和复杂性过高,最终决定放弃。据传,第二代 AirPods Max 将于 2024 年底推出,主要升级是用 USB-C 端口取代 Lightning 端口。预计不会有其他重大变化,这意味着这款耳机可能会错过 H2 芯片和自适应音频等功能,但可能会有一些新的颜色选择。 ... PC版: 手机版:

封面图片

内容同样很干,个人觉得很有启发的一些观点摘抄:

内容同样很干,个人觉得很有启发的一些观点摘抄: - 行业大模型的计算量本质上是一个能源转化成智能的过程。如果我投入了更多的能源,我就会有更多的智能,中间转化率取决于我的算法的有效性。如果我假设你算法是一样的,那么你有多少智能就完全取决于你有多少能源... 通用模型一定会取代垂直行业模型,因为前者的能耗大好几个数量级,对应的智能也会高几个数量级,并且差距会越来越大。短期内,垂直行业模型在一些封闭的行业内会有专有数据优势,但因为数据的流动性很高,“再封闭的行业,都很难阻止数据的扩散,超级入口会变成数据黑洞把各种数据吸纳进来,行业模型的优势会消失。” - 如何衡量算法的有效性?最重要的标准其实是模型的压缩比。如果基于第一性原则来思考,智能的首要任务就是优化压缩,那么提升压缩比就意味着智能的增强。在一个足够大的数据集上,模型的压缩比有多大就能衡量出模型的优劣。例如,OpenAI的GPT-4可能在某些领域已经达到了30多的压缩比,而一些开源的模型的压缩比可能只有10出头,所以空间还是非常大的。 - 技术三段论。每项技术基本都会历经原理探索期、技术创新期以及纯产品应用阶段三个阶段。第一阶段意味着公众对于技术的第一性原理还不清晰,一切刚刚开始萌芽;第二阶段则指的是第一性原理已经清晰,但是仍然存在技术创新的空间,领先的公司会有显著的技术优势;最后一个阶段,当技术已经足够成熟了,可获得性很高了,就是纯产品的机会,网络效应建立。两三年前,NLP、CV这些技术都处于第一阶段。如今,我们已经来到第二阶段,AI的第一性原理已经被大量证据所证明从GPT1到GPT4,我们会发现,人类文明的总和,数字化之后都可以变成硬盘上的数据,无论是文字、语音还是视频,只要我们有合适的办法,去对这些数据做最大限度的规模化无损压缩,就能实现非常高程度的“智能”。这就是AI的第一性原理。在第二阶段,第一性原理已经清晰的情况下,理论上我们只需要一条道走到黑,去想更好的办法尽可能地去对整个人类文明进行压缩,然后就能在技术上实现较高程度的智能化。我最喜欢的例子是等差数列。假设说目前我有1万个数字要去压缩,在我一无所知的情况下,我所能做的仅仅只是把这1万个数字存下来。但是,如果我能够知道这些数的底层运行规律,我知道等差数列,那我就只需要存两个数字,其他9998个数字就能被还原出来。而“更好的办法”也是第二阶段与第三阶段的分野。在这个方向上,我们看到大约5年的窗口期之中,我们需要去解决目前看到的问题,不断技术创新,让技术变得更加通用和低门槛,最终推动大规模的产品化。在这个阶段,更好的模型质量通常会直接带来更好的用户体验,通过技术驱动的公司会拥有更大的产品优势。如果我们去看美国市场,目前领先的公司例如OpenAI, Anthropic, Inflection, Character AI, Midjourney,无一不是通过Model as an application的方式,通过技术优势来形成产品上的体验优势。 - 如果时间足够长,Transformer肯定会被更好的模型替代。比如,如果你想处理10万的context,你肯定不能使用原始的Transformer。如果你想处理分钟级别的长视频,使用原始的Transformer可能不是最优方案。但在短期三到五年内,更大的可能性是在Transformer的核心思想上进行优化。 - 真正的多模态模型还未出现。基于Diffusion Model的技术路径,一个重大问题是你没有办法去做真正的跨模态建模,只能基于很简单的文本向量去做decoding。本质上,它并没有对不同模态的联合概率去做一个可规模化的建模,这制约着这些模型去发挥更大的价值。从可规模化这个点上,我个人认为,长期来看,可能Autoregressive model(自回归模型)能够更通用得对不同模态去建模,长期会有更大的上升空间。 - 如何超越现有数据的限制。未来的大模型肯定不会停留在压缩现有的数据,而是会自主进行探索、在探索过程中生成和筛选数据、并进行压缩。一个很典型的例子是围棋,如果AI通过压缩已有的棋谱,很难在围棋水平上超越最顶尖的人类棋手。相同地,如果是我们想训练一个能达到IOI金牌水平的编程AI,那么仅仅通过压缩现有的题解也是很难做到的。我们需要让编程AI自己去搜索不同的解法,在搜索的过程中评判解法的可行性,从而对解空间进行更全面的探索。在科学领域也是一样,如果AI可以自主探索解空间,那么就可以发现人类还未发现的新知识。长期来说,通用地解决这个问题会产生超级智能(super intelligence)。 - 最终,大模型团队比拼的是人才密度。人才的稀缺性大于资本的稀缺性。目前,人才正开始从细分的NLP、CV、RL等领域向大模型公司集中。对团队来说,最难的是算法创新和工程实现。工程实现能力决定了你技术能力的下限,而算法创新能力决定了技术上限。

封面图片

苹果开源大模型OpenELM来了,可能用在下一代iPhone上

苹果开源大模型OpenELM来了,可能用在下一代iPhone上 苹果最近在AI代码社区HuggingFace上发布了OpenELM大模型。该模型是一系列开源大型语言模型,具有不同的参数大小,可在端侧设备上运行。据了解,该系列模型包含4个不同参数版本,分别为2.7亿、4.5亿、11亿和30亿。由于参数较小,这些模型可以在端侧设备上独立运行,而无需连接云端服务器。总体而言,该系列包括4个预训练模型和4个指令调优模型。这些模型可以在笔记本电脑甚至智能手机上运行。苹果举例称,其中一款模型在MacBookPro上运行,配备了M2Max芯片和64GBRAM,操作系统为macOS14.4.1。 来源:格隆汇

封面图片

荔枝力场最近战果聚会中友人一副 AirPods Pro 掉到垃圾桶航展排在我后面安检的友人 AirPods Pro 差点丢了但

封面图片

苹果的下一代 AirPods Pro 可能会检查你的听力健康状况并测量你的体温

苹果的下一代 AirPods Pro 可能会检查你的听力健康状况并测量你的体温 据彭博社报道,部分 AirPods 将获得 iOS 17 支持的新听力健康功能,该功能可以检查您自己是否存在潜在的听力问题,并且可能能够通过耳道确定您的体温。 他还表示,苹果所有的新耳机都将配备 USB-C 还将有更低的价格,还可能会添加新的健康功能。并且该公司正在计划推出新的 AirPods Pro 和 AirPods Max 型号,但他认为新硬件不会很快推出。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人