用 pinokio来本地部署一些 AI 项目真的很方便,我愿称之为开源普及之光 比如 ComfyUI、SD-WEBUI、SVD、

用 pinokio来本地部署一些 AI 项目真的很方便,我愿称之为开源项目普及之光 比如 ComfyUI、SD-WEBUI、SVD、Whisper、RVC、TokenFlow啊都可以很快在自己电脑上一键部署起来,很适合不太熟悉部署项目,但是又想体验最新技术的朋友。这周有设计同事想体验实时 LCM 涂鸦生成就是让她自己去用 pinokio 部署的。不过由于是部署在本地的,建议还是有 NVIDIA 显卡或者有 m 系列 mac 的用户使用。

相关推荐

封面图片

一个开源的文档内容高效检索 AI 工具:Semantra,与传统的文本匹配方式不同,它能够直接使用语义查询,提升检索效率。可选择

一个开源的文档内容高效检索 AI 工具:Semantra,与传统的文本匹配方式不同,它能够直接使用语义查询,提升检索效率。可选择多种语言模型,支持在本地离线部署运行,注重隐私安全。 使用命令行即可快速处理本地的文本和 PDF 文件。在任务完成后,它会在本地搭建一个 Web 搜索页面,让你能在界面上对直接查询文档。 Semantra 的设计目的是方便易用,可定制。适合需要在大量文档中进行精确搜索的个人或团体,例如新闻从业者、研究员、学生或教师等。主要作用是对存储在本地计算机上的文档(文本或 PDF 文件)进行操作,你可以选择处理单个或多个文档。 该项目对文档的处理有两种方式:「内嵌模型」和调用「OpenAI API」。默认是用的 MPNet 语言模型。 如果你电脑配置还过得去,或者想离线处理文档,可以优先选择下载大语言模型,这种方式可以最大程度保证你的隐私安全。 如果想用 OpenAI API,项目也提供了相对应的方案,不过所产生的 Token 消耗,你需要自行承担。 针对这两种方案,作者都在 GitHub 中给出了详细文档。 | #工具

封面图片

马斯克为何要作开源“秀”?

马斯克为何要作开源“秀”? 在开源之前,Grok最大的亮点是直接调用X中的实时数据和“幽默”。但开源版本的Grok已经打了折扣在开发者手里,Grok不可能调取X的数据。从本次开源的信息来看,2023年11月Grok上线以后调用过的X数据,也没有被作为训练数据沉淀到Grok中。除开源打折外,Grok本身的性能也并不占优。刚上线时,Grok的评分就远落后于当时的Palm 2、Claude 2和GPT-4。最典型的问题是,其支持的上下文长度只有8192个token。Grok取得的关注(上线3天在GitHub收获3.9万Star),似乎很大一部分都来自马斯克本身的流量热度。开源Grok被马斯克说成是为了践行“AI造福全人类”的目标,但在与OpenAI的官司期间开源,有观点认为,Grok 开源的目的之一,就是为马斯克起诉、声讨OpenAI提供的事实依据这是一场由马斯克亲自操盘的“AI 大秀”。开源Grok是作秀?开源是一场让企业与开发者跳双人舞的“社区游戏”,但Grok这个“舞伴”,完全不是普通开发者所能掌控的。在Grok-1之前,很多开源大语言模型(LLM)的参数量只有70亿,LLaMA-2开源的最大参数量也只有700亿。而马斯克直接开源了自家尺寸最大的3140亿参数模型,据估计Grok-1需要约628 GB GPU内存才能勉强运行,普通开发者几乎不可能在本地尝试Grok-1,对于云服务用户来说,至少需要8张80GB显存的A100或H100 GPU。在Grok的GitHub讨论区有用户留言表示:Google云上80GB A100的4卡服务器每小时运行成本是20美元,这不适合我。(GCP instance with 4 A100 80GB; it cost around $20 per hour; this is not for me LOL.)Grok开源之后,笔者也加入了一个关于Grok的开源讨论群,但到了第二天,群内的讨论焦点,已经转向了只有40亿参数的Qwen-1.5。不过,Grok-1也支持8bit量化,一些开发者认为,如果模型可以量化到160GB,“可玩性”会大幅提高。算力不太宽裕的开发者,可以等到官方或者其他开发者发布量化版本后再尝试。至少从短期来看,开源Grok对普通开发者并不是很友好。那么开源对于Grok本身来说,有什么帮助呢?从传统的开源视角来看,也很难说。一些人认为开源模型可以汇聚更多开发者力量,帮助优化模型。但今天的开源AI与传统的开源软件逻辑几乎完全不同。代码开源对于AI大模型的促进作用,并不像过去的开源软件那样明显。传统软件开发过程中,一款系统、工具或软件开源以后,开发者可以基于共享代码直接修复bug,优化程序。然而今天的多数AI模型本身就是一个很大的黑盒,要从中找到问题,并对模型的底层算法进行训练、调优并不容易。“AI大模型训练是一个很‘集中’的工作。”生数科技CEO唐家渝表示,AI大模型很难通过“分布式”的开源来收集开发者的“贡献”。闭源反而是更能集中包括智力的资源、算力的资源,去做不断地迭代的。一些开发者认为,对于开源AI模型的作者来说,最大的好处是打响知名度以Grok目前的模型能力来看,只有吸引一批开发者、公司、机构对模型进行试用、开发,逐步建立起对模型的认可,才能稳固其在AI大模型领域的“江湖地位”,提高这款既不太新,也不太强的AI大模型的影响力。闭源Grok把路走窄了?从AI行业角度来看,Grok的受关注度不高。由于模型跑分不高,过去几个月中发布的AI大模型,在对比评测数据集得分时,几乎很少有人对标Grok。从业务视角来看,Grok在X平台中的表现也不理想。Grok上线到X后,与ChatGPT Plus一样采取订阅制,但ChatGPT的GPT-3.5免费开放,而Grok则一刀切,只提供给X Premium会员。X Premium会员的订阅费用是16美元包月,168美元包年。由于一开始就设置了付费门槛,Grok没有吃到X庞大用户基础的红利。数据网站SimilarWeb的统计显示,2024年2月,x.com的总访问量为1.04亿次,平均访问时长只有24秒。对比其他几家主流闭源AI的同期流量,chat.openai.com访问量为15.5亿次,平均访问时长是7分33秒;gemini.google.com访问量为3.161亿次,平均访问时长6分22秒;相对小众一些的claude.ai访问量为2086万次,平均访问时间为5分48秒。X与三款AI对话网站流量  数据来源|SimilarWeb虽然影响网站流量的因素很多,且x.com网站的受众、属性与其他几家也有明显差异,直接对比流量并不能完全说明问题,但访问时长的巨大差异,也侧面反映了X用户大概率没有跟付费的Grok聊太多。马斯克最早给Grok的战略定位,可能更多是考虑促进X的Premium会员销售,以补贴X的广告收入。然而,如今Grok在X中发挥的作用很可能并没有达到马斯克的预期。与其一直在X Premium中“躺平”,开源Grok或许能给马斯克和x.AI打开新局面。开源激起千层浪在AI大模型热潮中,靠开源大模型树立行业地位的公司并不少见,包括MistralAI以及国内的智谱,阿里的通义千问等。深陷元宇宙泥潭的Meta更是依靠开源LLaMA模型打了一次翻身仗。在2023年中,全球市场最大的变数是AI大模型,而Meta最大的变数就是开源了一款AI大模型。通过开源LLaMA,Meta展现了其在大型语言模型(LLM)领域的技术实力和开放创新的姿态,这在一定程度上帮助公司缓解了市场对其元宇宙战略的担忧。由此Meta的股价也在一年内翻了几番,市值从3155亿美元涨到1.2万亿美元,涨出了19个京东。LLaMA的开源,特别是其成本效益高的特点,对Meta而言具有战略意义。与Google和Microsoft等竞争对手的AI大模型相比,LLaMA的小巧和高性能使得Meta能够以较低成本部署高效的AI模型。这不仅提高了AI技术的普及率,也为Meta未来在各种应用和用例上的广泛部署提供了可能。有分析人士认为,基于Meta的业务范围,从聊天机器人到游戏,再到未来的生产力软件,生成式AI预计将带动一个价值超过500亿美元的市场。虽然LLaMA最初的开源一直被业界传说是无意间的“泄露”,但其最终的结果却为Meta在AI大模型行业奠定了技术和市场的领导地位。“开源”的战略逻辑,对于马斯克来说并不陌生。2014年,马斯克开放了特斯拉的350多项电动车专利技术。当时马斯克在接受采访时表示,“特斯拉的首要目标是加速全世界向可持续能源转变”。事实证明,马斯克大公无私的“开源”,在后来使得他自己成为了最大的受益者。特斯拉开放专利的做法,一举将全球汽车市场的水搅浑。大量新能源车企借助特斯拉的专利异军突起,直接激活了整个新能源汽车市场。而特斯拉作为行业领军企业,则借助长期积累的行业口碑和技术开发实力,持续保持了行业的领先地位。虽然开源Grok大概不会像特斯拉开放专利那一石激起千层浪,改变整个AI行业的格局,但对于目前的x.AI来说,应该也会产生一些积极的影响。 ... PC版: 手机版:

封面图片

Devin第一手使用体验:完成度很高 但要替代程序员还很远

Devin第一手使用体验:完成度很高 但要替代程序员还很远 在演示中,Devin 几乎已经可以独立完成很多人类程序员需要大量时间才能完成的工作,效果一点不比普通程序员差。但是,产品能力的边界在哪里,实际体验和演示时候有差距,还得看上手实测之后的效果。这位斯坦福的小哥在 Devin 发布的第一时间就联系了团队,获得了第一手体验的资格。他让 Devin 帮它做了几个难度不一的项目,录制了一个视频,在推上写下了自己的使用感受。首先是让 Devin 做一个用 API 获取股票价格的软件:下一个任务是让 Devin 做一个可以让普通用户直接与大模型下棋的网站。需求复杂的编程任务还搞不定用户下一步棋,系统会翻译成提示词给 GPT-4,然后 GPT-4 进行回复,然后回复再被转换为反映在棋盘上的具体某一步棋。按照小哥的要求,系统需要由相当多的部件组成。他个人最为关注在这个系统的开发过程中,Devin 能不能做到以下几点:知道如何准确地使用 GPT-4 API,因为大多数 LLM 实际上并不知道如何使用,并且 API 的调用存在版本冲突。正确地请求 API 密钥并安全地处理。处理包错误。了解如何提示 LLM 下棋并能精确地返回提示词。令小哥想不到的是,Devin 不仅要求小哥提供 API 密钥,而且在试用过程中还可以正确地保护它。不过,Devin 目前反馈速度还相当慢,小哥推测是因为后台发生的代理提示远远比要看到的要多得多。从小哥发起请求开始,它花了大约 19 分钟才询问 API 密钥。小哥猜测,如果延迟是由于他们在后台运行大量提示造成的,那么延迟应该会随着时间的推移而加快。因为他们以后可以访问专用 GPU 或与 Claude 或 OpenAI 合作降低延迟(估计是 GPT-4 或 Claude Opus)。Devin 首先制定了一个规划。在右上角,用户可以切换“跟随”状态,这样用户可以将屏幕自动移动到#Devin 当前激活了的选项卡上。小哥没有打开跟随状态,因为他希望随时观察各个位置的变化。规划器会随时保持针对当前任务的更新状态。Shell 看起来和普通的 Shell 没什么区别,但用起来真的很有趣!Devin 在工作过程中会打开多个 shell,在 shell 的底部,用户可以拖动蓝色滑块来往前查看 Devin 编写的命令。下图是它当在尝试调试棋盘未渲染的内容。与此同时,小哥要求它再执行一个数据分析的任务。小哥让 Devin 去“创建一张过去五十年南极洲海水温度的地图”。对于这个请求,小哥觉得有两个方面可能很具有挑战性:处理空间数据绘图 / 可视化。知道在哪里下载数据,而且了解如何使用数据源,因为地理空间数据处理起来很麻烦。Devin 能像一个优秀的程序员一样聪明地阅读自述文件,并且还执行一些基本的 EDA 来理解数据结构。数据居然是一个 ascii 文件,小哥觉得有点奇怪。小哥单击对话“调试 Python 脚本...”中的其中一个步骤时,它会打开与该步骤相关的代码库部分,因此可以跟踪某一个具体时间点发生的情况。小哥比较担心的是,如果不是必须要询问 API 密钥,Devin 似乎会不停地编码停不下来。所以他试了试是否可以更改他之前提出的请求或指定其他内容,中断 Devin 的编码过程。因为对于大部分用户在编码时,都有可能会改变主意或者有一些新的东西想要添加进系统之中,能够处理这种情况是很有必要的。这是编码过程中的截图:浏览器界面的呈现方式如下:然后小哥又提了针对数据可视化的任务又提了一个要求,让系统将高温设置为蓝色,低温设置为红色。为了不中断编码的过程,似乎 Devin 又开启了一个工作线程来记录小哥的临时要求。最终,Devin 将 App 部署到了 Netlify 上了,一个应用已经上线了。网页的链接: Bug 的。因为小哥要求的是南极洲的温度记录,似乎对于 Devin 来说它理解起来有些障碍。于是小哥把要求显示的位置改为了北美。总结小哥没有给出 Devin 修改了 Bug 的结果,只是初步总结了用 Devin 开发的第一个网站的使用体验。先说优点:Devin 产品化做得很好,他给人的使用体验是一个完整的产品而不是只是一个简单的对话框。AI 是系统最关键的部分,但支撑 AI 功能的产品化的结构是 Devin 的亮点。Devin 能够完成自动部署,API 密钥保护,随时修改和添加需求等等非常好的各种功能。产品的完成度已经非常高了,远远超过了一般的演示 Demo。再说缺点:Devin 的反应还很慢,当然小哥也说,因为他用的是 1M 的 Starlink 来上网,所以反应慢很有可能是他自己的原因。其次就是还不能允许用户直接自己编辑代码,而且也没法协作完成。当然,最初那个下棋的应用,难住了 Devin,最终没有完成部署。而那个数据可视化的任务,似乎也有些 Bug。最终,小哥用 Devin 做了一个 chrome 插件,可以帮助用户把 Github repo 转化成 Claude prompt。插件下载地址: Devin 的可视化项目的结果只做出了一个有 Bug 的网页。看样子 Devin 本质上还只是一个可以上网的大模型,现在要让他解决实际问题还有难度。参考资料: ... PC版: 手机版:

封面图片

Perplexity要搞竞价排名了 大模型的尽头是广告?

Perplexity要搞竞价排名了 大模型的尽头是广告? 作为一款会话式答案引擎,Perplexity将聊天机器人和搜索引擎功能相结合。用户直接用自然语言提问, 就能获取大语言模型从网络筛选总结出的文本答案、相关图片和视频。Perplexity还会在回复中提供精确引用链接,以杜绝虚假信息和AI幻觉。同时建议用户可能感兴趣的相关问题,引导进入更深层探索。而也就是这占到总查询量40%、支撑它产品特色之一的“相关问题”,将成为Perplexity首先对金主开放的广告位:当用户进一步挖掘某个主题时,Perplexity会在有机问题旁边添加来自品牌赞助的问题,追问后继续显示相关广告链接。也就是大家经常“抱怨”的,但却是搜索引擎一直赖以赚钱的竞价排名。根据公司首席业务官Dmitry Shevelenko透露,这一功能将在未来几个季度推出,除此之外还没有更多细节。消息一出,AI圈整个大无语当初你可不是这么说的啊?理想很丰满,但广告可能更香Perplexity成立于2022年,起初的构想是借助GPT-4等先进AI大语言模型,打破Google和必应在过去二十多年来垄断的关键词搜索模式,让人们直接提问就能收到真实、准确、可信赖的答案,而不必迷失在眼花缭乱的广告和算法优化的碎片内容里。这种将用户而非广告商放在核心位置的产品理念,也在当时大得民心,各平台下载榜攀升迅速。收获了包括前GitHub 首席执行官 Nat Friedman在内的众多粉丝拥戴,人们纷纷表示已经抛弃Google,转为把Perplexity作为获取所需信息的首选平台。Perplexity也一度成为搜索引擎民主革新的代名词,曾在公司首页上这样介绍自己:“搜索信息应该是一种直接、高效的体验,不受广告驱动模式的影响。我们之所以存在,是因为在信息过载的噪音中,明确需要一个平台来提供精准、以用户为中心的答案,尤其在时间如此宝贵的时代。”而现在,Shevelenko在面对外媒提问时却说,“广告一直都是我们打造出色业务的一部分。”同时眼尖的网友也发现,那句“不受广告驱动模式的影响”已经被悄悄删掉了。这似曾相识的一幕和Mistral AI在与微软达成合作关系后的做法有点像。当时mistral AI也是被人发现移除了网页上“致力于开放模型”的使命描述,估计怕引起争议,后来他们又把这句话加上定语 ‘Mistral 7B和Mixtral 8×7B’重新添了回去。不过 Perplexity这次要直接卖广告,是不是有点儿打脸自己最初特立独行、引以为傲的创始使命了?公司创始人兼首席执行官Aravind Srinivas曾公开表示,自己想做的是“精确、真实、有学术性,提高地球知识资本的产品”。也提到过对于Google这类传统搜索引擎来说,“改进生成式搜索体验可能会损害其非常重要的广告收入来源。要保护既得利益,就得限制提供直接答案的能力”,所以Perplexity与Google竞争“是完全可行的”。但看起来随着现实运营,Srinivas在说法上也渐渐发生了转变。他最近接受Wired杂志采访时谈到,自己并不反对广告。事实上,他对平台上广告的展望是帮助广告商了解谁在搜索,然后对"高价值流量"出价。曾经坚定引领畅快无广AI搜索体验的一股清流,现在告诉你,“广告并非邪恶。当广告做得好时,它就非常棒,生成式AI将帮助我们建立更好的定位。”公众能买账吗?有用户抨击得毫不留情,直言Perplexity以前不停地用“取代Google”和“更好的用户体验”做营销,现在也自毁名声,跌进了广告的兔子洞。有盲生发现了华点:“我们闭环了”。“我妈好多年前就告诉我,天下没有免费的午餐。”也有人直接指出这就是所有初创公司对抗巨头的骨感现实,“你不可能只靠免广告和注重隐私就想打败Google。””所有人都觉得自己能取代Google,直到它需要考虑赚钱和发展。”下面这位网友属于理想派,虽然觉得很失望,但还是相信搜索引擎完全无广告、无偏见的重要性。相比之下,这位The Verge读者的评论比较中肯,“老实说,只要不影响核心体验,我并不反对这种做法,而且他们也会继续提供一个无广告的付费‘专业’版本。我明白现在运营AI服务是非常昂贵的,金钱的水龙头终将要打开。风险投资的现金储备只能烧那么久,最终总会耗尽的。”这也道破了大部分AI初创公司面临的现实问题:纯服务用户的理想固然美好,赚钱吃饭养家也是不得不跨越的门槛。拿下融资是市场对公司价值的认可,但这有时也像一把双刃剑,面对投资者们的回报期许,从话语权到商业路线,势必会发生转变。大模型的尽头也是广告其实AI公司的各种商业化调整,早就不是什么新鲜事了。最人尽皆知的就是行业老大OpenAI,从创始之初几个人的公益性质非营利研究实验室,到今天估值800亿美元以上的AI帝国。在这个比技术更拼烧钱的行业里,OpenAI一路融资、强势开发、部署大企业、进军半导体和AI硬件,完成了它的华丽转身。在那场闹剧般的领导层动荡风波里,各种烟雾弹散去后,人们发现,真正话事的还是资本巨头微软。被微软收入麾下做“第二条腿”的Mistral AI也差不多。原本以“引领开放模型革命”为公司使命,正面硬钢OpenAI、Google等走闭源路线的AI竞争者,曾被开发者社区盛赞为“地球上最真诚和忠于初心的团队”。后来忽然就变成了OpenAI的二师弟。那个承诺“为企业提供一种无限接近GPT-4的开源选择”,也成了付费版的闭源Mistral Large。除此以外,有人工智能届GitHub之称的开源社区Hugging Face,也选择了“开源带动商业”的策略,通过开源项目吸引用户和开发者,再通过会员付费、企业数据托管等实现盈利。最近刚刚美股上市的社交聚合平台Reddit,虽然都不算AI公司,也通过授权平台数据用于大模型训练找到了新的变现方式。有网友拿免费网络实时通话软件Discord即将展示商业广告的新闻和Perplexity放在一起类比说,“广告是大规模消费者服务货币化的最有效方式。像Perplexity和Discord这样吹嘘他们永远不会投放广告的公司,最终只会在投资者要求收入增长时悄悄更新他们的说辞,虽然看起来很蠢。零广告收入的时代结束了。该赚钱了。”“到了最后,大家早晚都回归到广告。”确实,在潜力巨大的大模型时代,技术变现路径往往长且曲折。面对高昂的开发成本和持续的运营费用,广告仍然是商业化难题的最直接解决方案。对于现在的Perplexity来说,将广告纳入未来产品计划,需要有足够大的用户基数吸引营销商兴趣,同时确保客户赞助的问题与主题相关,不干扰平台的核心使用流程显然目前的1000万月活用户还有很大提升空间,而一边做好平台体验吸引更多用户,一边招揽金主爸爸投广告,各方面来说都算是不小的挑战。无论如何,AI公司商业化都是不可逆的大势所趋。如何找到其中的平衡,将是所有企业走得更远需要面对的共同课题。看起来Perplexity已经想明白了,在探索成为一个更好的Perplexity 2.0之前,它首先选择活下去。作者 |张潇雪 ... PC版: 手机版:

封面图片

谷歌TPU人马打造最快推理芯片 喊话奥特曼:你们也太慢了

谷歌TPU人马打造最快推理芯片 喊话奥特曼:你们也太慢了 (这里面还有个熟悉的身影:Lepton)网友表示:这速度简直就是飞机vs走路。值得一提的是,这并非哪家大公司进展初创公司Groq,GoogleTPU团队原班人马,基于自研芯片推出推理加速方案。(注意不是马斯克的Grok)据他们介绍,其推理速度相较于英伟达GPU提高了10倍,成本却降低到十分之一。换言之,任何一个大模型都可以部署实现。目前已经能支持Mixtral 8x7B SMoE、Llama 2的7B和70B这三种模型,并且可直接体验Demo。他们还在官网上喊话奥特曼:你们推出的东西太慢了……每秒接近500tokens既然如此,那就来体验一下这个号称“史上最快推理”的Groq。先声明:不比较生成质量。就像它自己说的那样,内容概不负责。目前,演示界面上有两种模型可以选择。就选择Mixtral 8x7B-32k和GPT-4同擂台对比一下。提示词:你是一个小学生,还没完成寒假作业。请根据《星际穿越》写一篇500字的读后感。结果啪的一下,只需1.76秒就生成了一长串读后感,速度在每秒478Tokens。不过内容是英文的,以及读后感只有三百六十多字。但后面也赶紧做了解释说考虑到是小学生写不了那么多……至于GPT-4这边的表现,内容质量自然更好,也体现了整个思路过程。但要完全生成超过了三十秒。单是读后感内容的生成,也有近二十秒钟的时间。除了Demo演示外,Groq现在支持API访问,并且完全兼容,可直接从OpenAI的API进行简单切换。可以免费试用10天,这期间可以免费获得100万Tokens。目前支持Llama 2-70B 和7B, Groq可以实现4096的上下文长度,还有Mixtral 8x7B这一型号。当然也不局限于这些型号,Groq支持具体需求具体定制。价格方面,他们保证:一定低于市面上同等价格。不过可以看到,每秒500tokens似乎还不是终极速度,他们最快可以实现每秒750Tokens。GoogleTPU团队创业项目Groq是集软硬件服务于一体的大模型推理加速方案,成立于2016年,创始团队中很多都是GoogleTPU的原班人马。公司领导层的10人中,有5人都曾有Google的工作经历,3人曾在英特尔工作。创始人兼CEO Jonathan Ross,设计并实现了第一代TPU芯片的核心元件,TPU的研发工作中有20%都由他完成。Groq没有走GPU路线,而是自创了全球首个L(anguage)PU方案。LPU的核心奥义是克服两个LLM瓶颈计算密度和内存带宽,最终实现的LLM推理性能比其他基于云平台厂商快18倍。据此前他们介绍,英伟达GPU需要大约10焦耳到30焦耳才能生成响应中的tokens,而 Groq 设置每个tokens大约需要1焦耳到3焦耳。因此,推理速度提高了10倍,成本却降低了十分之一,或者说性价比提高了100倍。延迟方面,在运行70B模型时,输出第一个token时的延时仅有0.22秒。甚至为了适应Groq的性能水平,第三方测评机构ArtificialAnalysis还专门调整了图表坐标轴。据介绍,Groq的芯片采用14nm制程,搭载了230MB大SRAM来保证内存带宽,片上内存带宽达到了80TB/s。算力层面,Gorq芯片的整型(8位)运算速度为750TOPs,浮点(16位)运算速度则为188TFLOPs。Groq主要基于该公司自研的TSP架构,其内存单元与向量和矩阵深度学习功能单元交错,从而利用机器学习工作负载固有的并行性对推理进行加速。在运算处理的同时,每个TSP都还具有网络交换的功能,可直接通过网络与其他TSP交换信息,无需依赖外部的网络设备,这种设计提高了系统的并行处理能力和效率。结合新设计的Dragonfly网络拓扑,hop数减少、通信延迟降低,使得传输效率进一步提高;同时软件调度网络带来了精确的流量控制和路径规划,从而提高了系统的整体性能。Groq支持通过PyTorch、TensorFlow等标准机器学习框架进行推理,暂不支持模型训练。此外Groq还提供了编译平台和本地化硬件方案,不过并未介绍更多详情,想要了解的话需要与团队进行联系。而在第三方网站上,搭载Groq芯片的加速卡售价为2万多美元,差不多15万人民币。它由知名电子元件生产商莫仕(molex)旗下的BittWare代工,同时该厂也为英特尔和AMD代工加速卡。目前,Groq的官网正在招人。技术岗位年薪为10万-50万美元,非技术岗位则为9万-47万美元。“目标是三年超过英伟达”除此之外,这家公司还有个日常操作是叫板喊话各位大佬。当时GPTs商店推出之后,Groq就喊话奥特曼:用GPTs就跟深夜读战争与和平一样慢……阴阳怪气直接拉满~马斯克也曾被它痛斥,说“剽窃”自己的名字。在最新讨论中,他们疑似又有了新操作。一名自称Groq工作人员的用户与网友互动时表示,Groq的目标是打造最快的大模型硬件,并扬言:三年时间内赶超英伟达。这下好了,黄院士的核武器有新的目标了。参考链接:[1] ... PC版: 手机版:

封面图片

索尼手机或退出中国大陆市场 只怪国产机太能卷了?

索尼手机或退出中国大陆市场 只怪国产机太能卷了? 最近,日本媒体Sumahodigest报道称,索尼新款手机Xperia 1 VI、Xperia 10 VI将不会在中国大陆地区上市。甚至,索尼手机可能会完全退出中国市场。在一众仍然在苦苦坚持的Others品牌中,我们或许又将少见到一名选手。屡战屡败,索尼已成手机“边缘人”在手机行业,索尼有着悠久的历史。索尼手机真正的巅峰时期还要追溯到索尼爱立信时代,2007年,索爱手机出货量排名全球第三。然而,进入智能手机时代后,索尼手机则迅速进入衰退期,在竞争对手的压力下节节败退,逐渐被边缘化。2011年,索尼收购了爱立信持有的一半股份,从索尼爱立信摇身一变成为“索尼移动通信”。然而,纯血索尼手机品牌,并不能扭转局面。小雷查询到市场研究机构Gartner公布的一份数据,2012年Q1,索尼手机的全球市场份额为1.9%,已经归入Others行列。此后,尽管索尼在不断发布更新Xperia系列手机,但仍然在手机战场上一败涂地。在2019年和相机部门合并前,索尼移动已经连续多年亏损,并且是索尼核心部门中唯一亏损的一个。而索尼移动再和其他部门整合后,销量依然不见起色。IDC数据显示,2019年Q3,索尼手机的全球市场份额仅有0.167%。不难发现,进入智能手机时代的十几年里,索尼在手机行业里的存在感在一步步被削弱。很显然,在竞争激烈的手机市场上,索尼已经败下阵来。作为一家在技术领域有着深厚积累、推出过无数成功消费电子产品的品牌,索尼做不好手机这件事让很多人百思不得其解。在小雷看来,这背后有很多复杂的因素。就产品层面而言,小雷认为索尼手机的科技树一直点歪了。智能手机时代早期,主流厂商把重心放在系统完善优化和本地体验提升上,但索尼手机则在专心致志地研究防尘防水、超高像素、超高分辨率屏幕、960帧视频拍摄等。索尼手机的这些技术特性很超前、很酷炫、很有黑科技色彩,但不够实用,也背离了当时真实的市场需求。当年索尼手机的防尘防水特性几乎是独一份的,吸引了无数眼球。当在智能手机亟需完善基础体验的时代,用户对防护特性的感知度远不如流畅的系统、好用的功能来得高。超高像素听起来可以提升手机影像能力,但当时芯片性能难以处理这么艰巨的任务,最终导致手机拍照速度慢、取景卡顿。说到底,索尼在智能手机时代仍然在遵循着功能机时代的产品思路,试图以前沿的硬件技术来形成产品优势。但在用户眼中,具有黑科技的索尼手机只是一台小众的帐篷型手机,长板很长、短板也很短。愈发内卷的手机市场上,各大品牌都使出了浑身解数,多个大招齐发,索尼手机的一招鲜就相形见绌了。索尼手机,要和中国大陆市场说再见?毫无疑问,中国大陆是全球最卷的手机市场。在一轮又一轮的残酷洗牌中,无数老牌和新兴品牌都黯然离场。而在产品和营销本地化上天然处于劣势地位的海外品牌,想在国内市场上站稳脚跟更是难上加难。目前,中国大陆市场中出货量排名前五的品牌中,除了苹果,其他都是国产厂商。曾经我们耳熟能详的一众国际品牌,有的已退出大陆市场,有的干脆退出了手机行业。2018年,LG宣布手机业务退出中国市场;三年后,LG在全球范围内直接放弃了整个手机业务。2021年,来自中国台湾的手机品牌HTC,停止在大陆地区销售手机;如今,虽然HTC在部分地区还有少量手机产品在销售,但存在感已经极低。2016年,夏普第三次进入中国大陆市场,但两年后铩羽而归再度退出;现在,夏普手机只在日本等少数市场上还保持着影响力。结合以上这些案例来看,如果索尼手机要退出中国大陆市场,并不会让人感到奇怪。索尼2023年公布的Q3财报显示,索尼移动的销售额为73亿日元,同比下滑了22%。换言之,索尼手机并没有因为体量小就避开了业务持续下滑的窘境。如果索尼手机业务持续看不到盈利希望,并且还在持续扩大亏损缺口,那么被索尼采取措施来降本增效就很好理解了。至于为何要先在中国大陆市场上开刀,原因也很简单,中国市场太卷了,止损效果可能更明显。面对手机红海,“Others品牌”要主动退场吗?无论是国内还是全球市场,手机行业的头部效应都非常明显。头部品牌们占据着大部分市场存量,彼此之间激烈厮杀,留给Others品牌的生存空间很小。相比头部品牌,大部分Others厂商在技术、产品、市场等各方面缺乏优势,很难在内卷中突围,寻找到增长的机会。但对很多品牌而言,不到万不得已的时候,还是不愿意彻底放弃手机业务。原因也并不复杂,手机仍然是当前消费市场上存量最大的智能设备,同时也是移动互联网最重要的入口。在万物互联的时代,手机还扮演着管理和联动其他智能设备的控制中枢的角色。对不少厂商来说,手机并非一项单一的业务,还关系着品牌旗下产品的整体生态建设。苹果、华为、小米、OV等头部手机品牌,都在不留余力地建设自家的生态,比如华为的鸿蒙全场景、小米的人车家、OPPO的潘塔纳尔等。非头部厂商,也尝试在这个方向上寻找新的机会,例如魅族试图用Flyme联结手机和车机,作为车企的蔚来下场做手机。至于Others品牌们是否应该退出手机行业,小雷认为应该分两种情况来看。第一,如果手机是该品牌的主营和核心业务,并且持续处于增长无望的亏损状态,那么主动或被动放弃比较明智,具体例子有锤子手机、YotaPhone等。第二,如果手机不是品牌的核心业务,甚至只是众多业务之一,那么保留着它或许是更好的选择。比如和星纪时代合体后的魅族,手机业务爆发的可能性很小,但对造车等业务能够形成较大的帮助。同时,手机还会是AI等前沿技术的重要载体,大模型、生成式AI都能在手机上寻找到丰富的使用场景。保留手机业务,也就为未来保留了一份希望。目前,魅族已宣布停止传统智能手机新项目,不过这句话有一定回旋余地,不做“智能手机”,依然可以做“AI手机”,前几天魅族刚发布了AI硬件“入门券”魅族21 Pro,欢迎在雷科技查看评测。尽管手机业务做得不成功,但索尼旗下的很多消费电子业务依然做得风生水起,包括游戏主机、相机、电视等。而且,索尼还有音乐、影视等内容业务,在打造软硬件生态上拥有比对手更大的优势。即便只在一小块市场上保留手机业务,对索尼也会更有利。在小雷看来,索尼当前的手机产品整体实力不算强,与主流品牌的旗舰相比仍有较大的差距。然而,在外观设计和影像方面,索尼仍然保持着一定的独特性。在手机产品高度同质化的市场上,索尼手机还是有很强的个性。我个人更希望包括索尼在内的Others品牌们能够长期做下去,给用户提供更多不那么大众化的选择。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人