新一轮的爆发即将开始?
如果说AI大潮下哪一家公司躺赢,那非苹果莫属。 苹果没有耗费巨大的capex,却成为AI应用整合以及本地大模型部署的双重赢家。 而相比于某些AI功能, 本地大模型的推理需求对于苹果来说机会更大、护城河更深。 因为AI的应用底层依赖的还是GPT或Gemini,这是其他竞争者也可以获取的资源,但 在本地模型部署的硬件层面上,苹果是把所有核心资源都牢牢抓在自己手中。 今天我们的主题就是谈AI需求爆发下, 苹果Mac产品线即将到来的需求爆发,核心逻辑是 Mac正在从单纯的个人电脑进化为个人AI算力中心。 我们的主题会从本地大模型部署、显存的重要性、 统一内存架构以及苹果的估值这几个方面展开。 一、本地大模型部署 现在我们大多数人用的AI,都是基于云上的服务,例如使用ChatGPT、Claude、豆包等平台,这种用法的优势在于随时随地使用、模型强大,劣势在于如果需要有生产力级别的使用,那么以下三个典型的问题至少会遇到一个: (1)算力不足 - 这是最常见的瓶颈,导致用户不得不付费或排队等候任务完成; (2)延时过长 - 考虑到云上服务不在本地, 有时候无法满足需要某些对延时要求特别高的工作; (3)安全性隐患 - 所有交互和信息都与平台联网,万一出现安全漏洞,后果不堪设想,因此总有一些关系到资金和隐私的场景对于本地大模型部署存在强烈需求。 我们往期说过多次,token就是生产力、就是未来的水电气。 未来的token会来自于两个来源: 一是数据中心,二是本地设备。 依托于数据中心,OpenAI和Anthropic这类AI公司为用户所有提供云上token,用户可以用不多的开支使用全球最顶尖闭源大模型;而 本地设备则可以为个人提供开源大模型买断式的无限token(只要有硬件和不高的电费即可) 。 现在我们看到各家大厂拼命砸钱投资数据中心,下一步很可能会看到本地大模型部署带来的硬件热潮。 都不用等下一步,你现在去苹果官网看一下就明白了,Mac mini无论是搭载M4还是M4pro芯片,无论是否做定制,从下单到收货的时间至少都在一个月,这在过去是难以想象的。 如果说英伟达实现了数据中心的霸主地位,那么未来个人本地推理算力的巨大市场,苹果是最有机会的那一个。为什么是苹果呢?这要从显存说起。 二、显存至关重要 对于个人或中小企业客户来说,他们...