新一轮的爆发即将开始?

 如果说AI大潮下哪一家公司躺赢,那非苹果莫属。

苹果没有耗费巨大的capex,却成为AI应用整合以及本地大模型部署的双重赢家。
而相比于某些AI功能,本地大模型的推理需求对于苹果来说机会更大、护城河更深。因为AI的应用底层依赖的还是GPT或Gemini,这是其他竞争者也可以获取的资源,但在本地模型部署的硬件层面上,苹果是把所有核心资源都牢牢抓在自己手中。
今天我们的主题就是谈AI需求爆发下,苹果Mac产品线即将到来的需求爆发,核心逻辑是Mac正在从单纯的个人电脑进化为个人AI算力中心。
我们的主题会从本地大模型部署、显存的重要性、统一内存架构以及苹果的估值这几个方面展开。
一、本地大模型部署


现在我们大多数人用的AI,都是基于云上的服务,例如使用ChatGPT、Claude、豆包等平台,这种用法的优势在于随时随地使用、模型强大,劣势在于如果需要有生产力级别的使用,那么以下三个典型的问题至少会遇到一个:


(1)算力不足 - 这是最常见的瓶颈,导致用户不得不付费或排队等候任务完成;


(2)延时过长 - 考虑到云上服务不在本地,有时候无法满足需要某些对延时要求特别高的工作;


(3)安全性隐患 - 所有交互和信息都与平台联网,万一出现安全漏洞,后果不堪设想,因此总有一些关系到资金和隐私的场景对于本地大模型部署存在强烈需求。


我们往期说过多次,token就是生产力、就是未来的水电气。


未来的token会来自于两个来源:一是数据中心,二是本地设备。


依托于数据中心,OpenAI和Anthropic这类AI公司为用户所有提供云上token,用户可以用不多的开支使用全球最顶尖闭源大模型;而本地设备则可以为个人提供开源大模型买断式的无限token(只要有硬件和不高的电费即可)

现在我们看到各家大厂拼命砸钱投资数据中心,下一步很可能会看到本地大模型部署带来的硬件热潮。


都不用等下一步,你现在去苹果官网看一下就明白了,Mac mini无论是搭载M4还是M4pro芯片,无论是否做定制,从下单到收货的时间至少都在一个月,这在过去是难以想象的。

如果说英伟达实现了数据中心的霸主地位,那么未来个人本地推理算力的巨大市场,苹果是最有机会的那一个。为什么是苹果呢?这要从显存说起。


二、显存至关重要

对于个人或中小企业客户来说,他们对于AI算力的需求只有推理、没有训练,大模型推理时,权重必须全部常驻显存,因为在推理时GPU每生成一个 token,都要把整个模型的权重读一遍。

如果显存不够,模型权重就会被迫溢出到系统内存甚至硬盘,然后每次计算都要把数据通过PCIe总线复制到显存,这条通道的带宽速度差了一个数量级甚至更多,会让速度立刻崩溃,所以要跑本地大模型,就看显存和显存带宽。

我们先看看不同显存不同硬件各自可以部署的本地大模型以及大模型对应的能力↓

当下最强的消费级显卡5090市场价在4000-5000美元,它提供了32G GDDR7显存,还给到了1.79TB/s的超强带宽,但即使是5090也无法部署一千亿(100B)参数以上的大模型,因为显存只有32G。

在与5090差不多的开支下,我们可以拿下一台搭载M5 Max、128GB统一内存、2TB储存的14英寸Macbook Pro,并且进入上述“旗舰级”的范围。

如果128G的显存还觉得不够,我们还可以把多台mac串联起来跑更大的满血参数大模型,这种玩法看上去成本很高,但我们确实找不到第二个用相同成本做成这件事的方法,任何次级选项的成本都是mac方案的几倍甚至十倍之多。

三、统一内存架构

Mac能成为AI时代本地大模型部署的首选,完全得益于其统一内存架构(UMA),在此架构中,CPU和GPU共享同一块高速内存,所以内存有多大,显存就有多大。

如果你买了一台128GB内存的Mac电脑,除去系统与其他应用所占内存,AI模型可以调用其中约100GB左右作为显存,这让你能以极低的成本运行70B、甚至100B+的顶级模型。

苹果在软件层面的发力也让本地部署变得更加高效简单,比如MLX框架就是苹果专门为Apple Silicon推出的开源阵列框架,它允许开发者直接在Mac 硬件上进行高效的推理和微调,也给用户提供了很不错的性能表现。还有像Ollama、LM Studio、Draw Things等等工具,实现了一键下载运行。用户不再需要折腾复杂的Python环境或CUDA驱动,即使是非技术人员也能在几分钟内跑起自己的本地化私有AI。


那么既然统一内存架构这么好,为什么英特尔和AMD就不跟上呢?
他们已经开始行动了,比如AMD Ryzen AI Max+是第一款搭载128GB统一内存的x86处理器,又比如英特尔Lunar Lake也开始提供采用封装内的内存了,但无论是英特尔还是AMD,各自还是受限于许多因素,导致苹果的优势十分明显。
要挑战Mac的统一内存架构,其中最大的问题就是内存带宽。本地部署大模型时,性能的瓶颈通常不在算力,而在显存的容量和带宽,容量决定大模型的规模、带宽决定大模型交互的速度。
作为对比,苹果不仅统一内存的容量大,而且带宽也高得多,M5 Max的统一内存带宽达到了614GB/s,而AMD和英特尔的类统一内存的竞品最大带宽分别只有256GB/s和136.5GB/s。

那么,为什么英特尔和AMD不增加统一内存带宽呢?他们当然想增加,但是不能像苹果这样随心所欲。


从技术角度看,苹果M芯片的Max/Ultra系列通过封装内内存,将内存控制器的位宽堆到了惊人的512 bit甚至1024 bit,传统PC采用插槽式内存,位宽通常被限制在128 bit,即使DDR5频率再高,车道数量就是这么些,总带宽也很难突破100GB/s。另外,苹果依托的ARM架构在低功耗管理上有天然优势,可以很好地控制高带宽带来的发热。而x86架构本身功耗较高,如果再加上400GB/s以上的高带宽内存系统,整机的功耗和散热设计将更加困难,也更做成轻便的移动设备。

从商业角度看,如果英特尔突然推出一款需要512 bit位宽的CPU,现有的所有DDR5内存条和主板都得作废,为了照顾广大的兼容机市场,他们只能选择循序渐进地提升DDR标准;而如果AMD真的出了一款拥有400GB/s带宽的统一内存,它会颠覆自家的中端独立显卡的市场。

可以非常确定地说,在本地大模型推理上,Mac是唯一一个做到大显存 + 高带宽 + 低功耗 + 好生态 + 高性价比的产品,这样的东西在AI爆发的背景下,不被抢购才是怪事。

需求激增的原因是产品性质发生了变化,如前文所述,Mac正在从单纯的个人电脑进化为个人AI算力中心。

未来开源大模型有多强,mac的需求就有多强,虽然目前全世界最好的大模型(如GPT5.4、Claude Opus4.6、Gemini3.1)都是闭源模型,但相比开源大模型领先的幅度并没有特别大,慢则一年、快则几个月,那时候的最好的开源大模型就会比现在最强的闭源模型更强,部署到本地后,只需插电,你就拥有无限token,想起来是不是都感觉未来无限美好?


四、苹果的估值与机会

在过去十年,苹果的估值中枢有明显提高,十年前苹果的估值仅10倍多,现在达到30倍以上,在这个估值的背景下,苹果的成长性并不算很好,只有大约10%出头的年化营收和利润增速。

目前,苹果估值在过去十年的百分位是79.4%,意味着在过去十年有20.6%的时间里苹果比现在贵。


但是,苹果真的很贵吗?我觉得事实不是这样,因为我们要看结构的改善。
十年前,苹果更像纯硬件公司,其营收中的服务营收大约只有10%,而现在苹果已明显成为生态公司,软件与生态属性大幅增加,服务营收占比达到25%左右,稳居第二大营收来源,仅次于iPhone,而且还在稳定快速增长。可以预测,十年后苹果的服务营收可能就会超过iPhone成为最大收入项。
所以苹果不只是一家硬件公司,而是披着硬件外衣的生态和软件公司,如果十年前还有人怀疑,那么当下苹果收入的结构优化就已证明了一切。除了服务营收外,苹果产品中的Mac在未来也大有可为,未来必将占据本地化AI生态的重要位置。
很多人已经忘记,苹果从诞生起就是一家电脑公司,苹果历史上的第一款产品是Apple-1电脑,发布于1976年,一直到2006财年Mac依然占据当时营收的40–50%,是绝对的核心业务,直到iPhone的推出和爆发才被取代。而AI时代的到来,又让Mac有了新一轮的爆发机会。

把握机会比看懂机会更难,比如一周多前外管局开放了一批QDII额度,以天弘纳指100为例,单日买入额度1000元仅保持了几天,就又回到了100,可见当下明白的投资者已经非常多,以至于好一点的纳指基金一有额度就被抢光。
所以我们这里继续分享可行方案,当下对于国人来说,拥有一个美港股的账户已经变得越来越奢侈,但窗口尚未关死,不仅可以线上开户,香港线下还有免费的辅助开户资源,任何人都可以非常简单地一条龙解决港卡和美国投资户的需求,对于线上开户或线下辅助感兴趣的小伙伴可扫文末二维码加入群聊,获取完整方案↓







评论