英伟达护城河,出现危机?
最近Gemini 3 Pro火遍全球,这个大模型在各方面的评分已经超越ChatGPT5.1,更重要的是根据谷歌的官方文档显示,Genimi3是在谷歌自家的TPU上进行训练和推理的(而不是英伟达GPU),这是Gemini3最引人注目的一大亮点,那么这对于现在的AI训练/推理而言,TPU是否对英伟达构成了颠覆呢? 今天的主题就会从简单易懂的技术层面以及投资者视角讨论这个问题。 一、谷歌TPU是什么 谷歌的TPU的全称是 Tensor Processing Unit(张量处理单元),是一种典型的 ASIC(Application-Specific Integrated Circuit 专用集成电路)。 作为谷歌自己设计的一种AI专用芯片,TPU主要特点就是只干一件事: 深度学习(尤其是矩阵乘法),它通常配合谷歌自家的软件栈工作。 除了谷歌到底TPU外,其他大厂也研发了自己的ASIC,例如亚马逊的 Trainium和 Inferentia、微软的Maia、Meta的MTIA、特斯拉的Dojo。 这些ASIC的功能与谷歌TPU类似,之所以谷歌TPU火了,主要是因为产品相对更加成熟,T PU v1在2015年就在谷歌内部跑推理,2017年TPU v2 就在谷歌云上公开出租算力了,到现在已经迭代到第七代。 二、为何无法取代GPU 谷歌的自研芯片成功,短期内反而会加剧各家大厂的大模型竞争,而长期确实给具有足够实力的超级大厂提供了另一种可行性,在特定的算力需求下削弱英伟达GPU独一无二的特性。 不过由于谷歌自己的TPU是针对自己的产品和软件栈优化的,在其他场景和生态的大模型训练/推理上并不擅长,加之谷歌本身同微软、亚马逊、Meta构成更加直接的竞争关系,因此TPU难以颠覆英伟达的地位。 如果要做一个预测,我认为无论有没有谷歌TPU, 英伟达在可见的未来都会从当下掌握90%的AI加速器市场转而下降至70-80%,剩余部分是TPU(ASIC)和其他GPU的空间 。 之所以ASIC的总规模上限有限,是因为他的通用性较低,比如英伟达GPU因为其通用性,可以适配不断出现的新模型结构 (各种变体、MoE、Diffusion、RNN、图神经网络等),CUDA生态、Pytorch/TensorFlow/XLA等都围绕它优化,任何新算子和新模型很快就能在GPU上跑起...