周一美股开盘后,高通的股价像被按了“加速键”——一度飙升超20%,摸高至205.55美元的52周新高。这波涨势的“引擎”,藏在当天高通的一场战略发布会里:这家以手机芯片起家的科技巨头,正式杀入数据中心AI芯片市场,推出两款专为AI推理环节设计的加速器——AI200与AI250,以及配套的机架级服务器系统。
“我们不是来做‘第二个英伟达’的。”高通数据中心与边缘业务总经理杜尔加·马拉迪(Durga Malladi)的话,点出了这两款芯片的定位:瞄准AI产业链中“最费钱的环节”——推理。相较于模型训练对算力的极致追求,推理更看重“性价比”:要让大语言模型(LLM)、多模态模型(LMM)跑起来时,既省电费,又能扛住大规模并发。而高通的优势,刚好在这里——从手机NPU积累的低功耗技术,被“放大”到了数据中心级别:AI200单卡配768GB LPDDR内存,用低成本换来了大内存容量;AI250更狠,用上近存储计算架构,内存带宽提升10倍,功耗还降了一大截,直接解决了推理中的“内存瓶颈”。
更灵活的是采购模式:客户可以选芯片、选计算卡,甚至选整机,还能和英伟达、AMD的产品混搭——马拉迪直言:“就算是竞争对手,也可能买我们的CPU组件。”这种“不设限”的玩法,戳中了很多企业的痛点:现在AI推理成本太高,英伟达GPU占了90%以上份额,大家都在找“平替”。
其实这不是高通第一次碰服务器芯片。2017年它和微软合作的Centriq 2400平台,最后因为竞争和内部问题折戟。但这次不一样——选对了“推理”这个赛道。麦肯锡的数据摆在这里:到2030年全球数据中心资本支出要超6.7万亿美元,其中AI芯片占比越来越高,而推理环节的成本,已经成为云计算企业的“心病”。高通的这步棋,刚好踩中了行业的“需求缺口”。
更让市场放心的是,已经有客户“用脚投票”了。沙特阿拉伯的Humain公司,直接签下了首单——要建一个200兆瓦的AI推理系统。对高通来说,这不仅是第一个客户,更是“技术可行”的证明:低功耗+高性价比的组合,真能解决企业的实际问题。
有意思的是,高通的入局,像给AI芯片市场丢了条“鲶鱼”。前阵子OpenAI刚从AMD买芯片,谷歌、亚马逊在自研加速器,大家都想把推理成本打下来。而高通带着手机芯片的技术积累进来,说不定能把这个“蛋糕”做得更大——毕竟,当推理不再“贵得离谱”,AI服务才能更普及。
股价的暴涨,本质上是市场对“高通战略转向”的认可。从手机芯片到数据中心AI推理,它赌的是:未来AI的竞争,不在“谁能训更大的模型”,而在“谁能让模型更便宜地跑起来”。而这一步,或许能让英伟达的“垄断蛋糕”,第一次出现裂缝。