2025年10月27日,高通官网发布新闻稿,宣布推出AI 200和AI 250两款面向数据中心市场的芯片,分别计划于2026年和2027年上市,此举被视为高通向数据中心市场领导者英伟达发起的直接挑战。然而,从公开信息来看,这两款芯片的前景并不乐观。
高通在新闻稿中对芯片的关键算力指标避而不谈,仅透露了部分内存相关信息。AI 200采用768GB LPDDR内存,而AI 250则强调近内存计算(near memory compute),号称内存带宽提升了10倍,推测可能采用了存算一体PIM架构。高通的策略是利用低成本LPDDR内存替代高带宽、高价格的HBM和GDDR显存,并大胆押注存算一体架构。
但这种策略存在明显问题。以AI 200为例,其采用的LPDDR 5内存带宽仅为273GB/s,与GDDR 7的RTX 5090(1.8TB/s)和HBM 3e的B200(8TB/s)相比,差距达到10至40倍。尽管768GB的内存容量看似庞大,能够运行更大的模型,但在数据中心场景下,高并发请求会导致带宽压力剧增,LPDDR内存的劣势将凸显无遗。例如,在处理GPT-OSS-120B模型时,即使只激活5B参数,当并发数达到10时,等效激活参数将增至50B,此时LPDDR内存的带宽将显得捉襟见肘。
再来看AI 250,其采用的近内存计算架构虽非真正意义上的存算一体,但带宽提升了10倍,大致达到GDDR显存的水平。然而,考虑到高通PIM技术为全新架构,其成本可能并不低于有大量游戏卡均摊成本的GDDR显存。在英伟达已推出专门使用GDDR显存的Rubin CPX产品的情况下,AI 250的市场突破前景并不明朗。
综合来看,高通AI 200和AI 250芯片在数据中心市场面临着诸多挑战。对于个人玩家而言,RTX 5090或RTX 6000等显卡是更为便捷的选择;对于数据中心推理而言,高通芯片无法胜任大batch size任务,平均每token成本高于HBM显存卡;对于企业私有部署而言,英伟达的卡学习成本最低,技术人员更为熟悉。因此,高通AI 200和AI 250芯片在三个主要市场均面临走不通的尴尬局面。 |