发帖
客户端
扫码下载

[电脑] 高通AI 200与AI 250芯片:数据中心市场的挑战与疑虑

[复制链接]
9 |0
未来视野 发表于 昨天 23:26 | 显示全部楼层 |阅读模式
这里可以调整气泡内文字大小!滑动试试吧! ×
12 px
26 px
2025年10月27日,高通官网发布新闻稿,宣布推出AI 200和AI 250两款面向数据中心市场的芯片,分别计划于2026年和2027年上市,此举被视为高通向数据中心市场领导者英伟达发起的直接挑战。然而,从公开信息来看,这两款芯片的前景并不乐观。

高通在新闻稿中对芯片的关键算力指标避而不谈,仅透露了部分内存相关信息。AI 200采用768GB LPDDR内存,而AI 250则强调近内存计算(near memory compute),号称内存带宽提升了10倍,推测可能采用了存算一体PIM架构。高通的策略是利用低成本LPDDR内存替代高带宽、高价格的HBM和GDDR显存,并大胆押注存算一体架构。

但这种策略存在明显问题。以AI 200为例,其采用的LPDDR 5内存带宽仅为273GB/s,与GDDR 7的RTX 5090(1.8TB/s)和HBM 3e的B200(8TB/s)相比,差距达到10至40倍。尽管768GB的内存容量看似庞大,能够运行更大的模型,但在数据中心场景下,高并发请求会导致带宽压力剧增,LPDDR内存的劣势将凸显无遗。例如,在处理GPT-OSS-120B模型时,即使只激活5B参数,当并发数达到10时,等效激活参数将增至50B,此时LPDDR内存的带宽将显得捉襟见肘。

再来看AI 250,其采用的近内存计算架构虽非真正意义上的存算一体,但带宽提升了10倍,大致达到GDDR显存的水平。然而,考虑到高通PIM技术为全新架构,其成本可能并不低于有大量游戏卡均摊成本的GDDR显存。在英伟达已推出专门使用GDDR显存的Rubin CPX产品的情况下,AI 250的市场突破前景并不明朗。

综合来看,高通AI 200和AI 250芯片在数据中心市场面临着诸多挑战。对于个人玩家而言,RTX 5090或RTX 6000等显卡是更为便捷的选择;对于数据中心推理而言,高通芯片无法胜任大batch size任务,平均每token成本高于HBM显存卡;对于企业私有部署而言,英伟达的卡学习成本最低,技术人员更为熟悉。因此,高通AI 200和AI 250芯片在三个主要市场均面临走不通的尴尬局面。
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

热门版块
数码讨论
畅谈数码,分享心得。
快速回复 返回顶部 返回列表