AI芯片领域正掀起新一轮变革浪潮,Anthropic与亚马逊的最新动作引发行业高度关注。两家科技企业分别通过自研芯片与开放芯片业务两条路径,向传统AI芯片巨头英伟达发起挑战,折射出全球算力市场格局加速重构的趋势。
据知情人士透露,AI初创公司Anthropic已启动自研芯片可行性评估,旨在缓解支撑其Claude模型训练的算力短缺问题。该公司本周披露数据显示,Claude年化营收从2025年的90亿美元飙升至突破300亿美元,这种指数级增长直接推高了对专用芯片的需求。尽管项目尚处早期阶段,尚未组建专门团队或确定技术路线,但行业估算显示,开发一款先进AI芯片需投入约5亿美元,涵盖从设计到量产的全流程成本。
在探索自研路径的同时,Anthropic同步推进外部算力合作。该公司与谷歌、博通签署的长期协议显示,博通将于2027年起通过谷歌AI处理器提供3.5吉瓦算力资源。这种"双轨策略"既保障短期供应稳定性,又为长期技术自主性预留空间。目前,Anthropic的算力基础设施仍依赖AWS Trainium、谷歌TPU及英伟达GPU的混合架构。
另一科技巨头亚马逊则选择开放芯片业务。CEO安迪·贾西透露,公司正评估将内部芯片部门剥离为独立实体的可能性。该部门当前通过AWS租赁模式实现超200亿美元年收入,若转向直接销售,年化营收有望突破500亿美元。这一战略调整源于AI训练芯片的供需失衡——随着大模型参数规模突破万亿级,市场对英伟达GPU的替代方案需求激增,为亚马逊芯片外售创造窗口期。
市场研究机构TrendForce预测,基于ASIC的专用AI服务器出货量占比将从2026年的27.8%跃升至2030年的近40%。这种结构性转变正在动摇英伟达的市场主导地位。除Anthropic与亚马逊外,meta和OpenAI也相继传出芯片自研计划,科技巨头集体加速布局定制化算力解决方案。
值得注意的是,亚马逊芯片业务转型面临技术适配挑战。其当前自研的Inferentia推理芯片和Trainium训练芯片仍需通过AWS生态绑定销售,而外部客户可能要求更开放的软硬件兼容性。Anthropic的自研项目则需克服芯片设计周期长、流片风险高等行业难题,其最终是否落地仍存在不确定性。
这场算力革命正在重塑科技产业链分工。当云服务商转型为芯片供应商,当AI公司深度介入硬件研发,传统"芯片-云服务-应用"的垂直架构面临重构。市场观察人士指出,这种转变不仅关乎技术路线选择,更涉及商业利益分配的重构——谁掌握算力核心环节,谁将在未来AI竞争中占据主动权。



