在人工智能技术从实验室走向产业应用的关键阶段,算力供给模式的革新正引发行业深度变革。中科曙光近日在中关村论坛年会上推出全球首款无线缆箱式超节点scaleX40,这款集成40张GPU的算力设备以28PFLOPS(FP8精度)的算力表现,为AI算力市场提供了新的解决方案。
传统算力市场存在明显的断层:数百卡级超节点虽性能强劲但部署成本高昂,8卡服务器虽成本可控却难以满足新兴应用需求。中科曙光高级副总裁李斌指出,随着OpenClaw等智能体技术推动AI应用从对话交互向任务执行转型,算力需求正从训练主导转向推理服务主导。这种转变要求算力基础设施从"算力工厂"转型为"Token工厂",在性能、成本与部署灵活性间寻找平衡点。
scaleX40的研发团队经过市场调研发现,40卡规模既能支撑大模型训练推理需求,又不会造成资源浪费。该设备采用无线缆正交架构,通过计算节点与交换节点的直接对插设计,将访存带宽提升至80TB/s以上,延迟降低近一个数量级。这种创新架构使设备可直接适配标准19英寸机柜,相比传统超节点降低了80%的部署复杂度。
在性能对比测试中,scaleX40展现出显著优势:其训练效率较5台8卡服务器组合提升120%,推理性能最高提升330%,而硬件成本基本持平。这种突破得益于全栈协同优化,配套发布的ParaStor分布式存储系统、ScaleFabric高速网络及SothisAI管理平台,构建起从存储到应用层的完整解决方案。系统出厂前已完成800余个大模型的适配优化,开箱即可投入使用。
行业专家指出,当前AI算力需求呈现明显分层特征。智源研究院敖玉龙在研讨中提到,科研机构既需要单机般的易用性,又不得不面对大模型带来的系统复杂性。中国电信王子潇则预测,未来算力发展将呈现两大趋势:模型结构收敛推动ASIC芯片发展,互连协议统一提升节点扩展灵活性。这些变化都要求算力供给模式进行适应性调整。
中科曙光的产品矩阵布局印证了这种市场判断。继去年推出面向顶级训练的scaleX640后,此次发布的scaleX40形成了覆盖训练到推理的全场景解决方案。李斌强调,这种分层供给策略既符合国家算力中心建设"有序、集约、绿色"的指导原则,也体现了产业链协同创新的思路。通过与芯片厂商、系统软件开发商的深度合作,设备在特定算子优化上实现了30%以上的效率提升。
随着AI技术加速渗透金融、医疗、制造等领域,算力可及性正成为制约产业智能化的关键因素。scaleX40的箱式设计使单台设备占地面积缩减至0.5平方米,配合标准供电冷却系统,显著降低了中小企业部署门槛。这种"普惠型"算力供给模式,或将推动AI应用从技术验证阶段迈向规模化产业落地。
