Cerebras上市首日暴涨近倍 市值破千亿美元 重塑AI芯片格局

上市首日狂欢:股价暴涨近倍 市值突破千亿美元
硅谷AI芯片制造商Cerebras Systems周三登陆纳斯达克,开盘价350美元,几乎是IPO定价185美元的两倍,上市首小时市值便飙升至1000亿美元,一跃成为全球最有价值的半导体公司之一。这一表现不仅验证了公司长达十年的技术押注,更标志着AI基础设施领域的新变革正在发生。
融资创纪录:55.5亿美元IPO远超预期
Cerebras此次发行3000万股,每股定价185美元,共融资55.5亿美元,成为2019年Uber上市以来美国最大的科技IPO。其IPO定价过程经历了三次上调:最初 marketed 在115-125美元区间,后因投资者需求激增上调至150-160美元,最终定价远超这一范围,创下近年科技IPO的定价纪录。
十年押注终获验证:从单一客户依赖到多元生态布局
此次IPO标志着Cerebras完成了近年最戏剧性的业务转型。公司2024年首次申请上市,但因营收几乎完全依赖单一客户(阿联酋)而撤回申请。2026年重新提交IPO文件时,其业务已发生根本变化:与OpenAI、亚马逊云服务(AWS)建立深度合作,云推理服务快速增长,2025年营收较2024年增长76%至5.1亿美元,摆脱了对单一客户的依赖。
芯片革命: dinner-plate大小的WSE如何颠覆AI计算
要理解Cerebras的爆发式增长,需从其核心技术创新说起。公司研发的Wafer-Scale Engine(WSE,晶圆级引擎)是单颗覆盖整个硅晶圆的处理器——相当于 dinner-plate 大小。第三代WSE-3集成了4万亿晶体管、90万个计算核心和44GB片上内存,尺寸是Nvidia B200“Blackwell”芯片的58倍,内存带宽更是后者的2625倍。
这一优势对AI推理至关重要。当大语言模型生成文本时,每个词元都需要模型全部权重从内存传输至计算单元,而Cerebras的架构通过将计算单元紧密集成,大幅降低数据传输延迟,使推理速度比主流GPU方案快15倍(第三方测试机构Artificial Analysis数据验证)。
“我们设计晶圆时的核心原则是让计算单元更靠近彼此,降低通信延迟——这是AI计算的关键。”Cerebras产品副总裁Andy Hock表示,“低延迟是快速推理的基石。”
这一创新源于2015年对AI工作负载的洞察:AI计算本质是通信受限问题,而解决之道是将所有组件集成在单颗巨型芯片上。尽管晶圆级集成此前多次失败,Cerebras通过两项关键技术突破:一是晶圆级多芯片互连(将独立芯片在制造过程中“缝合”成整体),二是容错架构(通过冗余模块绕过制造缺陷,类似数据中心处理服务器故障)。
云推理战略:从硬件销售转向服务模式
此前,Cerebras主要销售硬件——安装在客户现场的巨型AI超级计算机,2025年硬件收入达3.58亿美元。但IPO文件显示,公司正战略转向云推理服务:2024年8月推出云推理平台,2025年云服务收入达1.516亿美元,较2024年的7830万美元增长94%,且这一比例未来将进一步提升,主要受益于与OpenAI的大额合作。
“云和模型API是推理服务的自然消费方式,也是开发者最偏好的模式。”Hock解释道。Cerebras营销副总裁Julie Choi则将云服务称为“民主化”举措:“无论是创业者、初创公司还是大型组织如OpenAI,云让部署快速推理变得简单。”
不过,这一转型资本密集:公司需租赁数据中心空间、制造并部署系统、开发管理软件,才能获得持续收入。但凭借技术优势,Cerebras正加速构建AI基础设施的新生态。
关注微信号:智享开源 ,可及时获取信息
关注微信

还没有任何评论,你来说两句吧!