近日,美國(guó)AI芯片初創(chuàng)公司Cerebras Systems正式推出全球尺寸最大的AI芯片——Wafer Scale Engine(WSE),并在AI推理性能上實(shí)現(xiàn)歷史性突破。這款邊長(zhǎng)22厘米、面積達(dá)462平方厘米的芯片,集成了40億至4萬(wàn)億個(gè)晶體管(不同代次版本),其推理速度比同等規(guī)模的英偉達(dá)GPU集群快約2.5倍,重新定義了AI計(jì)算的性能邊界。 “晶圓級(jí)”架構(gòu):?jiǎn)涡酒敲莱?jí)計(jì)算機(jī) WSE的核心創(chuàng)新在于其“晶圓級(jí)”設(shè)計(jì)——將整塊300毫米晶圓轉(zhuǎn)化為單一處理器,而非傳統(tǒng)方式中將晶圓切割為多個(gè)小芯片。這一設(shè)計(jì)使WSE擁有以下突破性參數(shù): 晶體管數(shù)量:最新WSE-3版本集成超4萬(wàn)億個(gè)晶體管,是英偉達(dá)H100的52倍; 核心規(guī)模:搭載90萬(wàn)個(gè)AI優(yōu)化計(jì)算核心(WSE-3),是H100的52倍; 內(nèi)存帶寬:片上SRAM達(dá)44GB,帶寬9PB/s,是H100的10,000倍; 功耗效率:?jiǎn)涡酒?5千瓦,但能效比優(yōu)于英偉達(dá)DGX H100集群。 Cerebras首席執(zhí)行官Andrew Feldman表示:“WSE不是對(duì)現(xiàn)有架構(gòu)的漸進(jìn)改進(jìn),而是芯片技術(shù)的一次范式革命。通過(guò)將計(jì)算、內(nèi)存和通信全部集成在單晶圓上,我們消除了傳統(tǒng)集群中90%的數(shù)據(jù)傳輸延遲。” 推理性能碾壓:每秒生成2500個(gè)Token 在Web Summit 2025大會(huì)上,Cerebras展示了WSE在Meta Llama 4模型上的推理性能: 基準(zhǔn)測(cè)試:WSE處理速度達(dá)每秒2500個(gè)Token,而英偉達(dá)集群僅能實(shí)現(xiàn)每秒1000個(gè)Token; 模型支持:可訓(xùn)練24萬(wàn)億參數(shù)的AI模型,是英偉達(dá)方案的600倍; 成本優(yōu)勢(shì):訓(xùn)練700億參數(shù)的Llama模型,WSE集群僅需1天,而英偉達(dá)集群需30天。 第三方機(jī)構(gòu)Artificial Analysis的測(cè)試顯示,WSE在Meta最先進(jìn)模型上的推理性能“超越所有現(xiàn)有方案”,成為唯一能在特定場(chǎng)景下超越英偉達(dá)Blackwell架構(gòu)的解決方案。 技術(shù)突破:稀疏計(jì)算與片上內(nèi)存革命 WSE的性能飛躍源于兩大核心技術(shù): · 稀疏線性代數(shù)核心(SLAC): 針對(duì)深度學(xué)習(xí)中的稀疏計(jì)算(數(shù)據(jù)中50-98%為零)優(yōu)化,自動(dòng)跳過(guò)零值計(jì)算,將硬件利用率提升至GPU的3-4倍; 動(dòng)態(tài)稀疏性支持使推理速度比英偉達(dá)GPU快2.5倍。 · 片上超高速內(nèi)存: WSE-3集成44GB SRAM,帶寬9PB/s,徹底消除對(duì)外部HBM的依賴; 內(nèi)存與計(jì)算核心緊密耦合,使數(shù)據(jù)訪問(wèn)延遲降低至GPU的1/1000。 Cerebras首席營(yíng)銷官Julie Shin指出:“傳統(tǒng)GPU需通過(guò)PCIe或NVLink連接多塊芯片,而WSE的所有通信均在片內(nèi)完成,這種‘零延遲’架構(gòu)是性能飛躍的關(guān)鍵! 產(chǎn)業(yè)沖擊:重新定義AI計(jì)算架構(gòu) WSE的推出標(biāo)志著AI芯片競(jìng)爭(zhēng)進(jìn)入“晶圓級(jí)”時(shí)代: 算力密度:?jiǎn)涡酒商峁?25 petaFLOPS性能,相當(dāng)于10個(gè)英偉達(dá)DGX H100機(jī)架; 能效比:在相同功耗下,WSE的訓(xùn)練速度是英偉達(dá)方案的8倍; 成本優(yōu)勢(shì):Cerebras宣稱其解決方案可將AI模型訓(xùn)練成本降低90%。 目前,WSE已應(yīng)用于美國(guó)能源部、阿斯利康等機(jī)構(gòu)的超級(jí)計(jì)算機(jī)項(xiàng)目中。Feldman透露,下一代WSE-4將采用臺(tái)積電3nm工藝,晶體管數(shù)量突破10萬(wàn)億,目標(biāo)直指GPT-6級(jí)別模型的實(shí)時(shí)訓(xùn)練。 未來(lái)展望:AI計(jì)算的“光刻機(jī)時(shí)刻” 行業(yè)分析師指出,WSE的商業(yè)化落地將加速AI產(chǎn)業(yè)分化: 云服務(wù)商:亞馬遜、微軟等巨頭或采購(gòu)WSE集群以降低運(yùn)營(yíng)成本; 初創(chuàng)企業(yè):生物醫(yī)藥、自動(dòng)駕駛等領(lǐng)域?qū)⒂楷F(xiàn)更多“單芯片即數(shù)據(jù)中心”的創(chuàng)新模式; 芯片生態(tài):英偉達(dá)、AMD或被迫加速2.5D/3D封裝技術(shù)研發(fā),以應(yīng)對(duì)晶圓級(jí)芯片的挑戰(zhàn)。 “這就像從機(jī)械硬盤到SSD的跨越。”Cerebras首席硬件架構(gòu)師Sean Lie表示,“WSE證明了單芯片即可承載超級(jí)計(jì)算機(jī)的算力,而我們的目標(biāo)是在2030年前將AI推理成本降低至目前的千分之一! 關(guān)于Cerebras Systems Cerebras成立于2016年,總部位于美國(guó)加州,專注于晶圓級(jí)AI芯片研發(fā)。其團(tuán)隊(duì)核心成員來(lái)自AMD、Intel、Sun等企業(yè),累計(jì)融資超10億美元。2025年,WSE系列芯片已占據(jù)全球AI訓(xùn)練市場(chǎng)15%的份額,成為英偉達(dá)最強(qiáng)勁的挑戰(zhàn)者。 |