8 月 25 日報道,今天,美國內(nèi)存 IP 廠商 Rambus 宣布推出 HBM3 內(nèi)存接口子系統(tǒng),其傳輸速率達 8.4Gbps,可以為人工智能/機器學習(AI/ML)和高性能計算(HPC)等應用提供 TB 級帶寬,是當前速率最快的 HBM 產(chǎn)品。預計 2022 年末或 2023 年初,Rambus HBM3 將會流片,實際應用于數(shù)據(jù)中心、AI、HPC 等領(lǐng)域。
芯東西等媒體與 Rambus 大中華區(qū)總經(jīng)理蘇雷、Rambus IP 核產(chǎn)品營銷高級總監(jiān) Frank Ferro 就 Rambus HBM3 的具體性能以及 Rambus 對客戶的支持等進行了深入交流。
一、支持 8.4Gbps 數(shù)據(jù)傳輸速率,帶寬超 TB
據(jù) Frank 分享,隨著越來越多的公司進入人工智能市場,這對內(nèi)存帶寬提出了很多要求,而神經(jīng)網(wǎng)絡和深度學習等 AI 應用也在不斷推動內(nèi)存帶寬增長。
咨詢公司 IDC 內(nèi)存半導體副總裁 Soo Kyoum Kim 曾稱:“AI/ML 訓練對內(nèi)存帶寬的需求永無止境,一些前沿訓練模型現(xiàn)已擁有數(shù)以十億的參數(shù)。”
Rambus 的 HBM3 內(nèi)存子系統(tǒng)提高了原有性能標準,包含完全集成的 PHY 和數(shù)字控制器,可以支持當下很多 AI 及 HPC 應用。
具體來說,HBM3 的數(shù)據(jù)傳輸速率高達8.4Gbps/pin,帶寬達 1075.2GB/s(1.075TB/s)。Rambus 的 HBM3 支持標準的 64 位 16 通道,支持 2、4、8、12 和 16 HBM3 DRAM 堆棧,信道密度達 32Gb。
Frank 回應芯東西記者問題時稱,HBM3 的流片時間預計為 18 個月,因此可能會在 2022 年末或 2023 年初出片,并實際應用于部分客戶。
Frank 稱,由于其數(shù)據(jù)傳輸速率和帶寬較高,HBM3 可以應用于 AI、機器學習、HPC 等多種應用。
HBM3 采用了 2.5D 架構(gòu),最上面集成了 4 條 DRAM 內(nèi)存條,通過堆疊的方式集成在了一起。內(nèi)存條下方是 SoC 和中介層,最下面的綠色部分則是封裝。
對客戶來說,Rambus 會提供 SI/PI 專家技術(shù)支持,確保設備和系統(tǒng)具有最優(yōu)的信號和電源完整性。作為 IP 授權(quán)的一部分,Rambus 也將提供 2.5D 封裝和中介層參考設計。
Frank 還給出了 HBM 性能的演進圖。
2016 年 HBM2 的帶寬為 256GB/s,I/O 數(shù)據(jù)速率為 2Gbps;HBM2E 的帶寬則能達到 460GB/s,數(shù)據(jù)傳輸速率達 3.6Gbps;SK 海力士公布的 HBM3 帶寬和傳輸速率分別為 665GB/s 和 5.2Gbps;Rambus 的 HBM3 性能又進一步提升,分別達 1075GB/s 和 8.4Gbps。
Frank 強調(diào),雖然 Rambus 的 HBM3 性能比 SK 海力士此前公布的要更進一步,但 SK 海力士作為 Rambus 的重要客戶,Rambus 也會為其提供支持。
蘇雷還透露,當前國內(nèi)的一流 AI 芯片廠商都和 Rambus 有所接觸,預計行業(yè)將會快速升級到 HBM3 標準。
二、Rambus 優(yōu)勢:市場經(jīng)驗豐富、支持多廠商制程節(jié)點
對于 Rambus 能夠為客戶提供的服務,F(xiàn)rank 提到 Rambus 在 HBM 市場中擁有豐富的經(jīng)驗和技術(shù)優(yōu)勢。
Rambus 在 2016 年就進入了 HBM 市場,其 HBM2E 內(nèi)存子系統(tǒng)擁有行業(yè)中最快的 4Gbps 速率。
憑借產(chǎn)品性能,Rambus 獲得了超過 50 個市場訂單,是市場份額排名第一的 HBM IP 供應商。Rambus 的芯片開發(fā)基本一次就能成功,無需返工,提升了設計效率。
同時,Rambus 的 HBM2/2E PHY(端口物理層)支持臺積電、三星等多個先進制程節(jié)點。其產(chǎn)品集成了 PHY、IO、Decap 等,其客戶可以直接采用。
Rambus 也與 SK 海力士、三星等 DRAM 供應商關(guān)系緊密,其測試芯片已經(jīng)經(jīng)過了市場上所有供應商的 DRAM 驗證,能夠為客戶提供便捷地服務。
三、2025 年全球數(shù)據(jù)使用量將達到 175ZB,AI 芯片市場將達百億美元
Rambus 大中華區(qū)總經(jīng)理蘇雷分享了近年來 Rambus 所取得的成績。Rambus 創(chuàng)建時間已經(jīng)超過 30 年,公司總部位于美國加利福尼亞州,在歐盟和亞洲等地設有辦事處,全球員工人數(shù)超過 600 人。
Rambus 擁有 3000 余項專利和應用,2020 年經(jīng)營現(xiàn)金流達 1.855 億美元,來自產(chǎn)品、合同等收入同比增長 41%。其主要的客戶有三星、美光、SK 海力士等內(nèi)存廠商和高通、AMD、英特爾等芯片廠商,Rambus 75% 以上的收入來自于數(shù)據(jù)中心和邊緣計算產(chǎn)品銷售。
從市場來說,人工智能/機器學習越來越多地應用于各個領(lǐng)域。預計到 2025 年,超過 25% 的服務器將用于人工智能領(lǐng)域,AI 芯片市場將達到 100 億美元。
2025 年,全球數(shù)據(jù)使用量將達到 175ZB,年均復合增長率達 35%,服務器整體年增長率為 8%。蘇雷稱,Rambus 也將致力于使數(shù)據(jù)傳輸更快、更安全。
結(jié)語:HBM3 將推動 AI、HPC 應用發(fā)展
相對于 GDDR 顯存,HBM 有著高帶寬的特性,是數(shù)據(jù)密集型應用內(nèi)存和數(shù)據(jù)處理瓶頸的解決方案之一。
本次 Rambus HBM3 IP 的推出,將再次推動 HBM 產(chǎn)品性能的提升,推動人工智能、高性能計算等應用發(fā)展。