為了不斷滿足人工智能和機器學習需求的迅速增長,算力在快速增長,數據量也在快速增長。
現在ChatGPT等人工智能相關的應用程序,它的增長速度以及對數據的需求更是非常龐大,而且ChatGPT-3是以1750 億個參數進行訓練的。這些人工智能應用的快速發展,也對處理器及帶寬提出了更高的要求和標準。
“市面上越來越多的客戶和公司都開始專注于開發自己個性化、定制化的處理器產品,以更好地滿足神經網絡以及專屬應用的需求。”Rambus IP核產品營銷高級總監Frank Ferro說道。
(資料圖片)
此時,內存墻問題越來越成為制約算力的重要問題。Frank表示:“盡管算力的增長非常顯著,但是帶寬上的進步卻無法改善,也就是造成兩者間的不匹配,很多計算資源并沒有被充分利用到。”
正是由于對帶寬需求更加進一步的增加,以及對需求的上漲,驅動了像Rambus公司一樣不斷打造新一代的產品,提高內存帶寬以及接口帶寬。實際上,根據Rambus 5月初剛剛公布的2023年一季度業績公告,在內存接口芯片的推動下,季度產品收入達到 6380 萬美元,同比增長 33%,總營收達到了1億1400萬,均創出新高。
HBM還是GDDR
人工智能的應用場景可劃分為訓練和推理兩部分,其中訓練是指通過大數據訓練出一個復雜的神經網絡模型,通過大量標記過的數據來訓練相應的系統,使其能夠適應特定的功能。而推理則是利用訓練好的模型,使用新數據推理出各種結論。借助神經網絡模型進行運算,利用輸入的新數據來一次性獲得正確結論的過程。
訓練和推理在算力和存儲上的需求并不完全相同,訓練需要更大的數據進行分析,而推理則更注重成本。也正因此,產業界誕生了包括HBM與GDDR兩種存儲解決方案,以適應不同的場景要求。
AI推理場景帶寬大概需要400-500Gb/s的帶寬,如果用HBM3,帶寬可以提高至800Gb/s,但卻是大材小用,同時成本會增加3-4倍之多。
HBM(高帶寬內存)于 2013 年推出,是一種高性能 3D 堆疊 SDRAM架構。如其名稱所述,HBM最重要的是帶寬更高,盡管HBM的內存都以相對較低的數據速率運行,但其通道數更多。例如,以3.6 Gbps運行的HBM2E在存儲和處理器間的通道數達到了1024條,這無法在PCB上實現,因此硅中階層(interposal)被用來連接內存和處理器。
GDDR的歷史
隨著AI的推理越來越多地向邊緣設備上進行集成和轉移,GDDR越來越成為邊緣AI處理所需。比起HBM,GDDR的歷史則更為悠久。GDDR可以追溯到PC和游戲機時代,早期的GPU使用SDRAM和DDR,這與CPU相同。隨著對GPU性能追求增強,推動了GDDR專用圖形顯示的需求增長。
2003 年 10 月,英偉達推出了 GeForce FX 5700 Ultra,搭配了256 MB GDDR2 DRAM,當時5000系列大部分仍使用DDR DRAM。直到 2018 年底 GeForce 16 和 20 系列,GDDR被用于整個產品線。如今,GDDR6 是最先進的顯存解決方案。
相比于LPDDR和DDR,GDDR在帶寬關鍵參數上具有絕對優勢,在24Gb/s傳輸速率和32位總線的時候,GDDR6可以提供最多96GB/s的帶寬,在速度、帶寬和延遲方面顯著優于其他產品。
Rambus GDDR6方案
Rambus提供業內鮮有的全面內存IP產品組合,包括DDR、LPDDR、GDDR以及HBM,此外還有連接類Serdes,諸如PCIe和CXL,均達到了業界領先水平。并且Rambus的解決方案大多是提供包括控制器和PHY在內的全套方案。
為了應對邊緣AI對于GDDR的需求,Rambus日前推出的GDDR6 PHY,提供市場領先的數據傳輸速率,最高可達24 Gb/s,能夠為每個GDDR6內存設備帶來96 GB/s的帶寬,達到了行業標桿水平。此前GDDR6的傳輸率為16Gb/s,總帶寬64GB/s,全新的GDDR6使帶寬增加了50%,從而為人工智能/機器學習(AI/ML)、圖形和網絡應用提供更高成本效益、高帶寬的內存。并憑借與Foundry的密切合作,支持先進的工藝節點。
除了業界領先的24Gb/s性能外,Rambus GDDR6 PHY還經過了全方位的優化,可滿足AI/ML及其他需要高帶寬、低延遲內存解決方案的先進應用的需求。Rambus能夠實現24Gb/s的數據傳輸速率,依靠的是其在信號完整性和電源完整性(SI/PI)方面享譽世界的專業知識,這些知識可用于設計PHY、芯片封裝和印刷電路板(PCB)。
此外,Frank還強調Rambus的工程師會和客戶在設計初期就緊密合作,并提供封裝參考設計,以確保系統達到最優性能。
總而言之,Rambus的GDDR6方案在性能、功耗管理、集成、完整性、以及支持等方面都具有明顯優勢,是提升邊緣計算能力的理想合作伙伴。