最近,NVIDIA於美國洛杉磯舉辦的SIGGRAPH 2023活動上,宣佈GH200為稱的下一代Grace Hopper Superchip,更針對專業運算工作需求推出全新RTX工作站。其中,HBM3e 版的GH200 則達到141GB ,不僅將 GPU 記憶體頻寬提高到 5TB/s ,通過NVLink串接兩張GH200後比起原版高出3.5倍記憶體容量與3倍頻寬。
GH200 黑科技
NVIDIA是這次AI熱潮中最大得益者,同時是首個賣鏟人。不過,第三季開始會面臨AMD及intel的AI晶片的挑戰。NVIDIA的領導地位保得住嗎?
就在早前的SIGGRAPH 2023,NVIDIA於活動上,宣佈GH200為稱的下一代Grace Hopper Superchip,更針對專業運算工作需求推出全新RTX工作站。這預計明年第二季開始投產,這晶片有什麼特別之處呢?
繼續領先AI晶片
首先GH200 Grace Hopper Superchip是混合 CPU 與 GPU 的晶片,中間連接在同一塊卡上,成為一個性價比超高的GPU,同時將推出採用 HBM3e 記憶體版本,記憶體將達141GB,頻寬提高到 5TB/s 。
NVLink高速GPU互連技術
新GH200當中採用HBM3e記憶體帶來1.5倍的頻寬與1.7倍的容量,同時透過NVLink串接兩張GH200後比起原版高出3.5倍記憶體容量與3倍頻寬。
新一代NVLink設計,可將兩組GH200 Grace Hopper Superchip串接,形成144組核心設計的Grace CPU,以及算力可達8PFLOPS表現的Hopper GPU。若配合NVLink串接特性,堆疊256塊GH200,形式建構為算力可達1 EFLOPS、記憶體容量高達144TB的超級電腦。
老黃演講是就展示了一臺,以256組GH200組成超級電腦,可發揮12倍算力,同時電力損耗更低,相比單純以CPU運作模式可帶來高達20倍的能源使用效率。
專業工作新卡
除了AI超級新晶片外,還發佈了專業工作RTX 6000專業繪圖卡,預計會在今年秋季正式出貨。此次也宣佈推出包含RTX 5000、RTX 4500與RTX 4000在內專業繪圖卡。
同時宣佈,以Ada顯示架構打造的L40S繪圖卡,可用於自動生成式人工智慧訓練、繪圖渲染處理,以及Omniverse即時光影追跡效果渲染等,由華碩、Dell、技嘉、HPE、聯想等推出伺服器產品。
光模塊需求上升?
這次Nvidia發佈的新卡,地表最強!黃仁勳重申﹐買得越多張省得越多錢。基於NVIDIA NVLink高速 GPU 互連技術與其他超級晶片互連與協同工作,組成一個超級AI電腦,省不能源費用。
根據分析師表示,英偉達GH200使用了800G光模組連接 NVLINK L1 層和 L2 層交換機。當節點256個以內時,每一個GPU需要9個光模組。
這樣看來,800G光模組仍是 AI 算力產業鏈上最具投資價值的環節之一。新的GH200只會加大光模組的需求,根據LightCounting預測,在2026年前,五大雲計算企業阿裏巴巴、亞馬遜、Facebook、穀歌和 Microsoft 的光模組支出將增加到30 億美元以上。
小結
英偉達GH200的發佈,進一步穩固了其在AI領域的領導地位,相信AMD及Intel還要很多時間追趕。同時,今日傳出中國企業已經向英偉達訂了50億美元的A800晶片。看來在AIGC領域上,中美企業不甘後人,都大力投資加強火力,賣鏟人仍然可期。因NVLINK技術,光模組需求有增無減,我們也需要留意。