現(xiàn)貨庫存,2小時發(fā)貨,提供寄樣和解決方案
熱搜關(guān)鍵詞:
據(jù)知情人士透露,英偉達不僅大量預定了臺積電的產(chǎn)能,還投入了巨資以確保其HBM3內(nèi)存的供應(yīng)。公司已經(jīng)從美光和SK海力士處預購了價值介于700億至1萬億韓元的HBM3內(nèi)存。盡管目前尚無公開的具體用途信息,但業(yè)內(nèi)人士普遍認為這一舉措旨在確保2024年HBM供應(yīng)的穩(wěn)定。
此外,還有業(yè)內(nèi)人士透露,三星電子、SK海力士、美光等三大存儲公司明年的HBM產(chǎn)能已經(jīng)完全售罄。業(yè)內(nèi)人士預計,在人工智能領(lǐng)域半導體公司的激烈競爭推動下,HBM市場有望在未來兩年內(nèi)迎來爆發(fā)式增長。
據(jù)悉,英偉達正籌備兩款搭載HBM3E內(nèi)存的新品:分別是配備高達141GB HBM3E內(nèi)存的H200 GPU和GH200超級芯片。這兩款產(chǎn)品的推出將進一步提升英偉達對HBM內(nèi)存的需求。
H200是目前世界上最強的AI芯片,也是世界上首款采用HBM3e的GPU,基于NVIDIA Hopper架構(gòu)打造,與H100相互兼容,可提供4.8 TB/s速度。
在人工智能方面,英偉達表示,HGX H200在Llama 2(700億參數(shù)LLM)上的推理速度比H100快了一倍。HGX H200將以4路和8路的配置提供,與H100系統(tǒng)中的軟件和硬件兼容。它將適用于每一種類型的數(shù)據(jù)中心(本地、云、混合云和邊緣),并由Amazon Web Services、Google Cloud、Microsoft Azure和Oracle Cloud Infrastructure等部署,預計將于2024年第二季度推出。
英偉達一直是人工智能(AI)和高性能計算(HPC)領(lǐng)域的領(lǐng)先者。英偉達的決策表明其對高帶寬內(nèi)存(HBM3)供應(yīng)的重視,這將有助于確保其未來產(chǎn)品的高性能和競爭力。這一舉措也預示著AI領(lǐng)域或?qū)⒂瓉肀l(fā)式增長,英偉達的投資將為未來的技術(shù)創(chuàng)新和市場競爭帶來新的動力。