成人欧美一区二区三区的电影_果冻传媒MV国产推荐视频_精品国产午夜肉伦伦影院_老少配老熟妇也疯狂_欧美日韩精品一区二区三区不卡_日韩精品卡2卡3卡4卡5_亚洲日韩乱码一区二区三区四区_日产免费一二三四区禁止转发传播_亚洲无人区一码二码三码区别大吗_人妻丝袜中文无码AV影音先锋专区,体育生GAY脱裤子自慰感受,国产在线拍91揄自揄视精品91,欧美性猛交内射兽交老熟妇

兩大芯片龍頭:這類芯片已售罄!訂單排到2026年

來源:芯三板 發(fā)布時間:2024-07-01 15:53

隨著英偉達的AI芯片持續(xù)熱銷,,已通過英偉認證的美光和SK海力士HBM芯片也愈加搶手,。據(jù)存儲芯片供應(yīng)鏈透露,上游存儲原廠HBM訂單2025年預(yù)訂一空,,訂單能見度可達2026年一季度,。SK海力士、美光2024年HBM提前售罄,,2025年訂單也接近滿載,。

HBM芯片訂單預(yù)定一空

據(jù)存儲芯片供應(yīng)鏈透露,由于英偉達的AI芯片供不應(yīng)求,,順利打入供應(yīng)鏈的SK海力士,、美光2024年HBM提前售罄,2025年的產(chǎn)能也被預(yù)訂一空,,訂單能見度可達2026年一季度,。預(yù)計SK海力士、美光合計供應(yīng)給英偉達的HBM月產(chǎn)能約當(dāng)6萬多片,。

該消息也得到了美光和SK海力士的驗證,,美光在發(fā)布最新一季財報也直接表示,2024-2025年HBM內(nèi)存芯片已經(jīng)售罄,。

SK海力士CEO早在5月份就表示,,公司按量產(chǎn)計劃2025年生產(chǎn)的HBM產(chǎn)品基本售罄,主要由于AI爆發(fā)對先進存儲產(chǎn)品HBM的需求,。此前,,公司宣布其2024年HBM的產(chǎn)能已被客戶搶購一空。

此外,,由于HBM排擠太多DRAM產(chǎn)能,,勢必將推動DDR5價格逐步拉升。模組廠認為,,DDR5價格持續(xù)走揚態(tài)勢明確,,預(yù)期到了年底前還有10~20%漲幅,但若DDR5價格太高,,反而可能拖延市場滲透率的起飛速度,,影響下游客戶采用的意愿。

供不應(yīng)求,!兩大芯片龍頭加緊擴產(chǎn)

AI熱度的攀升讓HBM產(chǎn)銷持續(xù)走俏,,甚至供不應(yīng)求,,為了滿足英偉達的需求,兩大龍頭企業(yè)都在加緊擴產(chǎn),。

有消息稱SK海力士正在大幅擴產(chǎn)第5代1b DRAM,,以應(yīng)對HBM與DDR5 DRAM的需求增加。按照晶圓投入量看,,公司計劃將1b DRAM月產(chǎn)能從今年一季度的1萬片增加到年末的9萬片,,到明年上半年進一步提升至14萬-15萬片,是今年一季度產(chǎn)能的14-15倍,。

SK海力士母公司SK集團還表示,,到2028年,SK海力士將投資103萬億韓元(746億美元),,以加強其芯片業(yè)務(wù),,專注于人工智能。其中約80%,,即82萬億韓元,,將用于投資高帶寬內(nèi)存芯片(HBM)。

雖然這是SK首次披露其到2028年的投資計劃,,但SK海力士今年已宣布了一系列投資計劃,,包括斥資38.7億美元在印第安納州建設(shè)先進封裝工廠和人工智能產(chǎn)品研究中心。SK海力士還將斥資146億美元建造一座新的存儲芯片綜合設(shè)施,,并繼續(xù)進行其他國內(nèi)投資,,包括在龍仁半導(dǎo)體集群的投資。

美光目前也在位于愛德荷州波夕總部擴充HBM相關(guān)研發(fā)設(shè)施,,當(dāng)中包括生產(chǎn)及驗證線,。美光規(guī)模最大的HBM生產(chǎn)基地位于中國臺灣臺中市,此處也在擴產(chǎn)中,。美光已設(shè)定目標,,準備在2025年底前將HBM市占拉高三倍以上至24~26%,,跟該公司傳統(tǒng)DRAM的市占相去不遠(約23~25%),。

美光執(zhí)行長Sanjay Mehrotra表示,美光預(yù)期明年將大幅增加資本支出,、2025會計年度營收的34-36%將投入資本支出,,藉以支持HBM封裝和測試設(shè)備、晶圓廠和后端設(shè)施興建以及技術(shù)升級投資以支持需求成長,。

HBM成為AI服務(wù)器搭載標配

HBM即高帶寬存儲器,,作為基于3D堆棧工藝的高性能DRAM,打破內(nèi)存帶寬及功耗瓶頸,。通過使用先進封裝(如 TSV 硅通孔,、微凸塊)將多個 DRAM芯片進行堆疊,,并與GPU一同進行封裝,形成大容量,、高帶寬的 DDR 組合陣列,。

在高性能 GPU 需求推動下,HBM 目前已經(jīng)成為 AI 服務(wù)器的搭載標配,。AI 大模型的興起催生了海量算力需求,,而數(shù)據(jù)處理量和傳輸速率大幅提升使得 AI 服務(wù)器對芯片內(nèi)存容量和傳輸帶寬提出更高要求。HBM具備高帶寬,、高容量,、低延時和低功耗優(yōu)勢,目前已逐步成為 AI 服務(wù)器中GPU 的搭載標配,。英偉達推出的多款用于 AI 訓(xùn)練的芯片 A100,、H100 和 H200,都采用了 HBM 顯存,。AMD的 MI300 系列也都采用了 HBM3 技術(shù),,MI300A 的容量與前一代相同為 128GB,而更高端的MI300X則將容量提升至 192GB,,增長了 50%,,相當(dāng)于 H100 容量的2.4 倍。

HBM 市場目前被三大原廠占據(jù),,其中SK海力士份額領(lǐng)先,,占據(jù) HBM市場主導(dǎo)地位。據(jù)TrendForce數(shù)據(jù),,三大原廠海力士,、三星、美光 2022 年 HBM 市占率分別為50%,、40%,、10%。2023 年年初至今,,生成式AI市場呈爆發(fā)式增長,,大模型參數(shù)量、預(yù)訓(xùn)練數(shù)據(jù)量攀升,,驅(qū)動 AI 服務(wù)器對高帶寬,、高容量的HBM需求迅速增加。


詢價池
型號
品牌
操作
RR0603(0201)L20R0FT
asdasdasdas
刪除
批量刪除商品
總計 0 個商品
去詢價
微信

微信咨詢

微信二維碼