Welcome to Our Website

Micron yapay zekada kullanılan HBM belleklerinin 2024 arzının tamamını sattı

Yapay zeka devasa bir endüstri olurken bazı kritik donanım bileşenlerine olan ihtiyaç da giderek yükseliyor veya zaten yüksek olan talep aynı şekilde kalmaya devam ediyor. Yapay zekanın yüksek donanım taleplerinden birisi de HBM (Yüksek Bant Genişlikli Bellek) bellekler. HBM belleklerin üreticilerinden birisi olan Micron, 2024 yılının tümü ve 2025 yılının büyük bölümü için üretim kapasitesinin tamamının satıldığını söyledi.

Micron’un HBM bellekler gerçekten de yok satıyor

Micron’un HBM (Yüksek Bant Genişlikli Bellek) bellekler alanındaki konumu SK Hynix veya Samsung gibi değil ancak şirketin HBM3E bellek arzının tamamının 2024 için satıldığını ve 2025’in çoğu için tahsis edildiğini söylemesiyle işler hızla değişiyor gibi görünüyor.

Micron‘un ilk HBM3E yığınları, 9,2 GT/s veri aktarım hızına ve yonga başına 1,2 TB/s‘nin üzerinde bellek bant genişliğine sahip 24 GB 8Hi (8 katmanlı) modüllerden oluşuyor. Bu yığınlardan altısı Nvidia’nın yapay zeka ve HPC’ye yönelik H200 GPU’su için kullanılacak ve toplamda 141 GB HBM bellek sağlayacak. Micron aynı zamanda bellek kapasitesini yüzde 50 artıran ve dolayısıyla daha büyük dil modellerinin yapay zeka eğitimini mümkün kılan 12-Hi (12 katmanlı) HBM3E belleklerin örneklemesine de başladıklarını bildirdi. Bu belleklerle 36 GB HBM3E kalıpları ortaya konacak ve yeni nesil yapay zeka donanımlarına güç verecek. Bu belleklerde üretimin 2025’te hızlanacağı da belirtiliyor.

Bu arada sadece Micron değil SK Hynix ve Samsung da HBM3E üretiminde gaza basmış durumda. HBM belleklerde yüksek talep ve arz, ana akımda kullanılan diğer DRAM belleklerin üretimini de olumsuz etkileyecek.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir