TrendForce’a göre Nvidia, Blackwell mimarisine dayanan yeni nesil B100 ve B200 GPU’ları üzerinde çalışıyor. Bu GPU’ların 2024’ün ikinci yarısında piyasaya sürülmesi ve CSP bulut müşterileri tarafından kullanılmaları bekleniyor.
CSP bulut müşterileri, bulut bilişim ihtiyaçları için Bulut Hizmet Sağlayıcılarını (CSP) kullanan müşterileri ifade ediyor. Nvidia, ayrıca uç yapay zeka ihtiyaçları olan OEM kurumsal müşterileri için B200A’nın daha basitleştirilmiş bir versiyonunu da sunmayı planlıyor.
B200 serisinin kullandığı TSMC’nin CoWoS-L paketleme kapasitesinin sıkı olduğu bildiriliyor. Bu nedenle, B200A’nın daha basit CoWoS-S paketleme teknolojisine geçeceği belirtiliyor. Nvidia, Bulut hizmet sağlayıcılarının gereksinimlerini karşılamak için B200A’ya odaklanıyor.
B200A’nın teknik özellikleri henüz tam olarak açıklanmadı. Ancak, HBM3E belleğinin kapasitesinin 192 GB’tan 144 GB’a düşürüldüğü ve bellek çipinin katman sayısının sekizden dörde indirildiği doğrulandı. Tek bir çipin kapasitesi ise 24 GB’tan 36 GB’a çıkarıldı.
B200A’nın güç tüketiminin B200 GPU’lardan daha düşük olacağı ve sıvı soğutmaya ihtiyaç duymayacağı belirtiliyor. Yeni GPU’ların hava soğutma sistemi ile donatılacak olması, kurulumlarını daha kolay hale getirecek. B200A’nın önümüzdeki yılın ikinci çeyreğinde OEM üreticilerine tedarik edilmesi bekleniyor.
Tedarik zinciri anketlerine göre, NVIDIA’nın 2024’teki ana üst düzey GPU sevkiyatları Kuzey Amerika pazarı için H100 ve H200, Çin pazarı için ise H20 ile Hopper platformuna dayalı olacak. B200A’nın 2025’in ikinci çeyreği civarında piyasaya sürülmesi planlanıyor ve bu nedenle üçüncü çeyrekte veya sonrasında piyasaya çıkacak H200 ile çakışması beklenmiyor.