SUNUCULAR
NVIDIA’nın en güçlü GPU’larıyla donatılmış sunucularımızı iş süreçlerinize entegre ederek, ChatGPT gibi büyük dil modellerini mümkün kılan mimariyi keşfedin!
OpenZeka – NVIDIA DGX AI Compute Systems Partneri
GPU sunucuları; yapay zeka, yüksek başarımlı hesaplama (HPC), veri bilimi ve ileri analitik için tasarlanmıştır. PCIe tabanlı çözümler uygun maliyet ve yaygın uyumluluk sağlarken; SXM tabanlı DGX ve HGX sistemleri NVLink ve NVSwitch teknolojileriyle düşük gecikme, yüksek bant genişliği ve büyük ölçekli yapay zeka eğitimlerinde üstün performans sunar. SXM mimarisi; ChatGPT, Claude, Gemini ve LLaMA gibi modern büyük dil modellerinin temelinde yer alan teknolojidir.
DGX Çözümleri | HGX Çözümleri | PCIe Çözümleri | |
---|---|---|---|
Tanım | NVIDIA’nın uçtan uca optimize ettiği; GPU, CPU, bellek, depolama ve ağ ile birlikte sunulan GPU sunucuları | OEM üreticilerin, NVIDIA’nın SXM GPU ve NVSwitch altyapısının üzerine; CPU, bellek, depolama ve ağ bileşenlerini ekleyerek sunduğu esnek GPU sunucuları | Standart PCIe GPU kartlarının kullanıldığı, uygun maliyetli ve uyumlu sunucular |
Üretici | NVIDIA | OEM üreticiler (HGX platformu NVIDIA tarafından sağlanır) | OEM üreticiler (Dell, HP, Supermicro, Gigabyte vb.) |
Performans | GPU’lar birbirleri ile doğrudan iletişim kurdukları için düşük gecikme ve yüksek bant genişliğiyle maksimum performans sağlanır. | GPU’lar birbirleri ile doğrudan iletişim kurdukları için düşük gecikme ve yüksek bant genişliğiyle maksimum performans sağlanır. | GPU’lar PCIe veri yolu üzerinden iletişim kurdukları için performans DGX ve HGX çözümlerine kıyasla nispeten daha düşük kalır. |
Esneklik | NVIDIA tüm donanımı hazır ve sabit konfigürasyonla gönderdiği için esneklik düşüktür. | OEM üreticiler CPU, RAM, depolama ve ağ bileşenlerini farklı kombinasyonlarda sunabilir. GPU sayısı da modele göre değişebilir (ör. 4 veya 8 SXM GPU) | PCIe tabanlı yapısı sayesinde GPU’lar kolayca eklenip çıkarılabilir ve sistem ihtiyaçlara göre esnek biçimde ölçeklenebilir. |
Ölçeklenebilirlik | NVSwitch + InfiniBand ile binlerce GPU’ya kadar | NVSwitch + InfiniBand ile binlerce GPU’ya kadar | Genellikle tek sunucu içinde 4–8 GPU ile sınırlı |
Kullanım Alanı | Büyük dil modelleri, HPC, ileri seviye araştırmalar | Büyük dil modelleri, HPC, ileri seviye araştırmalar ve kurumlara özel çözümler | Orta ölçekli eğitim, çıkarım, veri analitiği, görselleştirme |
DGX ÇÖZÜMLERİ
DGX çözümleri; NVIDIA’nın tüm bileşenleri hazır şekilde entegre ettiği, yapay zeka ve HPC için optimize edilmiş GPU sunucularıdır. Kurulum kolaylığı ve maksimum performans ile büyük ölçekli iş yüklerine doğrudan uygulanabilir.
HGX ÇÖZÜMLERİ
HGX çözümleri; NVIDIA’nın sağladığı HGX platformunun, OEM üreticiler tarafından sunucu altyapısına entegre edilmesiyle oluşturulur. Bu sayede yapay zeka eğitimi, HPC ve veri analitiği gibi farklı iş yüklerine uyarlanabilen esnek ve yüksek performanslı GPU sunucular ortaya çıkar.
HGX B300 | HGX B200 | HGX H200 | ||
---|---|---|---|---|
4-GPU | 8-GPU | |||
Form Factor | 8x NVIDIA Blackwell Ultra SXM | 8x NVIDIA Blackwell SXM | 4x NVIDIA H200 SXM | 8x NVIDIA H200 SXM |
FP4 Tensor Core | 144 PFLOPS | 108 PFLOPS | 144 PFLOPS | 72 PFLOPS | 16 PFLOPS | 32 PFLOPS |
TF32 Tensor Core | 18 PFLOPS | 18 PFLOPS | 4 PFLOPS | 8 PFLOPS |
Total Memory | Up to 2.1 TB | 1.4 TB | 564 GB HBM3e | 1.1 TB HBM3e |
Networking Bandwidth | 1.6 TB/s | 0.8 TB/s | 0.4 TB/s | 0.8 TB/s |
PCIe ÇÖZÜMLERİ
Standart PCIe GPU kartlarını kullanan uygun maliyetli ve esnek sunucu çözümleridir. Yüksek uyumlulukları sayesinde farklı sistemlerle kolayca entegre edilir ve orta ölçekli yapay zeka eğitimi, çıkarım, veri analitiği ile görselleştirme iş yükleri için dengeli bir performans sunar.