SUNUCULAR

NVIDIA’nın en güçlü GPU’larıyla donatılmış sunucularımızı iş süreçlerinize entegre ederek, ChatGPT gibi büyük dil modellerini mümkün kılan mimariyi keşfedin!

OpenZeka – NVIDIA DGX AI Compute Systems Partneri

GPU sunucuları; yapay zeka, yüksek başarımlı hesaplama (HPC), veri bilimi ve ileri analitik için tasarlanmıştır. PCIe tabanlı çözümler uygun maliyet ve yaygın uyumluluk sağlarken; SXM tabanlı DGX ve HGX sistemleri NVLink ve NVSwitch teknolojileriyle düşük gecikme, yüksek bant genişliği ve büyük ölçekli yapay zeka eğitimlerinde üstün performans sunar. SXM mimarisi; ChatGPT, Claude, Gemini ve LLaMA gibi modern büyük dil modellerinin temelinde yer alan teknolojidir.

DGX Çözümleri HGX Çözümleri PCIe Çözümleri
Tanım NVIDIA’nın uçtan uca optimize ettiği; GPU, CPU, bellek, depolama ve ağ ile birlikte sunulan GPU sunucuları OEM üreticilerin, NVIDIA’nın SXM GPU ve NVSwitch altyapısının üzerine; CPU, bellek, depolama ve ağ bileşenlerini ekleyerek sunduğu esnek GPU sunucuları Standart PCIe GPU kartlarının kullanıldığı, uygun maliyetli ve uyumlu sunucular
Üretici NVIDIA OEM üreticiler (HGX platformu NVIDIA tarafından sağlanır) OEM üreticiler (Dell, HP, Supermicro, Gigabyte vb.)
Performans GPU’lar birbirleri ile doğrudan iletişim kurdukları için düşük gecikme ve yüksek bant genişliğiyle maksimum performans sağlanır. GPU’lar birbirleri ile doğrudan iletişim kurdukları için düşük gecikme ve yüksek bant genişliğiyle maksimum performans sağlanır. GPU’lar PCIe veri yolu üzerinden iletişim kurdukları için performans DGX ve HGX çözümlerine kıyasla nispeten daha düşük kalır.
Esneklik NVIDIA tüm donanımı hazır ve sabit konfigürasyonla gönderdiği için esneklik düşüktür. OEM üreticiler CPU, RAM, depolama ve ağ bileşenlerini farklı kombinasyonlarda sunabilir. GPU sayısı da modele göre değişebilir (ör. 4 veya 8 SXM GPU) PCIe tabanlı yapısı sayesinde GPU’lar kolayca eklenip çıkarılabilir ve sistem ihtiyaçlara göre esnek biçimde ölçeklenebilir.
Ölçeklenebilirlik NVSwitch + InfiniBand ile binlerce GPU’ya kadar NVSwitch + InfiniBand ile binlerce GPU’ya kadar Genellikle tek sunucu içinde 4–8 GPU ile sınırlı
Kullanım Alanı Büyük dil modelleri, HPC, ileri seviye araştırmalar Büyük dil modelleri, HPC, ileri seviye araştırmalar ve kurumlara özel çözümler Orta ölçekli eğitim, çıkarım, veri analitiği, görselleştirme

DGX ÇÖZÜMLERİ

DGX çözümleri; NVIDIA’nın tüm bileşenleri hazır şekilde entegre ettiği, yapay zeka ve HPC için optimize edilmiş GPU sunucularıdır. Kurulum kolaylığı ve maksimum performans ile büyük ölçekli iş yüklerine doğrudan uygulanabilir.

NVIDIA DGX B300

NVIDIA DGX B300

NVIDIA Blackwell Ultra tarafından güçlendirilen yapay zeka sistemi, büyük üretken yapay zeka ve diğer dönüştürücü tabanlı iş yüklerinin eğitimi ve çıkarımı için tasarlanmıştır.

NVIDIA DGX B200

NVIDIA DGX B200

NVIDIA Blackwell mimarisiyle inşa edilmiş, eğitimden ince ayara ve çıkarıma kadar yapay zeka sürecinin her aşaması için birleşik bir AI sistemi.

NVIDIA DGX H200

NVIDIA DGX H200

Büyük ölçekli üretken yapay zeka ve diğer dönüştürücü tabanlı iş yükleri için optimize edilmiş yapay zekâ süperbilgisayarı.

NVIDIA DGX BasePOD

NVIDIA DGX BasePOD

DGX sunucularını bir araya getirip yüksek performanslı yapay zeka eğitimine olanak tanıyan altyapı mimarisi.

NVIDIA DGX SuperPOD

NVIDIA DGX SuperPOD

DGX sunucularını büyük ölçekli olarak birleştirip en ileri AI projeleri için güçlü altyapı sunan mimari çözüm.

NVIDIA Mission Control

NVIDIA Mission Control

Kurumsal kullanımlar için çeviklik, dayanıklılık ve hiperscale verimlilikle yapay zeka operasyonlarını basitleştiren uçtan uca zeka platformu.

 

HGX ÇÖZÜMLERİ

HGX çözümleri; NVIDIA’nın sağladığı HGX platformunun, OEM üreticiler tarafından sunucu altyapısına entegre edilmesiyle oluşturulur. Bu sayede yapay zeka eğitimi, HPC ve veri analitiği gibi farklı iş yüklerine uyarlanabilen esnek ve yüksek performanslı GPU sunucular ortaya çıkar.

HGX B300 HGX B200 HGX H200
4-GPU 8-GPU
Form Factor 8x NVIDIA Blackwell Ultra SXM 8x NVIDIA Blackwell SXM 4x NVIDIA H200 SXM 8x NVIDIA H200 SXM
FP4 Tensor Core 144 PFLOPS | 108 PFLOPS 144 PFLOPS | 72 PFLOPS 16 PFLOPS 32 PFLOPS
TF32 Tensor Core 18 PFLOPS 18 PFLOPS 4 PFLOPS 8 PFLOPS
Total Memory Up to 2.1 TB 1.4 TB 564 GB HBM3e 1.1 TB HBM3e
Networking Bandwidth 1.6 TB/s 0.8 TB/s 0.4 TB/s 0.8 TB/s

 

PCIe ÇÖZÜMLERİ

Standart PCIe GPU kartlarını kullanan uygun maliyetli ve esnek sunucu çözümleridir. Yüksek uyumlulukları sayesinde farklı sistemlerle kolayca entegre edilir ve orta ölçekli yapay zeka eğitimi, çıkarım, veri analitiği ile görselleştirme iş yükleri için dengeli bir performans sunar.

SIK SORULAN SORULAR

SXM GPU’lar, NVLink ve NVSwitch teknolojileri sayesinde GPU’ların doğrudan, düşük gecikmeli ve yüksek bant genişlikli iletişim kurmasını sağlar. Bu mimari, tek sunucuda 8 SXM GPU’nun full mesh bağlı çalışmasına ve InfiniBand ile yüzlerce sunucunun binlerce GPU’ya ölçeklenmesine imkân tanır.

PCIe GPU’lar ise standart kart formatındadır ve GPU’lar arası iletişim PCIe veri yolu üzerinden dolaylı gerçekleşir. Bu nedenle gecikme daha yüksek, bant genişliği sınırlıdır. Tek sunucuda genellikle 4–8 GPU ile sınırlı kalır ve sunucular arası ölçeklendirmede verimlilik SXM tabanlı çözümlere göre oldukça düşüktür.

Hayır. SXM ve PCIe farklı fiziksel form faktörlerdir ve birbirleriyle uyumlu değildir. Aynı GPU mimarisine (örneğin H100) sahip olsalar bile, SXM versiyonu anakarta soket üzerinden oturur, PCIe versiyonu ise kart olarak PCIe slotuna takılır. Bu nedenle biri diğerinin yerine kullanılamaz.

DGX, NVIDIA tarafından üretilen ve CPU, bellek, depolama, ağ gibi tüm bileşenleriyle birlikte sunulan hazır GPU sunucu çözümüdür. Tek elden optimize edildiği için kutudan çıktığı anda kullanılabilir.

HGX ise NVIDIA’nın yalnızca GPU ve NVSwitch altyapısını sağladığı bir platformdur. OEM üreticiler (Dell, Supermicro, Gigabyte vb.) bu altyapıyı CPU, bellek, depolama ve ağ bileşenleriyle tamamlayarak hazır ve daha esnek konfigürasyonlu GPU sunucular haline getirir.

GPU performansı açısından fark yoktur, çünkü her ikisi de aynı SXM GPU ve NVSwitch altyapısını kullanır. Ancak genel sistem performansı, kullanılan CPU, bellek, depolama ve ağ bileşenlerine göre değişebilir. DGX sunucular, NVIDIA’nın sabit ve optimize edilmiş donanımıyla öngörülebilir performans sunarken; HGX tabanlı sunucular OEM üreticilerin tercihine bağlı olarak kimi modellerde daha düşük, kimi modellerde ise daha yüksek performans sağlayabilir.

Küçük ve orta ölçekli modellerin eğitimi için PCIe tabanlı sunucular kullanılabilir. Tek sunucuda genellikle 4–8 GPU desteklenir ve bu kapasite orta ölçekli yapay zekâ projeleri için yeterli olabilir. Ancak ChatGPT, Claude, Gemini veya LLaMA gibi yüz milyarlarca parametreye sahip büyük dil modellerinin eğitimi, binlerce GPU’nun düşük gecikmeli full mesh bağlantıyla çalıştığı SXM tabanlı DGX ve HGX sistemleri gerektirir. PCIe sunucular bu ölçekte verimli değildir.

Evet. NVIDIA, HGX board adı verilen özel bir sunucu kartı üretir; bu kartın üzerinde SXM GPU’lar ve GPU’lar arası iletişimi sağlayan NVSwitch altyapısı yer alır. OEM üreticiler (Dell, Supermicro, Gigabyte vb.) bu board’u alıp CPU, bellek, depolama, ağ ve soğutma gibi bileşenleri ekleyerek tam donanımlı kullanıma hazır bir sunucu haline getirir. Yani HGX tabanlı bir sunucu sipariş edildiğinde GPU’lar zaten üzerinde hazır gelir.

PCIe tabanlı sunucularda evet. Standart kart formatı sayesinde GPU’lar kolayca çıkarılıp daha yeni modellerle değiştirilebilir. Bu esneklik, sistemin yeni iş yüklerine hızla uyum sağlamasını ve yatırımın korunmasını mümkün kılar.

SXM tabanlı sunucularda hayır. GPU’lar anakarta entegre SXM soketleri üzerinden gelir ve değiştirilmesi mümkün değildir.