Veri merkeziniz için benzeri görülmemiş performans, güvenilirlik ve ölçeklenebilirlik.
NVIDIA H100 80GB PCIe – 900-21010-0000-000
Stokta yok
Açıklama
NVIDIA H100 Tensor Core GPU ile iş yükleriniz için yüksek performans, ölçeklenebilirlik ve güvenlikten faydalanabilirsiniz. NVIDIA NVLink Switch System ile, büyük ölçekli iş yüklerini hızlandırmak için 256 adede kadar H100 GPU bağlanabilir. Ayrıca H100 GPU, trilyon parametreli dil modellerini çözmek için özel bir Transformer Engine içerir. Yapay zeka, HPC ve veri analitiği için özelleştirilmiş platform, 3.000’den fazla uygulamayı hızlandırır ve veri merkezinden uca kadar her yerde kullanılabilir. Böylece kullanıcılara hem önemli performans kazanımları hem de maliyet tasarrufu imkanı sağlar.
NVIDIA H100 Tensor Core GPU
NVIDIA’nın hızlandırılmış hesaplama gereksinimleri için özel olarak tasarlanmış son teknoloji TSMC 4N işlemci kullanılarak 80 milyar transistörle oluşturulmuş H100, şimdiye kadar üretilmiş en gelişmiş yongadır. Veri merkezi ölçeğinde hızlandırılmış AI, HPC, bellek bant genişliği, ara bağlantı ve iletişim için önemli gelişmeler içerir.
Transformer Engine
Transformer Engine, dünyanın en önemli yapay zeka modeli yapı taşı olan transformatörden oluşturulan modellerin eğitimini hızlandırmak için tasarlanmış Hopper Tensor Core teknolojisini kullanır. Hopper Tensör Çekirdekleri, transformerlar için AI hesaplamalarını önemli ölçüde hızlandırmak için FP8 ve FP16 hassasiyetlerini uygulayabilir.
NVLink Switch System
NVLink Switch System, PCIe Gen5’in bant genişliğinin 7 katından fazla, GPU başına çift yönlü olarak saniyede 900 gigabayt (GB/sn) ile birden çok sunucu genelinde çoklu GPU giriş/çıkışının (IO) ölçeklenmesini sağlar.
Sistem, 256 adede kadar H100 kümesini destekler ve NVIDIA Ampere mimarisinde InfiniBand HDR’den 9 kat daha yüksek bant genişliği sunar.
NVIDIA Confidental Computing
NVIDIA Confidental Computing, Hopper’ın yerleşik bir güvenlik özelliğidir Kullanıcılar, H100 GPU’ların eşsiz hızlanmasına erişirken kullanımda olan verilerinin ve uygulamalarının gizliliğini ve bütünlüğünü koruyabilir.
Second-Generation Multi-Instance GPU(MIG)
Second-Generation Multi-Instance GPU (MIG), sanallaştırılmış ortamlarda multi-tenant ve multi-user yapılandırmaları destekler.
DPX Talimatları
Hopper’ın DPX talimatları, dinamik programlama algoritmalarını CPU’lara kıyasla 40 kat ve NVIDIA Ampere mimarisine sahip GPU’lara kıyasla 7 kat hızlandırır. Böylece, hastalık teşhisi, gerçek zamanlı yönlendirme optimizasyonu ve grafik analitiği gibi uygulamalarda büyük ölçüde hızlanma sağlar.
Özellikler
H100 SXM | H100 PCIe | H100 NVL | |
---|---|---|---|
GPU Mimarisi | Hopper | Hopper | Hopper |
GPU Belleği | 80GB HBM2e | 80GB | 188GB |
Bellek Bant Genişliği | 3.35TB/s | 2TB/s | 7.8TB/s |
Decoder | 7 NVDEC 7 JPEG | 7 NVDEC 7 JPEG | 14 NVDEC 14 JPEG |
FP64 | 34 TFLOPS | 26 TFLOPS | 68 TFLOPS |
FP64 Tensor Core | 67 TFLOPS | 51 TFLOPS | 134 TFLOPS |
FP32 | 67 TFLOPS | 51 TFLOPS | 134 TFLOPS |
TF32 Tensor Core | 989 TFLOPS | 756 TFLOPS | 1979 TFLOPS |
BFLOAT16 Tensor Core TFLOPS | 1979 TFLOPS | 1513 TFLOPS | 3958 TFLOPS |
FP16 Tensor Core | 1979 TFLOPS | 1513 TFLOPS | 3958 TFLOPS |
FP8 Tensor Core | 3958 TFLOPS | 3026 TFLOPS | 7916 TLOPS |
INT8 Tensor Core | 3958 TOPS | 3026 TOPS | 7916 TOPS |
Maksimum TDP(thermal design power) | 700W | 300-3250W (konfigüre edilebilir.) | 2x 350-400W (konfigüre edilebilir.) |
Multi-Instance GPU | Her biri 10 GB'ta 7 MIGS'e kadar | Her biri 10 GB'ta 7 MIGS'e kadar | Her biri 12 GB'ta 14 MIGS'e kadar |
Form Faktör | SXM | PCIe | 2x PCIe |
Bağlantı | NVLink: 900GB/s PCIe, Gen5: 128GB/s | NVLink: 600GB/s PCIe, Gen5: 128GB/s | NVLink: 600GB/s PCIe, Gen5: 128GB/s |
Server Seçenekleri | 4 veya 8 GPU'lu NVIDIA HGX H100 Ortağı ve NVIDIA-Certified Systems™ 8 GPU'lu NVIDIA DGX H100 | 1-8 GPU'lu İş Ortağı ve NVIDIA Sertifikalı Sistemler | 2-4 GPU'lu İş Ortağı ve NVIDIA Sertifikalı Sistemler |
NVIDIA AI Enterprise | Haricen | Dahil | Haricen |