NVIDIA H100 80GB PCIe – 900-21010-0000-000

Stokta yok

Veri merkeziniz için benzeri görülmemiş performans, güvenilirlik ve ölçeklenebilirlik.

Stok kodu: 900-21010-0000-000 Kategoriler: ,

Açıklama

NVIDIA H100 Tensor Core GPU ile iş yükleriniz için yüksek performans, ölçeklenebilirlik ve güvenlikten faydalanabilirsiniz. NVIDIA NVLink Switch System ile, büyük ölçekli iş yüklerini hızlandırmak için 256 adede kadar H100 GPU bağlanabilir. Ayrıca H100 GPU, trilyon parametreli dil modellerini çözmek için özel bir Transformer Engine içerir. Yapay zeka, HPC ve veri analitiği için özelleştirilmiş platform, 3.000’den fazla uygulamayı hızlandırır ve veri merkezinden uca kadar her yerde kullanılabilir. Böylece kullanıcılara hem önemli performans kazanımları hem de maliyet tasarrufu imkanı sağlar.

NVIDIA H100 Tensor Core GPU

NVIDIA’nın hızlandırılmış hesaplama gereksinimleri için özel olarak tasarlanmış son teknoloji TSMC 4N işlemci kullanılarak 80 milyar transistörle oluşturulmuş H100, şimdiye kadar üretilmiş en gelişmiş yongadır. Veri merkezi ölçeğinde hızlandırılmış AI, HPC, bellek bant genişliği, ara bağlantı ve iletişim için önemli gelişmeler içerir.

Transformer Engine

Transformer Engine, dünyanın en önemli yapay zeka modeli yapı taşı olan transformatörden oluşturulan modellerin eğitimini hızlandırmak için tasarlanmış Hopper Tensor Core teknolojisini kullanır. Hopper Tensör Çekirdekleri, transformerlar için AI hesaplamalarını önemli ölçüde hızlandırmak için FP8 ve FP16 hassasiyetlerini uygulayabilir.

NVLink Switch System

NVLink Switch System, PCIe Gen5’in bant genişliğinin 7 katından fazla, GPU başına çift yönlü olarak saniyede 900 gigabayt (GB/sn) ile birden çok sunucu genelinde çoklu GPU giriş/çıkışının (IO) ölçeklenmesini sağlar.
Sistem, 256 adede kadar H100 kümesini destekler ve NVIDIA Ampere mimarisinde InfiniBand HDR’den 9 kat daha yüksek bant genişliği sunar.

NVIDIA Confidental Computing

NVIDIA Confidental Computing, Hopper’ın yerleşik bir güvenlik özelliğidir Kullanıcılar, H100 GPU’ların eşsiz hızlanmasına erişirken kullanımda olan verilerinin ve uygulamalarının gizliliğini ve bütünlüğünü koruyabilir.

Second-Generation Multi-Instance GPU(MIG)

Second-Generation Multi-Instance GPU (MIG),  sanallaştırılmış ortamlarda multi-tenant ve multi-user yapılandırmaları destekler.

DPX Talimatları

Hopper’ın DPX talimatları, dinamik programlama algoritmalarını CPU’lara kıyasla 40 kat ve NVIDIA Ampere mimarisine sahip GPU’lara kıyasla 7 kat hızlandırır. Böylece, hastalık teşhisi, gerçek zamanlı yönlendirme optimizasyonu ve grafik analitiği gibi uygulamalarda büyük ölçüde hızlanma sağlar.

Özellikler

H100 SXMH100 PCIeH100 NVL
GPU MimarisiHopper HopperHopper
GPU Belleği80GB HBM2e80GB 188GB
Bellek Bant Genişliği3.35TB/s2TB/s7.8TB/s
Decoder7 NVDEC
7 JPEG
7 NVDEC
7 JPEG
14 NVDEC
14 JPEG
FP64 34 TFLOPS26 TFLOPS68 TFLOPS
FP64 Tensor Core67 TFLOPS 51 TFLOPS134 TFLOPS
FP3267 TFLOPS 51 TFLOPS134 TFLOPS
TF32 Tensor Core989 TFLOPS756 TFLOPS1979 TFLOPS
BFLOAT16 Tensor Core TFLOPS1979 TFLOPS1513 TFLOPS3958 TFLOPS
FP16 Tensor Core1979 TFLOPS1513 TFLOPS3958 TFLOPS
FP8 Tensor Core3958 TFLOPS3026 TFLOPS7916 TLOPS
INT8 Tensor Core3958 TOPS3026 TOPS7916 TOPS
Maksimum TDP(thermal design power)700W300-3250W (konfigüre edilebilir.)2x 350-400W (konfigüre edilebilir.)
Multi-Instance GPUHer biri 10 GB'ta 7 MIGS'e kadarHer biri 10 GB'ta 7 MIGS'e kadarHer biri 12 GB'ta 14 MIGS'e kadar
Form FaktörSXMPCIe2x PCIe
BağlantıNVLink: 900GB/s PCIe, Gen5: 128GB/s
NVLink: 600GB/s PCIe, Gen5: 128GB/s
NVLink: 600GB/s PCIe, Gen5: 128GB/s
Server Seçenekleri4 veya 8 GPU'lu NVIDIA HGX H100 Ortağı ve NVIDIA-Certified Systems™ 8 GPU'lu NVIDIA DGX H1001-8 GPU'lu İş Ortağı ve NVIDIA Sertifikalı Sistemler2-4 GPU'lu İş Ortağı ve NVIDIA Sertifikalı Sistemler
NVIDIA AI Enterprise HaricenDahilHaricen

NVIDIA H100 Broşür

Loader Loading...
EAD Logo Taking too long?

Reload Reload document
| Open Open in new tab