NVIDIA H200 Tensor Core GPU

AI ve HPC için Dünyanın En Güçlü Grafik Kartı.

NVIDIA H200 Tensor Core GPU

AI ve HPC için Dünyanın En Güçlü Grafik Kartı

Dünyanın en Güçlü Grafik Kartı

NVIDIA H200 Tensor Core GPU, eşsiz performansı ve bellek yetenekleri ile üretken yapay zeka ve yüksek performanslı hesaplama (HPC) iş yüklerine güç katıyor. HBM3e ile donatılmış ilk GPU olarak, H200’ün daha yüksek ve daha hızlı belleği, üretken yapay zeka ve büyük dil modellerinin (LLM’lerin) hızlanmasını sağlarken HPC iş yükleri için bilimsel hesaplama alanını ilerletiyor.

Üst Düzey Performansı Deneyimleyin

Llama2 70B Çıkarımı

1.9X

Daha Hızlı

GPT-3 175 Çıkarımı

1.6X

Daha Hızlı

Yüksek Başarımlı Hesaplama

110X

Daha Hızlı

DERİN ÖĞRENME PERFORMANSI

NVIDIA Hopper mimarisi üzerine kurulu olan NVIDIA H200, 4.8 terabayt/saniye hızında 141 gigabayt (GB) HBM3e bellek sunan ilk GPU’dur. ( NVIDIA H100 Tensor Core GPU’nun neredeyse iki katı kapasitede ve %1.4 daha fazla bellek bant genişliğine sahip olması anlamına geliyor.)H200’ün daha büyük ve hızlı belleği, üretken yapay zeka ve LLM’leri hızlandırırken, HPC iş yükleri için bilimsel hesaplama alanını daha iyi enerji verimliliği ve daha düşük toplam sahip olma maliyeti ile ilerletiyor.

Değerlerde değişiklik olabilir.
Llama2 13B: ISL 128, OSL 2K | Verim | H100 1x GPU BS 64 | H200 1x GPU BS 128
GPT-3 175B: ISL 80, OSL 200 | x8 H100 GPU’lar BS 64 | x8 H200 GPU’lar BS 128
Llama2 70B: ISL 2K, OSL 128 | Verim | H100 1x GPU BS 8 | H200 1x GPU BS 32.
​ ​

Yüksek Performanslı LLM Çıkarımlarını Hızlandırın

H200, Llama2 gibi LLM’leri işlerken H100 GPU’lara kıyasla çıkarım hızını 2 katına kadar artırır.

HPC İş Yüklerini Hızlandırın

HPC uygulamaları için bellek bant genişliği, karmaşık işleme engellerini azaltarak daha hızlı veri transferine olanak tanıdığı için büyük önem taşır. Simülasyonlar, bilimsel araştırmalar ve yapay zeka gibi bellek yoğun HPC uygulamaları için, H200’ün yüksek bellek bant genişliği, verilerin etkili bir şekilde erişilip işlenmesini sağlar. Bu durum CPU’lara kıyasla sonuçlara ulaşma süresini 110 kat daha hızlı hale getirir.

Değerlerde değişiklik olabilir.
HPC MILC-veri kümesi NERSC Apex Medium | HGX H200 4-GPU | çift Safir Rapids 8480
HPC Uygulamaları- CP2K: H2O-32-RI-dRPA-96points veri kümesi | GROMACS: STMV veri kümesi | SİMGE: veri kümesi r2b5 | MILC: veri kümesi NERSC Apex Medium | Chroma: veri kümesi HMC Medium | Quantum Espresso: AUSURF112 veri kümesi | 1x H100 | 1x H200.

Değerlerde değişiklik olabilir.
Llama2 70B: ISL 2K, OSL 128 | Verim | H100 1x GPU BS 8 | H200 1x GPU BS 32

Enerjiyi ve Toplam Sahip Olma Maliyetini Azaltın

H200’nün tanıtımıyla birlikte enerji verimliliği ve TCO (toplam sahip olma maliyeti) yeni seviyelere ulaşıyor. Bu öncü teknoloji, H100 ile aynı güç profili içinde eşsiz bir performans sunuyor. Hızlı olmanın yanı sıra çevre dostu olan yapay zeka fabrikaları ve süper bilgisayar sistemleri, AI ve bilimsel topluluğu ileri taşıyan ekonomik bir avantaj sunuyor.

Tek düğümlü HGX ölçülen performans | A100 Nisan 2021 | H100 TensorRT-LLM Ekim 2023 | H200 TensorRT-LLM Ekim 2023

Özellikler

Form Faktör H200 SXM H200 NVL
FP64 34 TFLOPS 30 TFLOPS
FP64 Tensor Çekirdeği 67 TFLOPS 60 TFLOPS
FP32 67 TFLOPS 60 TFLOPS
TF32 Tensor Çekirdeği 989 TFLOS 835 TFLOPS
BFLOAT16 Tensor Çekirdeği 1979 TFLOPS 1671 TFLOPS
FP16 Tensor Çekirdeği 1979 TFLOPS 1671 TFLOPS
FP8 Tensor  Çekirdeği 3958 TFLOPS 3341 TFLOPS
GPU Belleği 141 GB 141 GB
GPU Bellek Bant Genişliği 4.8 TB/s 4.8 TB/s
Decoder 7 NVDEC
7 JPEG
7 NVDEC
7 JPEG
TDP Gücü  700W’a kadar 600W’a kadar
Multi-Instance GPU(MIG) 7 MIG’e kadar, her biri @18GB 7 MIG’e kadar, her biri @16.5GB
Form Faktörü SXM PCIe 
Dual-slot-air-cooled
Ara Bağlantı NVIDIA NVLink 900GB/s PCIe Gen5: 128GB/s 2- or 4-way NVIDIA NVLink bridge:
900GB/s per GPU
PCIe Gen5: 128GB/s
Sunucu Opsiyonları NVIDIA HGX H200 partneri ve 4 veya 8 GPU’lu NVIDIA Sertifikalı Sistemler™ NVIDIA MGX™ H200 NVL ortağı ve 8 adede kadar GPU’lu NVIDIA Sertifikalı Sistemler
NVIDIA AI Enterprise Ayrıyeten Dahil