NVIDIA MAGNUM IO

Modern GPU Hızlandırmalı Veri Merkezleri İçin IO Alt sistemleri

NVIDIA MAGNUM IO

Modern GPU Hızlandırmalı Veri Merkezleri İçin IO Alt sistemleri

NVIDIA MAGNUM IO

Modern GPU Hızlandırmalı Veri Merkezleri İçin IO Alt sistemleri

VERİ MERKEZİ DEPOLAMANIZI VE NETWORK IO PERFORMANSINIZI EN ÜST SEVİYEYE ÇIKARIN

Günümüzün yeni hesaplama birimleri, çekirdeğinde NVIDIA GPU’ları ve NVIDIA Network olan veri merkezleridir. Hızlandırılmış giriş/çıkış(IO) birimleri, hızlandırılmış hesaplamadan maksimum performans almayı sağlar. NVIDIA Magnum IO™, modern veri merkezlerinin IO alt sistemleridir. Çoklu GPU ve çok düğümlü hızlandırma için depolama ve ağ IO performansını en yüksek seviyeye çıkaran, paralel ve asenkron akıllı veri merkezi IO mimarisidir.

Magnum IO Önemli Avantajları

Optimize IO Performansı

GPU belleÄŸi, aÄŸ ve depolama arasında doÄŸrudan IO’yu etkinleÅŸtirmek için CPU’yu baypas ederek 10 kat daha yüksek bant geniÅŸliÄŸi saÄŸlar.

Sistem Dengesi ve Kullanım

En yüksek IO bant genişliği sağlayan daha dengeli, GPU hızlandırmalı bir sistem oluşturmak için CPU çekişmesini hafifletir. Bu sayede 10 kata kadar daha az CPU çekirdeği ve 30 kat daha düşük CPU kullanımı sağlar.

Sorunsuz Entegrasyon

Veri aktarımlarının küçük taneli – gecikmeye duyarlı, iri taneli – bant geniÅŸliÄŸine duyarlı veya toplu olmasına bakılmaksızın, mevcut ve gelecekteki platformlar için optimize edilmiÅŸ uygulama saÄŸlar.

Magnum IO Önemli Avantajları

Optimize IO Performansı

GPU belleÄŸi, aÄŸ ve depolama arasında doÄŸrudan IO’yu etkinleÅŸtirmek için CPU’yu baypas ederek 10 kat daha yüksek bant geniÅŸliÄŸi saÄŸlar.

Sistem Dengesi ve Kullanım

En yüksek IO bant genişliği sağlayan daha dengeli, GPU hızlandırmalı bir sistem oluşturmak için CPU çekişmesini hafifletir. Bu sayede 10 kata kadar daha az CPU çekirdeği ve 30 kat daha düşük CPU kullanımı sağlar.

Sorunsuz Entegrasyon

Veri aktarımlarının küçük taneli – gecikmeye duyarlı, iri taneli – bant geniÅŸliÄŸine duyarlı veya toplu olmasına bakılmaksızın, mevcut ve gelecekteki platformlar için optimize edilmiÅŸ uygulama saÄŸlar.

MAGNUM IO OPTİMİZASYON YIĞINI

Magnum IO, çoklu GPU, çok düğümlü sistemler için veri hareketini, erişimini ve yönetimini basitleştirmek ve hızlandırmak için depolama IO, ağ IO, ağ içi hesaplama ve IO yönetimini kullanır. Magnum IO, NVIDIA CUDA-X™ kütüphanelerini destekler. Düşük gecikme süresiyle optimum verim elde etmek için bir dizi NVIDIA GPU ve NVIDIA ağ donanımı topolojisini en yüksek performans alacak şekilde kullanır.

MAGNUM IO – Modern Veri Merkezleri İçin Hızlandırılmış IO

Depolama IO

Çok düğümlü, çok GPU’lu sistemlerde, tek iÅŸ parçacıklı CPU performansının, yerel veya uzak depolama aygıtlarından veri eriÅŸimine kritik bir etkisi vardır. GPU Depolama IO hızlandırması ile CPU ve sistem belleÄŸini baypas eder. 8X 200 Gb/sn NIC’ler aracılığıyla uzak depolamaya eriÅŸerek 1,6 Terabit/sn’ye kadar ham depolama bant geniÅŸliÄŸi elde eder.

İçindeki Teknolojiler:

NVIDIA GPU Direct Storage > 

NVIDIA Mellanox NVMe SNAP > 

AÄŸ IO

NVIDIA NVLink® yapısı ve RDMA tabanlı aÄŸ IO hızlandırması, IO yükünü azaltarak CPU’yu bypass eder ve doÄŸrudan GPU’dan GPU’ya veri aktarımına olanak tanır.

İçindeki Teknolojiler:

Data Plane Development Kit >

NVIDIA GPUDirect RDMA >

NVIDIA Mellanox HPC-X >

NVIDIA Collective Communication Library >

NVIDIA Shared Memory Library >

UCX >

Accelerated Switch and Packet Processing (ASAP) >

Ağ İçi Hesaplama

Ağ içi hesaplama, uç noktalara geçişin neden olduğu gecikmeyi ve aktarım esnasındaki tüm atlamaları ortadan kaldırarak ağ içinde hesaplama yapıyor. Veri İşleme birimleri(DPU), önceden konfigüre edilmiş veri işleme motorları ve programlanabilir motorların da dahil olduğu yazılım tanımlı, ağ donanımı ile hızlandırılmış hesaplama çözümü sunuyor.

İçindeki Teknolojiler:

NVIDIA BlueField DPU >

MPI Tag Matching >

NVIDIA Mellanox SHARP >

IO Yönetimi

Kullanıcıların, hesaplama, ağ ve depolamada IO optimizasyonu yapabilmesi için, ileri telemetri ve sorun giderme teknikleri kullanması gerekir. Magnum IO yönetim platformları, modern veri merkezi yapısını verimli bir şekilde tedarik etmek, izlemek, yönetmek ve önleyici olarak korumak için araştırma ve endüstriyel veri merkezi operatörlerini güçlendirir.

İçindeki Teknolojiler:

NVIDIA Cumulus NetQ >

NVIDIA Mellanox UFM >

MAGNUM IO OPTİMİZASYON YIĞINI

Magnum IO, çoklu GPU, çok düğümlü sistemler için veri hareketini, erişimini ve yönetimini basitleştirmek ve hızlandırmak için depolama IO, ağ IO, ağ içi hesaplama ve IO yönetimini kullanır. Magnum IO, NVIDIA CUDA-X™ kütüphanelerini destekler. Düşük gecikme süresiyle optimum verim elde etmek için bir dizi NVIDIA GPU ve NVIDIA ağ donanımı topolojisini en yüksek performans alacak şekilde kullanır.

MAGNUM IO – Modern Veri Merkezleri İçin Hızlandırılmış IO

Depolama IO

Çok düğümlü, çok GPU’lu sistemlerde, tek iÅŸ parçacıklı CPU performansının, yerel veya uzak depolama aygıtlarından veri eriÅŸimine kritik bir etkisi vardır. GPU Depolama IO hızlandırması ile CPU ve sistem belleÄŸini baypas eder. 8X 200 Gb/sn NIC’ler aracılığıyla uzak depolamaya eriÅŸerek 1,6 Terabit/sn’ye kadar ham depolama bant geniÅŸliÄŸi elde eder.

İçindeki Teknolojiler:

NVIDIA GPU Direct Storage > 

NVIDIA Mellanox NVMe SNAP > 

AÄŸ IO

NVIDIA NVLink® yapısı ve RDMA tabanlı aÄŸ IO hızlandırması, IO yükünü azaltarak CPU’yu bypass eder ve doÄŸrudan GPU’dan GPU’ya veri aktarımına olanak tanır.

İçindeki Teknolojiler:

Data Plane Development Kit >

NVIDIA GPUDirect RDMA >

NVIDIA Mellanox HPC-X >

NVIDIA Collective Communication Library >

NVIDIA Shared Memory Library >

UCX >

Accelerated Switch and Packet Processing (ASAP) >

Ağ İçi Hesaplama

Ağ içi hesaplama, uç noktalara geçişin neden olduğu gecikmeyi ve aktarım esnasındaki tüm atlamaları ortadan kaldırarak ağ içinde hesaplama yapıyor. Veri İşleme birimleri(DPU), önceden konfigüre edilmiş veri işleme motorları ve programlanabilir motorların da dahil olduğu yazılım tanımlı, ağ donanımı ile hızlandırılmış hesaplama çözümü sunuyor.

İçindeki Teknolojiler:

NVIDIA BlueField DPU >

MPI Tag Matching >

NVIDIA Mellanox SHARP >

IO Yönetimi

Kullanıcıların, hesaplama, ağ ve depolamada IO optimizasyonu yapabilmesi için, ileri telemetri ve sorun giderme teknikleri kullanması gerekir. Magnum IO yönetim platformları, modern veri merkezi yapısını verimli bir şekilde tedarik etmek, izlemek, yönetmek ve önleyici olarak korumak için araştırma ve endüstriyel veri merkezi operatörlerini güçlendirir.

İçindeki Teknolojiler:

NVIDIA Cumulus NetQ >

NVIDIA Mellanox UFM >

Uygulamalar Arası IO Hızlandırma

Magnum IO, AI’dan bilimsel görselleÅŸtirmeye kadar çok çeÅŸitli kullanım durumları için IO hızlandırmak üzere NVIDIA CUDA-X yüksek baÅŸarımlı hesaplama (HPC) ve AI kütüphaneleriyle arabirim oluÅŸturur.

Günümüzde en fazla hesaplama kullanılan alanlar veri bilimi ve makine öğrenmesidir. Tahmine dayalı ML modellerinin doÄŸruluÄŸundaki geliÅŸmeler, yazılan kodları milyarlarca dolara dönüştürebilir. DoÄŸruluÄŸu artırmak için RAPIDSâ„¢ Accelerator kütüphanesinde, GPU’dan GPU’ya iletiÅŸim ve RDMA özelliklerinden yararlanacak ÅŸekilde yapılandırılabilen UCX tabanlı, yerleÅŸik hızlandırılmış Apache Spark shuffle bulunur. NVIDIA aÄŸ iletiÅŸimi, Magnum IO yazılımı, GPU hızlandırmalı Spark 3.0 ve RAPIDS ile birlikte NVIDIA veri merkezi platformu, bu devasa iÅŸ yüklerini benzeri görülmemiÅŸ performans ve verimlilik ile hızlandırır.

Adobe, Databricks’te Spark 3.0 ile Model EÄŸitiminde 7X Hızlanma Sayesinde Maliyetten 90 tasarruf etti >

Bilim insanları, ilaç keşfi için karmaşık molekülleri, yeni enerji kaynakları için fiziği ve anormal hava modellerini daha iyi tahmin etmek için simülasyon yöntemlerinden yararlanıyorlar. Magnum IO, NVIDIA Quantum 2 InfiniBand ağının 400 Gb/sn yüksek bant genişliğini ve ultra düşük gecikme süresini desteklerken, RDMA, GPUDirect ve NVIDIA SHARP gibi donanım düzeyinde hızlandırma motorlarını ve akıllı yükleri ortaya çıkarır.

Kullanıcı uygulamaları çoklu kiracılık ile komşu uygulama trafiğinden gelen rastgele müdahalenin farkında olmayabilir. En yeni NVIDIA Quantum 2 InfiniBand platformundaki Magnum IO, bir kullanıcının performansı üzerindeki olumsuz etkiyi azaltmak için yeni ve geliştirilmiş özelliklere sahiptir. Her ölçekte en verimli yüksek başarımlı hesaplama (HPC) ve makine öğrenimi dağıtımlarının yanı sıra en doğru sonuçları sağlar.

Dünyanın En Büyük İnteraktif Hacim GörselleÅŸtirme – 150TB NASA Mars Lander Simülasyonu >

Diyalog tabanlı AI ve derin öneri sistemleri gibi yeni nesil meydan okumalardan dolayı AI modelleri gittikçe kompleksleÅŸiyor. NVIDIA Megatron-BERT gibi diyalog tabanlı AI modelleri, ResNet-50 gibi görüntü sınıflandırma modellerine göre eÄŸitim için 3000 kat daha fazla hesaplama gücü kullanıyor. HDR 200 Gb/sn InfiniBand aÄŸ iletiÅŸimi ve Magnum IO yazılım yığınının birleÅŸimi, tek bir kümede binlerce GPU’ya verimli ölçeklenebilirlik saÄŸlıyor. AraÅŸtırmacılar, güçlü performans ve ölçeklenebilirlik sayesinde AI sınırlarını zorlamaya devam edebiliyor.

Facebook Veri Merkezlerinde Derin Öğrenme Eğitimi: Ölçeklendirme ve Ölçeklendirme Sistemlerinin Tasarımı >

NVIDIA Omniverse + Dijital İkiz = Temiz Enerji

Küresel ısınmanın son zamanlarda hızlanması ve etkilerinin gözle görülür seviyeye gelmesi sebebiyle birçok araÅŸtırmacı, organizasyon ve hükümet, temiz ve güvenli enerji arayışı çalışmalarına hız kazandırdı. BirleÅŸik KrallÄ...

Devamını Oku

NVIDIA, Yeni İnovasyonlarını Computex 2022’de Duyuruyor

Dijital ikizler, üretilmesi en kompleks ürünleri üretilebilir kılıyor. Donanım ve yazılımlar veri merkezlerini AI fabrikalarına dönüştürüyor. RTX'in gelişmesiyle oyunlar gerçeğe dönüşüyor. NVIDIA'nın Taipei'de düzenlediği Com...

Devamını Oku

NVIDIA GPU’ları Canlı Hücre Simülasyonlarını Mümkün Kılıyor

Canlı olan her hücre, enerji üretimi, protein sentezleme, gen transkripsiyonu gibi süreçlerden sorumlu binlerce bileşene sahiptir. Urbana-Champaign'deki Illinois Üniversitesi'ndeki bilim insanları, bu fiziksel ve kimyasal özellikleri parçac...

Devamını Oku