NVIDIA MERLIN

NVIDIA Merlin™, büyük ölçekli derin öğrenme tavsiye sistemleri oluşturmak için kullanılan açık kaynak kodlu bir kütüphanedir.

Tavsiye Sistemli İş Akışları için Tasarlandı

Merlin, uçta yüksek performanslı öneri sistemleri yapabilmek için veri bilimcilere, makine öğrenimi mühendislerine ve araştırmacılara ihtiyaç duydukları gücü sağlar. Merlin, ortak ön işleme, özellik mühendisliği, eğitim ve çıkarım zorluklarını ele alarak derin öğrenme öneri sistemleri oluşturmayı demokratikleştiren kütüphaneler, yöntemler ve araçlar içerir. Merlin veri yolunun her bir komponenti, kullanımı kolay API’ler ile erişilebilen yüzlerce terabaytlık veriyi destekleyebileceği şekilde optimize edilmiştir. Merlin ile geleneksel yöntemlerden daha iyi tahminler ve  artan tıklama oranlarına kolayca erişebilirsiniz.

UÇTAN UCA REFERANS MİMARİ

NVIDIA Merlin, veri alımı ve eğitimden GPU hızlandırmalı öneri sistemlerinin çalıştırılmasına kadar bütün veri yolunu hızlandırır. Merlin’in açık kaynaklı komponentleri, üretim kalitesinde bir veri hattı oluşturmayı ve dağıtmayı çok kolay bir hale getirir.

NVTabular

Merlin NVTabular, terabaytlarca öneri sistemi veri setini etkili bir şekilde işlemek ve veri hazırlama süresini önemli ölçüde azaltmak için tasarlanmış bir özellik mühendisliği ve ön işleme kütüphanesidir.

Hemen Deneyin:

GitHub | Anaconda | Merlin NVTabular on NGC™

NVTabular

Merlin NVTabular, terabaytlarca öneri sistemi veri setini etkili bir şekilde işlemek ve veri hazırlama süresini önemli ölçüde azaltmak için tasarlanmış bir özellik mühendisliği ve ön işleme kütüphanesidir.

Hemen Deneyin:

GitHub | Anaconda | Merlin NVTabular on NGC™

HugeCTR

Merlin HugeCTR, tavsiye sistemleri için tasarlanan bir derin nöral ağ eğitim kütüphanesidir. Maksimum performans için birden fazla GPU ve düğümde paralel model gömülü tabloları ve veri paralel sinir ağları ile dağıtılmış eğitim sağlar.

Hemen Deneyin:

GitHub | Merlin Training on NGC

HugeCTR

Merlin HugeCTR, tavsiye sistemleri için tasarlanan bir derin nöral ağ eğitim kütüphanesidir. Maksimum performans için birden fazla GPU ve düğümde paralel model gömülü tabloları ve veri paralel sinir ağları ile dağıtılmış eğitim sağlar.

Hemen Deneyin:

GitHub | Merlin Training on NGC

TensorRT ve Triton

Doğru GPU kullanımı ve gecikme kombinasyonu ile verimi en üst düzeye çıkararak GPU’larda çıkarımı verimli bir şekilde çalıştırmak için NVIDIA Triton™ Inference Server ve NVIDIA® TensorRT™’den yararlanın.

Hemen Deneyin:

TensorRT | Triton Inference Server

TensorRT ve Triton

Doğru GPU kullanımı ve gecikme kombinasyonu ile verimi en üst düzeye çıkararak GPU’larda çıkarımı verimli bir şekilde çalıştırmak için NVIDIA Triton™ Inference Server ve NVIDIA® TensorRT™’den yararlanın.

Hemen Deneyin:

TensorRT | Triton Inference Server

NVIDIA GPU’larında Tavsiye Sistemlerini Hızlandırın

Tavsiye sistemi eğitim veri hattını, NVTabular’ın teknik avantajlarını, benchmark sonuçlarını ve nasıl başlayacağınız hakkında daha fazla bilgi alın.

NVIDIA GPU’larında Tavsiye Sistemlerini Hızlandırın

Tavsiye sistemi eğitim veri hattını, NVTabular’ın teknik avantajlarını, benchmark sonuçlarını ve nasıl başlayacağınız hakkında daha fazla bilgi alın.

Merlin Teknik Kaynak Kiti

Veri toplama ve eğitimden GPU ile hızlandırılmış öneri sistemlerini çalıştırmaya kadar tüm veri hattını nasıl hızlandıracağınızı öğrenin.

Merlin Teknik Kaynak Kiti

Veri toplama ve eğitimden GPU ile hızlandırılmış öneri sistemlerini çalıştırmaya kadar tüm veri hattını nasıl hızlandıracağınızı öğrenin.

NVIDIA Derin Öğrenme Enstitüsü (DLI)

Yüksek performanslı tavsiye sistemleri oluşturmak için gereken temel araçları ve teknikleri öğrenmek için DLI eğitimlerine katılın.

NVIDIA Derin Öğrenme Enstitüsü (DLI)

Yüksek performanslı tavsiye sistemleri oluşturmak için gereken temel araçları ve teknikleri öğrenmek için DLI eğitimlerine katılın.

Merlin Referans Uygulamalar

Açık kaynak referans uygulamaları ve 10 kata kadar hızlandırma ile açık kaynak veri setlerinde en son teknoloji doğruluğu elde edin.

Merlin Referans Uygulamalar

Açık kaynak referans uygulamaları ve 10 kata kadar hızlandırma ile açık kaynak veri setlerinde en son teknoloji doğruluğu elde edin.

NVIDIA NIM: Yapay Zeka Modellerinin Dağıtımı için Mikro Hizmetler

NVIDIA, hızlı çıkarım için modeller sunmaya yönelik yeni bir yaklaşımla büyük dil modellerinin (LLM'ler) dağıtımını önemli ölçüde hızlandırmayı ve optimize etmeyi hedefliyor. NVIDIA CEO'su Jensen Huangh, NVIDIA GTC24 açılış...

İnsansı Robotlar için Yapay Zeka Platformu: NVIDIA GR00T

NVIDIA'nın kurucusu ve CEO'su Jensen Huang, insansı robotlar için temel modeller oluşturmanın bugün yapay zekada çözülmesi gereken en heyecan verici sorunlardan biri olduğunu söyledi. Jensen, genel robot biliminin geleceğini yeniden şeki...

NVIDIA Blackwell GPU’yu Tanıttı

NVIDIA Blackwell, yeni bir hesaplama çağının kapılarını aralıyor! NVIDIA bugün GTC açılış konuşmasında NVIDIA Blackwell platformunun geldiğini duyurdu. NVIDIA Blackwell, kuruluşlara her yerde trilyon-parametreli büyük dil modelleri...