comscore

NVIDIA Pamer Kemampuan AI untuk Data Center

Cahyandaru Kuncorojati - 26 Mei 2022 11:18 WIB
NVIDIA Pamer Kemampuan AI untuk Data Center
Rangkaian keynote speech Nvidia di Computex 2022.
Jakarta: Rangkaian pameran teknologi tahunan Computex 2022 Taiwan tengah berlangsung, NVIDIA ambil bagian dalam mengisi panggung keynote speech, kali ini mereka memamerkan inovasi yang tidak cuman soal sektor gaming tapi juga kemampuan Artificial Intelligence (AI) untuk data center dan robotik berbasis teknologi canggih GPU buatannya.

Vice President of Accelerated Computing NVIDIA, Ian Buck membuka keynote speech dengan dengan membagikan pandangan bahwa teknologi AI kini bisa ditemukan di mana saja dalam kehidupan sehari-hari lewat pengembangan di berbagai sektor industri.
Buck menurutkan bahwa teknologi AI yang terus berkembang ikut mentransformasi data center tidak hanya menjadi pusat penyimpanan data tapi juga pabrik (factories) atau pusat pengembangan AI.

“Ada empat lemen yang dibutuhkan untuk melakukan trasnformasi data senter sehingga siap menjadi pusat pengembangan AI modern: tiga elemen pemrosesan, skalabilitas komputasi, keberlanjutan (sustainablity), dan operasional 24/7,” tuturnya.

Tiga elemen pemrosesan ini adalah CPU untuk mengatur sistem secara keseluruhan, GPU sebagai workhouse komputasi, dan DPU yang memegang trafik jaringan karena pelatihan dan pengujian AI membutuhkan interkoneksi yang cepat. 

Semuanya dirancang NVIDIA untuk bisa memberikan performa tercepat tapi tetap dengan konsumsi daya yang efisien, bahkan mereka mengklaim penghematan daya listrik data center yang dicapai bisa hingga hingga 12 triliun Watt per jam setiap tahun.

“Hal ini membutuhkan inovasi end-to-end di setiap tingkat. Tersedia GPU Hopper, CPU Grace, dan DPU BlueField yang digunakan untuk fondasi jaringan bersama switch Quantum dan Spectrum. Semua ini bisa menyediakan infrastruktur untuk data center masa depan, didukung dengan NVIDIA AI Enterprise Software yang tersedia sebagai open platform,” tutur Buck.

NVIDIA di tahun ini memperkenalkan GPU H100 yang performanya melampaui A100. GPU tersebut memiliki kemampuan Multi Instance Generasi ke-2 yang bisa membuat partisi untuk unit komputasi kecil hingga tujuh komputasi kalkulasi CSP. Jadi klien data center bisa memiliki lebih banyak GPU.

Senior Vice President Hardware Engineering NVIDIA, Brian Kelleher membeberkan roadmap yang menunjukan langkah untuk merilis arsitektur generasi terbaru dari CPU, GPU, dan DPU setiap dua tahun sekali, tahun pertama untuk platform x86 dan tahun kedua ARM.

“Grace adalah CPU data center pertama NVIDIA yang dirancang untuk menjawab kebutuhan komputasi serta beban kerja AI yang muncul beberapa tahun belakangan. Grace berbasis ARM akan mulai dikirimkan tahun depan dan tersedia dalam dua form factor,” ungkap Kelleher.

Grace Hopper dengan modul single superchip yang memiliki koneksi direct chip-to-chip atara Grace CPU dan Hopper GPU. Keduanya terhubung lewat NVLink C2C interkoneksi low power memory berkecepatan 900GBps.

Grace diklaim bisa melakukan transfer data ke Hopper 15 kali lebih cepat dari CPU lain dan meningkatkan ukuran data Hopper mencapai 2TB. Grace Hopper disiapkan untuk mengakselerasi AI, HPC, cloud dan hyperscale skala besar.

Form factor lain yaitu Grace Superchip dua unit CPU Grace yang terhubung dengan NVlink C2C. Superchip Grace memiliki 144-cores dengan memory bandwidth 1TBps dan efisiensi energi dua kali lebih tinggi dari server yang ada. Satu modul ini dengan memory 1TB hanya membutuhkan daya 500W.

“Chip NVIDIA di masa depan seperti CPU, GPU, DPU, NIC, dan SOC akan terintegrasi dengan NVLink seperti Grace dan Hopper. Perkembangan NVLink dari die-to-die, chip-to-chip, dan system-to-system memungkinkan konfigurasi Grace dan Hopper untuk mengolah beban kerja yang beragam,” jelasnya.

Director of Product Management Accelerated Computing, Ying Yin Shih menyebutkan sejumlah CPU data center berbasis Grace versi reference untuk lima kategori beban kerja. CGX untuk cloud gaming, OVX untuk Digital Twins dan Omniverse, HGX untuk HPX dan Supercomputing, terakhir adalah HGX dengan arsitektur baru untuk AI yang menyediakan fitur paling mumpuni mengandalkan modul Grace-Hopper.

Chief Technology Officer, Michael Kagan mengklaim gelombang teknologi AI mendorong dunia mengalami peningkatan permintaan untuk komputasi dan menciptakan layanan baru dan kemampuan data processing yang lebih.

“Data center menjadi pusat pengembangan AI, kemampuan komputasi baru ini berbasis dari software yang dibangun dari infrastruktur dan yang dibangun oleh layanan. Solusi jaringan NVIDIA dibangun atas tiga komponen BlueField DPU, data processing unit yang menghubungkan noda komputasi ke jaringan data center, InfiniBand Quantum switch, dan Ethernet Spectrum switch.,” jelas Kagan.

BlueField mengakselerasi jaringan dan storage untuk menyediakan infrastruktur virtual pada performa native bare metal. Beberapa bulan lalu diperkenalkan BlueField 3, 400 gigabit DPU yang mengintegrasikan HPC core, fully-programmable data path untuk akselerasi jaringan, keamanan, dan storage.

(MMI)

Bagaimana tanggapan anda mengenai artikel ini?

 

 

 

Komentar

LOADING
Cara untuk mendapatkan Berita terbaru dari kami.

Ikuti langkah berikut ini untuk mendapatkan notifikasi

  1. Akses Pengaturan/Setting Browser Anda
  2. Akses Notifications pada Pengaturan/Setting Browser Anda
  3. Cari https://m.medcom.id pada List Sites Notifications
  4. Klik Allow pada List Notifications tersebut

Anda Selesai.

Powered by Medcom.id