Nvidia Menggandakan Taruhan pada “Physical AI”: Apa Artinya bagi Masa Depan Teknologi?

(Business Lounge Journal – News and Insight)

Di panggung Consumer Electronics Show (CES) di Las Vegas, Nvidia tampil bukan sekadar sebagai produsen chip, melainkan layaknya sebuah kementerian infrastruktur teknologi. Pesannya jelas dan konsisten: inilah chip-nya, inilah rak server-nya, inilah jaringan dan perangkat lunaknya — dan semua robot serta mobil otonom yang sering dibicarakan orang seharusnya berjalan di atas fondasi ini.

Melalui serangkaian pengumuman besar, Nvidia ingin menjawab satu pertanyaan mendasar yang kini mulai mengemuka: apakah AI masih sepadan dengan biaya dan kompleksitasnya? Jawaban Nvidia adalah ya — dengan catatan AI harus naik level. Bukan sekadar chatbot atau model teks, tetapi AI yang mampu memahami dunia fisik, mengambil keputusan, dan bertindak secara mandiri. Inilah yang mereka sebut sebagai physical AI.

Menguasai Full Stack: Dari Chip hingga “AI Factory”

Benang merah dari seluruh pengumuman Nvidia di CES tahun ini adalah kontrol penuh atas teknologi dari ujung ke ujung (full stack). Nvidia tidak lagi hanya menjual GPU, tetapi menawarkan satu ekosistem utuh: komputasi, jaringan, penyimpanan, perangkat lunak, hingga kerangka keselamatan dan simulasi.

CEO Nvidia, Jensen Huang, secara implisit menyatakan bahwa bottleneck AI berikutnya bukan lagi sekadar daya komputasi, melainkan konteks, memori, dan kemampuan agen AI untuk beroperasi dalam jangka panjang di dunia nyata. Agen AI generasi baru membutuhkan lebih banyak data, lebih banyak memori, jaringan yang lebih cepat, dan sistem yang dirancang secara terpadu.

Di sinilah Nvidia memperkenalkan konsep “AI factory” sebagai kategori produk baru. Bukan metafora, melainkan unit infrastruktur yang nyata: blueprint, mesin, sistem operasi, dan seluruh perangkat pendukungnya dijual sebagai satu paket.

Rubin: Arsitektur Baru, Pendekatan Baru

Sorotan utama dari sisi hardware adalah arsitektur Rubin, penerus Blackwell, yang kini dipaketkan menjadi platform siap pakai. Platform Rubin terdiri dari enam komponen utama: GPU dan CPU Rubin serta Rubin Ultra, NVLink 6 switch, dan ConnectX-9 SuperNIC. Seluruh desain ini diklaim mampu menekan biaya per token dan meningkatkan efisiensi secara signifikan.

Di level sistem, Nvidia memperkenalkan:

  • Vera Rubin NVL72, rak skala besar berisi 72 GPU dan 36 CPU, ditujukan sebagai tulang punggung komputasi AI dengan klaim performa exaflops.
  • Rubin Ultra NVL288, versi yang lebih masif dengan 288 GPU dan 144 CPU untuk kebutuhan skala ekstrem.

Semua ini diposisikan sebagai bagian dari DGX-branded AI factory, dengan pembagian jelas antara unit pelatihan (training) dan inferensi. Produk berbasis Rubin dijadwalkan tersedia melalui mitra Nvidia pada paruh kedua 2026.

Yang menarik, Nvidia secara halus mulai menggeser narasi margin bisnis. GPU tetap penting, tetapi nilai besar berikutnya ada di sekitar GPU: jaringan, penyimpanan, dan manajemen konteks AI.

Jaringan dan Memori: Infrastruktur yang Selama Ini Terlupakan

Dua komponen infrastruktur mendapatkan perhatian khusus.

Pertama adalah jaringan. Nvidia mendorong Spectrum-X Ethernet photonics sebagai fitur kinerja utama, dengan klaim peningkatan hingga lima kali lipat dalam performa inferensi dan efisiensi daya. Pesannya tegas: tanpa jaringan yang tepat, AI secanggih apa pun akan tersendat.

Kedua adalah konsep “inference context memory”, sebuah platform penyimpanan yang dirancang untuk memperpanjang konteks kerja agen AI. Dalam dunia agentic AI, konteks bukan lagi fitur perangkat lunak semata, tetapi keputusan pembelian infrastruktur.

Physical AI: Saat AI Berhenti “Ngobrol” dan Mulai Bekerja

Nvidia menggambarkan physical AI sebagai momen ketika AI tidak lagi sekadar merespons perintah, tetapi mengamati, menalar, dan bertindak dalam satu siklus utuh. Untuk mewujudkannya, dibutuhkan tiga fondasi: simulasi yang lebih baik, model robot yang lebih cerdas, dan model mobilitas yang matang. “Momen ChatGPT untuk robotika sudah tiba,” ujar Jensen Huang. Menurutnya, model yang memahami dunia nyata dan mampu merencanakan tindakan akan membuka kelas aplikasi yang sepenuhnya baru.

Namun, klaim ini diuji paling keras di sektor otomotif — industri yang penuh regulasi, risiko keselamatan, dan sejarah janji otonomi yang sering meleset.

Ujian Kredibilitas: Mobil Otonom dan Regulasi

Nvidia menyebut platform Drive AV kini sudah “in production” untuk Mercedes-Benz CLA 2026, yang meraih skor keselamatan tertinggi Euro NCAP sepanjang 2025. Mobil ini diklaim memiliki kemampuan Level 2 lanjutan dengan navigasi point-to-point di area urban, bahkan perjalanan “alamat ke alamat”.

Dengan arsitektur Hyperion, Nvidia menekankan redundansi komputasi dan sensor sebagai fondasi keselamatan. Perusahaan juga menyatakan mobil ini akan mendukung hands-free driving di jalan Amerika Serikat pada akhir tahun. Lebih jauh, Nvidia percaya bahwa physical AI akan menjadi segmen elektronik konsumen terbesar di dunia. “Semua yang bergerak pada akhirnya akan sepenuhnya otonom,” kata Ali Kani, VP otomotif Nvidia.

Sebagai bagian dari strategi ini, Nvidia merilis Alpamayo, kumpulan model AI open-source, alat simulasi, dan dataset untuk mempercepat pengembangan AI fisik yang aman. Termasuk di dalamnya 1.700 jam data berkendara dan kerangka simulasi terbuka untuk menuju otonomi Level 4.

Robotika: Dari Simulasi hingga Dunia Nyata

Di ranah robotika, Nvidia memperkenalkan Isaac GR00T N1.6, model vision-language-action terbuka untuk keterampilan robot, serta Isaac Lab Arena sebagai kerangka evaluasi skala besar. Ada pula Cosmos Reason 2, yang difokuskan pada penalaran fisik, dan rangkaian Cosmos lainnya untuk menghasilkan data sintetis.

Untuk deployment, Nvidia mendorong Jetson T4000 sebagai komputasi edge untuk robot, yang terhubung langsung dengan pipeline pelatihan DGX. Strateginya konsisten: latih di dunia virtual, uji di simulasi yang bervariasi, lalu jalankan di hardware Nvidia.

Open Models ala Nvidia: Terbuka, Tapi Tetap Terikat

Narasi “open models” Nvidia bukan soal ideologi, melainkan strategi ekosistem. Melalui keluarga model Nemotron-3, dataset terbuka, dan alat bantu developer, Nvidia ingin menjadi titik awal bagi pengembang AI — meski eksekusinya paling optimal di infrastruktur Nvidia.

Nvidia mengklaim menjadi kontributor terbesar di Hugging Face pada 2025, dengan ratusan model dan dataset terbuka. Mereka juga merilis Nemotron-CC, korpus pretraining multibahasa 1,4 triliun token, serta dataset instruksi “Granary” untuk kebutuhan enterprise.

Semua ini diposisikan sebagai toolkit untuk era agentic AI: dari keselamatan, RAG, suara, hingga penalaran.

Masa Depan adalah Pipeline

Jika dirangkum, pesan Nvidia di CES sangat konsisten: masa depan AI bukan sekadar model, melainkan pipeline menyeluruh. Komputasi, jaringan, penyimpanan, keselamatan, simulasi — semuanya harus terintegrasi.

Dan Nvidia ingin memastikan satu hal: ketika AI benar-benar masuk ke dunia fisik, hampir setiap lapisan teknologinya berjalan di atas sesuatu yang mereka jual.

Dalam dunia di mana AI mulai diuji bukan oleh demo, tetapi oleh realitas, Nvidia bertaruh bahwa kontrol penuh atas infrastruktur adalah kunci untuk tetap relevan — dan dominan.