Nvidia DGX Spark: Superkomputer Mini untuk Era AI Lokal

(Business Lounge Journal – Tech)

Ketika berbicara tentang superkomputer, kebanyakan orang membayangkan mesin raksasa di pusat data dengan konsumsi daya besar dan harga miliaran rupiah. Namun Nvidia kembali menantang persepsi tersebut melalui DGX Spark, superkomputer mini yang diklaim sebagai yang terkecil di dunia. Dengan harga mulai dari USD 3.000 hingga 4.000, perangkat ini menawarkan pendekatan baru terhadap komputasi kecerdasan buatan (AI) — bukan yang tercepat, tetapi yang paling praktis dan serbaguna untuk penggunaan nyata.

DGX Spark dapat digunakan dengan dua cara: sebagai sistem standalone dengan monitor, keyboard, dan mouse, atau sebagai sistem headless yang diakses melalui jaringan. Proses instalasinya tergolong mudah. Setelah tersambung ke Wi-Fi dan menyelesaikan pengaturan dasar, pengguna akan menemukan sistem operasi Ubuntu 24.04 LTS yang telah dikustomisasi ringan oleh Nvidia.

Tidak seperti perangkat PC pada umumnya, Spark tidak menjalankan Windows. Sebaliknya, ia hadir bebas dari sistem tambahan seperti Copilot atau fitur pelacakan Recall, yang justru membuatnya lebih aman dan efisien untuk pekerjaan AI. Sebagian besar penyesuaian Nvidia berfokus pada sisi teknis—mulai dari driver, Docker, hingga CUDA Toolkit—semuanya sudah diintegrasikan sehingga pengguna dapat langsung bekerja tanpa perlu konfigurasi manual yang rumit.

Namun, masih ada sedikit tantangan pada tahap awal. Beberapa aplikasi belum sepenuhnya dioptimalkan untuk arsitektur memori terpadu GB10, menyebabkan sesekali crash pada aplikasi berat. Meski begitu, langkah Nvidia dalam menyiapkan sistem operasi yang siap pakai secara signifikan mengurangi hambatan bagi pengembang yang ingin langsung bereksperimen dengan AI lokal.

Raspberry Pi untuk Dunia AI

DGX Spark dirancang untuk menurunkan hambatan bagi siapa pun yang ingin memulai dengan machine learning, generative AI, atau data science. Nvidia menyediakan dokumentasi, tutorial, dan panduan praktis berupa playbook singkat yang mencakup topik populer seperti asisten kode AI, chatbot, hingga analisis data berbasis GPU.

Pendekatan edukatif ini membuat Spark terasa seperti “Raspberry Pi untuk era AI” — perangkat mungil dengan kemampuan besar, yang memudahkan pengguna dari berbagai latar belakang untuk belajar dan berinovasi dalam ekosistem AI tanpa perlu infrastruktur besar.

Dalam pengujian performa, DGX Spark menunjukkan karakter unik: bukan yang tercepat, tetapi mampu mengerjakan hampir semua tugas AI secara efisien. Para penguji menyebutnya sebagai “AI equivalent of a pickup truck” — tangguh, multifungsi, dan andal untuk beban kerja berat.

Keunggulan utama Spark terletak pada kapasitas memorinya yang luar biasa besar, yaitu 128 GB LPDDR5x. Angka ini melampaui GPU kelas workstation lain, memungkinkan Spark menangani beban kerja yang biasanya hanya bisa dijalankan di kluster GPU mahal.

  1. Fine-Tuning Model Besar Tanpa Kluster Mahal

Fine-tuning model bahasa besar (LLM) seperti Mistral 7B biasanya membutuhkan memori di atas 100 GB, yang membuat GPU konsumen kesulitan menjalankannya. Dengan DGX Spark, hal tersebut menjadi mungkin bahkan untuk model Llama 3.3 70B menggunakan teknik efisien seperti LoRA atau QLoRA.

Dalam pengujian, Spark mampu melakukan fine-tuning model Llama 3.2 (3B) hanya dalam waktu 1,5 menit — lebih lambat dari RTX 6000 Ada (30 detik), tetapi dengan keunggulan kapasitas yang memungkinkan model lebih besar. GPU lain seperti RTX 3090 Ti gagal menjalankan uji yang sama karena kehabisan VRAM.

Artinya, DGX Spark membuka peluang baru bagi pengembang kecil dan peneliti independen untuk melatih model besar secara lokal tanpa biaya tinggi.

  1. Generasi Gambar: Stabil dan Fleksibel

Untuk beban kerja image generation, DGX Spark juga menunjukkan fleksibilitas tinggi. Saat diuji dengan model FLUX.1 Dev (12B) dari Black Forest Labs pada presisi BF16, Spark memang lebih lambat dari RTX 6000 Ada (97 detik vs 37 detik). Namun, berkat memorinya yang besar, Spark dapat menjalankan model pada presisi penuh tanpa harus offload ke CPU — menjaga kualitas hasil tetap optimal.

Bahkan, pengguna dapat melakukan fine-tuning model gambar menggunakan dataset pribadi. Proses ini memakan waktu empat jam dan memori lebih dari 90 GB, tetapi hasilnya adalah model yang dapat menghasilkan gambar khusus sesuai kebutuhan pengguna.

  1. Inference LLM: Stabilitas dan Kompatibilitas CUDA

Untuk pengujian inferensi, DGX Spark diuji dengan beberapa framework populer seperti Llama.cpp, vLLM, dan TensorRT LLM menggunakan model hingga gpt-oss-120B.

  • cpp menunjukkan performa terbaik dalam kecepatan generasi token.
  • TensorRT unggul dalam kecepatan respon awal (time-to-first-token).
  • Beberapa anomali pada vLLM disebabkan oleh dukungan perangkat lunak yang belum matang untuk arsitektur GB10, namun hal ini diperkirakan akan membaik seiring pembaruan driver dan optimasi CUDA.

Meski belum mencapai performa maksimalnya, DGX Spark sudah menunjukkan kestabilan dan efisiensi tinggi untuk menjalankan model besar dengan konsumsi daya dan biaya yang jauh lebih rendah dibandingkan sistem GPU multi-unit.

Solusi AI Lokal dengan Skala Profesional

Nvidia DGX Spark bukan tentang kecepatan ekstrem, tetapi tentang kemandirian dan fleksibilitas dalam pengembangan AI.
Dengan kapasitas memori yang besar, ekosistem CUDA yang matang, dan dukungan edukatif yang kuat, Spark menjadi solusi menarik bagi:

  • peneliti dan startup AI,
  • tim R&D perusahaan,
  • atau siapa pun yang ingin menjalankan model besar secara lokal tanpa bergantung pada layanan cloud.

DGX Spark menunjukkan bahwa masa depan komputasi AI tidak selalu tentang siapa yang paling cepat, tetapi tentang siapa yang paling efisien, adaptif, dan siap menghadirkan inovasi dari skala kecil ke besar.