Nvidia akan Mendominasi Dunia Teknologi untuk Waktu yang Lama

(Business Lounge Journal – News and Insight)

Nvidia terkenal dengan pembuatan chip AI, tetapi konstruksi terpentingnya adalah benteng bisnis yang menjaga pelanggan tetap masuk dan pesaing tetap keluar. Penghalang ini terbuat dari perangkat lunak dan silikon. Selama dua dekade terakhir, Nvidia telah menciptakan apa yang dikenal dalam dunia teknologi sebagai “taman bertembok”, tidak seperti yang dibuat oleh Apple. Sementara ekosistem perangkat lunak dan layanan Apple ditujukan untuk konsumen, fokus Nvidia telah lama tertuju pada pengembang yang membangun sistem kecerdasan buatan dan perangkat lunak lain dengan chipnya.

Taman bertembok Nvidia menjelaskan mengapa, meskipun ada persaingan dari pembuat chip lain dan bahkan raksasa teknologi seperti Google dan Amazon, Nvidia sangat tidak mungkin kehilangan pangsa pasar AI yang signifikan dalam beberapa tahun ke depan. Hal ini juga menjelaskan mengapa, dalam jangka panjang, perebutan wilayah yang sekarang didominasi Nvidia kemungkinan akan berfokus pada kecakapan pengkodean perusahaan, bukan hanya desain sirkuitnya—dan mengapa para pesaingnya berlomba-lomba mengembangkan perangkat lunak yang dapat menghindari tembok pelindung Nvidia.

Kunci untuk memahami taman berpagar Nvidia adalah platform perangkat lunak yang disebut CUDA. Ketika diluncurkan pada tahun 2007, platform ini merupakan solusi untuk masalah yang belum pernah ada sebelumnya: cara menjalankan perangkat lunak non-grafis, seperti algoritma enkripsi dan penambangan mata uang kripto, menggunakan chip khusus Nvidia, yang dirancang untuk aplikasi padat karya seperti grafis 3-D dan gim video.

CUDA memungkinkan semua jenis komputasi lain pada chip tersebut, yang dikenal sebagai unit pemrosesan grafis, atau GPU. Di antara aplikasi yang memungkinkan CUDA menjalankan chip Nvidia adalah perangkat lunak AI, yang pertumbuhannya yang pesat dalam beberapa tahun terakhir telah menjadikan Nvidia salah satu perusahaan paling berharga di dunia. Selain itu, dan ini penting, CUDA hanyalah permulaan.

Tahun demi tahun, Nvidia menanggapi kebutuhan pengembang perangkat lunak dengan mengeluarkan pustaka kode khusus, yang memungkinkan serangkaian besar tugas dilakukan pada GPU-nya dengan kecepatan yang tidak mungkin dilakukan dengan prosesor serbaguna konvensional seperti yang dibuat oleh Intel dan AMD. Pentingnya platform perangkat lunak Nvidia menjelaskan mengapa selama bertahun-tahun Nvidia memiliki lebih banyak insinyur perangkat lunak daripada insinyur perangkat keras di stafnya.

Kepala Eksekutif Nvidia Jensen Huang baru-baru ini menyebut penekanan perusahaannya pada kombinasi perangkat keras dan perangkat lunak sebagai “komputasi tumpukan penuh,” yang berarti bahwa Nvidia membuat segalanya mulai dari chip hingga perangkat lunak untuk membangun AI. Setiap kali pesaing mengumumkan chip AI yang dimaksudkan untuk bersaing dengan Nvidia, mereka akan berhadapan dengan sistem yang telah digunakan pelanggan Nvidia selama lebih dari 15 tahun untuk menulis banyak kode. Perangkat lunak itu bisa sulit dialihkan ke sistem pesaing.

Pada rapat pemegang saham bulan Juni, Nvidia mengumumkan bahwa CUDA sekarang mencakup lebih dari 300 pustaka kode dan 600 model AI, dan mendukung 3.700 aplikasi yang dipercepat GPU yang digunakan oleh lebih dari lima juta pengembang di sekitar 40.000 perusahaan.

Ukuran pasar komputasi AI yang sangat besar telah mendorong banyak perusahaan untuk bersatu guna menyaingi Nvidia. Atif Malik, analis semikonduktor dan peralatan jaringan di Citi Research, memproyeksikan bahwa pasar chip terkait AI akan mencapai $400 miliar per tahun pada tahun 2027. (Pendapatan Nvidia untuk tahun fiskal yang berakhir pada bulan Januari adalah sekitar $61 miliar.)

Sebagian besar kolaborasi ini difokuskan pada pengembangan alternatif sumber terbuka untuk CUDA, kata Bill Pearson, wakil presiden Intel yang berfokus pada AI untuk pelanggan komputasi cloud. Insinyur Intel berkontribusi pada dua proyek tersebut, salah satunya melibatkan Arm, Google, Samsung, dan Qualcomm. OpenAI, perusahaan di balik ChatGPT, sedang mengerjakan upaya sumber terbukanya sendiri.

Investor berbondong-bondong masuk ke perusahaan rintisan yang berupaya mengembangkan alternatif untuk CUDA. Investasi tersebut sebagian didorong oleh kemungkinan bahwa insinyur di banyak raksasa teknologi dunia dapat secara kolektif memungkinkan perusahaan untuk menggunakan chip apa pun yang mereka suka—dan berhenti membayar apa yang disebut sebagian orang di industri sebagai “pajak CUDA”.

Satu perusahaan rintisan yang dapat memanfaatkan semua perangkat lunak sumber terbuka ini, Groq, baru-baru ini mengumumkan investasi sebesar $640 juta, dengan valuasi $2,8 miliar, untuk membangun chip yang dapat bersaing dengan Nvidia.

Raksasa teknologi juga berinvestasi dalam alternatif mereka sendiri untuk chip Nvidia. Google dan Amazon masing-masing membuat chip khusus mereka sendiri untuk pelatihan dan penerapan AI, dan Microsoft mengumumkan pada tahun 2023 akan mengikutinya.

Di antara pesaing paling sukses untuk dominasi chip AI Nvidia adalah AMD. AMD masih merupakan sebagian kecil dari ukuran Nvidia di pasar—AMD telah memproyeksikan pendapatan $4,5 miliar pada tahun 2024 dari lini chip AI Instinct—tetapi berinvestasi besar untuk merekrut insinyur perangkat lunak, kata Andrew Dieckman, wakil presiden AMD. “Kami telah memperluas sumber daya perangkat lunak kami dengan luar biasa,” katanya. AMD mengumumkan bulan lalu akan mengakuisisi Silo AI seharga $665 juta, menambah 300 insinyur AI. Microsoft dan Meta Platforms, pelanggan utama Nvidia, sama-sama membeli chip AI AMD, yang mencerminkan keinginan untuk mendorong persaingan untuk salah satu barang termahal dalam anggaran raksasa teknologi.

Meskipun demikian, Malik, dari Citi Research, mengatakan ia berharap Nvidia dapat mempertahankan pangsa pasar sekitar 90% dalam chip terkait AI selama dua hingga tiga tahun ke depan. Untuk memahami kelebihan dan kekurangan alternatif, ada baiknya memahami apa yang diperlukan untuk membangun AI bergaya ChatGPT tanpa menggunakan perangkat keras atau perangkat lunak apa pun dari Nvidia.

Babak Pahlavan, CEO perusahaan rintisan NinjaTech AI, mengatakan ia akan menggunakan perangkat keras dan perangkat lunak Nvidia untuk meluncurkan perusahaannya—jika ia mampu membelinya. Namun, kekurangan chip H100 Nvidia yang canggih telah membuat harga tetap tinggi dan akses menjadi sulit. Pahlavan dan para pendiri lainnya akhirnya beralih ke Amazon, yang membuat chip khusus sendiri untuk melatih AI, proses di mana sistem semacam itu “belajar” dari kumpulan data yang sangat banyak. Setelah berbulan-bulan berusaha, tim tersebut akhirnya berhasil melatih AI mereka pada chip Amazon, yang dikenal sebagai Trainium.

Itu tidak mudah. “Ada banyak tantangan dan bug,” kata Pahlavan, yang timnya di NinjaTech AI bertemu empat kali seminggu, selama berbulan-bulan, dengan tim perangkat lunak Amazon. Akhirnya, kedua perusahaan menyelesaikan masalah tersebut, dan “agen” AI NinjaTech, yang melakukan tugas untuk pengguna, diluncurkan pada bulan Mei.

Perusahaan tersebut mengklaim lebih dari satu juta pengguna aktif bulanan untuk layanannya, yang semuanya dilayani oleh model yang dilatih, dan berjalan, pada chip Amazon. “Pada awalnya ada beberapa bug di kedua sisi,” kata eksekutif Amazon Web Services Gadi Hutt, yang timnya bekerja dengan NinjaTech AI. Namun sekarang, katanya, “kami mulai berlomba.” Pelanggan yang menggunakan chip AI khusus Amazon termasuk Anthropic, Airbnb, Pinterest, dan Snap.

Amazon menawarkan kepada pelanggan komputasi cloudnya akses ke chip Nvidia, tetapi biaya penggunaannya lebih mahal daripada chip AI milik Amazon sendiri. Meski begitu, perlu waktu bagi pelanggan untuk beralih, kata Hutt. Pengalaman NinjaTech AI menggambarkan satu alasan besar mengapa perusahaan rintisan seperti mereka menanggung kesulitan dan waktu pengembangan tambahan yang diperlukan untuk membangun AI di luar wilayah tertutup Nvidia. Untuk melayani lebih dari satu juta pengguna per bulan, tagihan layanan cloud NinjaTech di Amazon sekitar $250.000 per bulan, kata Pahlavan. Jika ia menjalankan AI yang sama pada chip Nvidia, biayanya akan berkisar antara $750.000 hingga $1,2 juta, tambahnya.

Nvidia sangat menyadari semua tekanan persaingan ini, dan bahwa chipnya mahal untuk dibeli dan dioperasikan. Huang, CEO-nya, telah berjanji bahwa chip generasi berikutnya yang berfokus pada AI akan menurunkan biaya pelatihan AI pada perangkat keras perusahaan. Untuk masa mendatang, nasib Nvidia adalah masalah inersia—jenis inersia yang sama yang membuat bisnis dan pelanggan terkunci di berbagai wilayah tertutup lainnya sepanjang sejarah. Termasuk Apple.