AI

Mengungkap Kekuatan Deep Learning

(Business Lounge Journal – Tech)

Deep learning, salah satu teknologi penting dalam kecerdasan buatan (AI), telah banyak membantu dalam berbagai aplikasi—mulai dari pengenalan suara hingga gambar. Tapi meskipun manfaatnya besar, teknologi ini masih punya banyak tantangan. Salah satu masalah terbesar adalah: deep learning membutuhkan daya komputasi yang sangat besar.

Mengapa Harus Terhubung ke Internet?

Untuk menjalankan deep learning, sistem komputer harus melakukan jutaan hingga miliaran operasi, seperti perkalian dan penjumlahan data. Misalnya, model GPT-3 yang digunakan oleh ChatGPT menggunakan 175 miliar parameter dan memerlukan komputer super canggih untuk melatih dan menjalankannya. Ini membutuhkan biaya sangat mahal dan daya yang besar.

Karena itu, deep learning biasanya hanya bisa dijalankan lewat server besar di cloud (internet). Jika kita menggunakan AI lewat ponsel atau laptop, sebenarnya proses komputasinya dilakukan di server jauh, bukan di perangkat kita. Artinya, kita harus selalu terhubung ke internet. Masalahnya, tidak semua tempat memiliki koneksi internet yang cepat dan stabil. Selain itu, untuk beberapa aplikasi yang berhubungan dengan data sensitif seperti data kesehatan atau keuangan, mengirim data ke cloud bisa jadi berisiko.

Dalam kasus lain, seperti mobil tanpa pengemudi atau kacamata AR/VR, deep learning harus memberikan respon dalam hitungan detik. Jika data harus dikirim ke cloud dulu, waktunya bisa terlambat. Karena itu, para peneliti ingin agar deep learning bisa dijalankan langsung di perangkat, tanpa harus bergantung pada koneksi internet.

Tidak Cukup Hanya Tambah Prosesor

Mungkin terdengar mudah: tambahkan saja prosesor yang lebih kuat. Tapi kenyataannya tidak sesederhana itu. Prosesor yang lebih kuat biasanya menghasilkan lebih banyak panas dan membutuhkan energi lebih besar.

Sebagai contoh, mobil tanpa pengemudi bisa menggunakan lebih dari 1.000 watt hanya untuk menjalankan AI-nya. Sementara itu, ponsel kita biasanya hanya bisa menyediakan sekitar 1 watt. Jika prosesor terlalu panas, kita butuh sistem pendingin khusus seperti di pusat data—yang tentu saja tidak mungkin dimasukkan ke dalam ponsel atau tablet.

Selain itu, perangkat seperti ponsel memiliki keterbatasan baterai. Jika AI hanya bisa dijalankan 10 menit sebelum baterai habis, tentu tidak praktis.

Solusi: AI yang Lebih Hemat Energi

Untuk membuat AI bisa dijalankan di perangkat kecil tanpa bergantung pada cloud, kita harus membuat teknologi ini lebih efisien—baik dari sisi perangkat lunak maupun perangkat keras.

Vivienne Sze dari Massachusetts Institute of Technology (MIT) menjelaskan bahwa kunci keberhasilan adalah menggabungkan desain perangkat lunak dan perangkat keras secara cerdas. Caranya adalah dengan menghapus bagian-bagian yang tidak penting dari algoritma, dan mendesain chip (prosesor) khusus yang hemat energi tapi tetap kuat untuk menjalankan deep learning.

Contohnya, Google sudah membuat chip khusus untuk AI. Tim MIT yang dipimpin oleh Sze juga telah mengembangkan chip yang hanya menggunakan kurang dari sepertiga watt—jauh lebih hemat dibanding prosesor ponsel biasa.

Dengan menyatukan desain perangkat keras dan perangkat lunak, kita bisa mengurangi jumlah perhitungan yang tidak perlu dan mempercepat aliran data di dalam chip. Hasilnya? Proses lebih cepat, hemat energi, dan bisa dijalankan langsung di perangkat.

Manfaatnya untuk Semua Orang

Tujuan utama dari pengembangan ini adalah agar AI bisa digunakan tanpa harus selalu terhubung ke internet. Tapi manfaat lainnya juga besar.

Misalnya, pusat data (data center) yang menjalankan banyak AI saat ini sudah mengonsumsi banyak listrik. Kalau AI bisa dibuat lebih efisien, kita bisa menghemat energi dan mengurangi dampak lingkungan.

Selain itu, jika biaya menjalankan AI bisa ditekan, maka lebih banyak orang dan bisnis—termasuk yang kecil—bisa memanfaatkan teknologi ini. Dengan begitu, AI bisa benar-benar membantu lebih banyak orang di seluruh dunia.