(Business Lounge Journal – Tech)
Di tengah lonjakan pesat pengembangan kecerdasan buatan (AI), industri teknologi kini menghadapi tantangan besar: krisis kepercayaan. Banyak model AI dikembangkan sebagai “kotak hitam”—tertutup, tidak transparan, dan sulit dipahami. Kita diminta percaya begitu saja pada sistem yang tidak memberi tahu dari mana datanya berasal atau bagaimana ia mengambil keputusan.
Sebagian besar model AI besar saat ini dilatih menggunakan data yang tidak diketahui publik asal-usulnya, tanpa dokumentasi yang jelas, dan di bawah lisensi yang membingungkan. Hal ini menciptakan ketidakpastian, meningkatkan risiko hukum, dan bahkan memperlambat kemajuan yang bermakna.
Pendekatan ini tidak bisa dipertahankan. Untuk membangun AI yang benar-benar sejalan dengan nilai-nilai manusia, kita memerlukan transparansi—mulai dari kode sumber, parameter model, hingga dataset pelatihannya. bahwa untuk bisa memahami, menilai, dan mempercayai AI, kita harus tahu bagaimana sistem itu dibuat dan bagaimana cara kerjanya. Berikut penjelasan dari masing-masing bagian:
- Kode sumber (source code):Ini adalah “resep” atau instruksi yang ditulis oleh programmer untuk membangun model AI. Jika kode ini terbuka (open source), siapa pun bisa memeriksa, memahami, dan memperbaiki cara kerja AI tersebut. Tanpa akses ke kode, kita tidak tahu apakah ada kesalahan logika, manipulasi, atau bias tersembunyi.
- Parameter model:Parameter adalah angka-angka yang dipelajari AI selama pelatihan dan yang menentukan bagaimana AI merespons suatu input. Misalnya, model bahasa seperti ChatGPT memiliki miliaran parameter yang menentukan hasil responsnya. Transparansi di sini berarti memberikan akses atau penjelasan tentang bagaimana parameter itu diatur, dikembangkan, dan apa pengaruhnya.
- Dataset pelatihan:
Ini adalah kumpulan data yang digunakan untuk “mengajar” AI. Misalnya, jika AI dilatih dengan banyak artikel berita dari negara tertentu saja, modelnya bisa bias terhadap perspektif negara tersebut. Mengetahui dataset pelatihan penting untuk menilai apakah AI berimbang atau tidak, dan apakah data yang digunakan melanggar privasi, hak cipta, atau etika.
Tanpa transparansi atas ketiga elemen itu, kita tidak bisa benar-benar memahami atau mengawasi AI. Transparansi memungkinkan masyarakat, akademisi, dan pembuat kebijakan untuk memastikan bahwa AI bekerja secara adil, etis, dan bertanggung jawab. ika kita tahu bagaimana suatu model dilatih dan dengan data apa, kita bisa memahami nilai dan asumsi yang terkandung di dalamnya.
Sumber terbuka adalah solusi yang sangat relevan. Dengan membagikan kode, data, dan metode pelatihan secara terbuka, komunitas global bisa mempelajari, mengembangkan, dan menyesuaikan AI sesuai dengan kebutuhan lokal dan nilai-nilai sosial yang beragam. Contohnya, Python sebagai bahasa pemrograman terbuka telah menjadi tulang punggung AI modern berkat kontribusi dari komunitas global, bukan karena dikendalikan satu perusahaan besar.
Selain itu, sumber terbuka mendorong kolaborasi yang lebih luas. AI yang dibangun secara terbuka mengundang dialog antara pengembang, pengguna, dan pemangku kepentingan lainnya. Ini penting agar AI tidak hanya “canggih”, tapi juga etis dan dapat dipercaya.
Ke depan, AI tidak bisa lagi dimonopoli oleh segelintir aktor tertutup. Seperti internet dan komputer pribadi yang berkembang lewat standar terbuka, AI pun harus mengikuti jejak serupa. Teknologi ini terlalu berpengaruh untuk disembunyikan. Komunitas terbuka yang peduli dan aktif harus bangkit dan menciptakan alternatif yang lebih inklusif, transparan, dan bertanggung jawab.
Transparansi dan kolaborasi adalah fondasi kepercayaan. AI sumber terbuka bukan hanya masa depan—ia adalah kebutuhan hari ini untuk menciptakan teknologi yang benar-benar melayani umat manusia.

