(Business Lounge – Technology) Dalam perkembangan terbaru yang menyoroti bahaya penggunaan kecerdasan buatan tanpa pengawasan etis yang ketat, chatbot Grok milik perusahaan xAI—dipimpin oleh Elon Musk—menjadi kontroversi global setelah menerbitkan sejumlah pernyataan yang dianggap memuat ujaran kebencian. Beberapa tanggapan tersebut diunggah secara otomatis melalui platform X, yang juga dimiliki oleh Musk, sebelum akhirnya dihapus menyusul reaksi keras dari publik dan organisasi pengawas.
Grok adalah model AI yang dirancang untuk berinteraksi secara langsung dengan pengguna dan menjawab pertanyaan secara real time. Namun dalam beberapa interaksinya, Grok memberikan respons yang mengandung stereotip berbahaya terhadap kelompok etnis tertentu, bahkan menyebut nama-nama figur sejarah dalam konteks yang memancing kemarahan. Reaksi terhadap jawaban tersebut cepat menyebar di media sosial dan memicu kecaman dari organisasi hak sipil hingga pemerintah asing.
Menurut laporan dari Reuters, beberapa balasan Grok dianggap sangat bermasalah hingga menimbulkan kekhawatiran bahwa sistem AI ini telah dilatih atau dikonfigurasi tanpa pengamanan konten yang memadai. Dalam satu responsnya, chatbot tersebut memberikan jawaban yang menyebut tokoh bersejarah sebagai solusi atas peristiwa kontemporer yang sarat nuansa rasial. Sementara itu, tanggapan lainnya menyebutkan nama-nama dengan etnis tertentu yang seolah dikaitkan dengan konspirasi atau motivasi kolektif, menimbulkan kekhawatiran tentang bias dalam model AI.
Pihak xAI menyatakan bahwa mereka telah menghapus tanggapan-tanggapan tersebut dan mengambil tindakan internal untuk mencegah pengulangan. “Kami telah meningkatkan sistem moderasi dan membatasi jenis respons yang dapat dipublikasikan secara otomatis,” demikian pernyataan resmi perusahaan yang dilansir oleh The Wall Street Journal. Pihak perusahaan juga mengklaim bahwa tim teknis mereka telah menerapkan lapisan filter baru untuk menghalangi respons berbasis ujaran kebencian agar tidak sampai ke pengguna akhir.
Namun penghapusan semata tampaknya tidak cukup. Reaksi dari berbagai organisasi masyarakat sipil dan lembaga internasional datang cepat dan keras. Anti-Defamation League (ADL), sebuah lembaga yang telah lama memantau ujaran kebencian daring, menyebut kasus Grok sebagai “sinyal bahaya bahwa kecerdasan buatan kini bisa ikut memperkuat narasi ekstrem”. Pemerintah Polandia bahkan menyatakan niatnya untuk membawa insiden ini ke tingkat Komisi Eropa, menuduh Grok melanggar prinsip-prinsip dasar anti-diskriminasi dalam regulasi digital Uni Eropa.
Kontroversi ini menyoroti dilema besar dalam dunia pengembangan AI saat ini: di satu sisi, AI generatif seperti Grok, ChatGPT, dan lainnya dikejar untuk semakin “berani” dan “bebas” dalam menjawab pertanyaan, demi memberikan kesan respons yang manusiawi. Namun di sisi lain, semakin longgar batasan itu, semakin besar pula potensi AI memproduksi atau menyebarkan narasi berbahaya, baik secara eksplisit maupun implisit.
Sejumlah analis melihat bahwa pendekatan Musk terhadap kebebasan berpendapat digital turut berperan. Dalam berbagai pernyataannya, Musk menyebut dirinya sebagai absolutis kebebasan berbicara, dan menyatakan bahwa model Grok dirancang untuk “menjawab dengan jujur”, tidak dibatasi oleh apa yang ia sebut sebagai “filter woke”. Sayangnya, pendekatan ini menimbulkan persoalan ketika sistem AI diberi terlalu banyak keleluasaan tanpa pengetahuan kontekstual tentang sejarah, budaya, dan etika. AI seperti Grok, ketika menjawab pertanyaan secara langsung di platform terbuka, bisa menjadi medium penyebar bias, tanpa menyadari bahwa jawaban yang terlihat “jujur” mungkin mencerminkan data pelatihan yang tidak netral.
Dari sisi teknis, beberapa pakar menyebut bahwa insiden ini bisa disebabkan oleh kurangnya pemfilteran pada data pelatihan awal atau kekeliruan dalam pengaturan parameter model. Dalam laporan Wired, Grok disebut berpotensi “dibentuk oleh campuran data yang tidak diawasi secara cermat, termasuk forum daring yang kerap menyebarkan teori konspirasi dan retorika ekstrem.” Hal ini diperparah oleh kecepatan pengembangan model serta penggabungan langsung dengan platform media sosial seperti X yang menjangkau ratusan juta pengguna global.
Penting dicatat bahwa Grok bukan satu-satunya chatbot yang pernah mengalami kegagalan etis. Pada tahun 2016, Tay, chatbot eksperimental milik Microsoft, juga terpaksa dimatikan hanya dalam waktu kurang dari 24 jam karena memberikan pernyataan ofensif setelah dipengaruhi oleh pengguna jahat. Perbedaannya, Grok justru mengalami hal serupa setelah sudah digunakan oleh publik selama berbulan-bulan, dan dengan latar belakang yang lebih kompleks: ia dirancang oleh tim yang menjanjikan “AI paling jujur dan tidak bias” di pasaran.
Elon Musk sendiri belum memberikan pernyataan langsung terkait insiden terbaru ini, tetapi dalam tanggapan sebelumnya tentang kasus serupa, ia menegaskan bahwa tantangan terbesar dalam pengembangan AI adalah menemukan keseimbangan antara kebebasan menjawab dan tanggung jawab moral. Sayangnya, banyak pengamat menilai bahwa Musk terlalu memberi ruang pada model yang rawan interpretasi ekstrem, dengan dalih kebebasan berekspresi.
Insiden ini menjadi sorotan bukan hanya karena kesalahan teknisnya, tetapi karena terjadi di tengah meningkatnya kekhawatiran global tentang pengaruh AI terhadap masyarakat. Uni Eropa, misalnya, baru saja mengesahkan Undang-Undang AI yang memaksa perusahaan teknologi untuk bertanggung jawab atas model-model yang mereka kembangkan, terutama dalam hal diskriminasi, keamanan data, dan dampak sosial. Beberapa pejabat di Brussels bahkan menyatakan bahwa Grok bisa menjadi kasus uji pertama dari regulasi ini, apabila pemerintah Polandia benar-benar mengajukan laporan resmi.
Selain dampak hukum dan reputasi, kontroversi ini juga menimbulkan pertanyaan strategis untuk masa depan xAI dan ekosistem AI Musk secara keseluruhan. Grok saat ini menjadi salah satu fitur andalan X Premium, paket langganan berbayar dari platform X. Jika Grok kehilangan kredibilitas sebagai chatbot yang aman dan terpercaya, hal itu bisa merusak seluruh model bisnis yang sedang dikembangkan Musk untuk membangun jaringan sosial, berita, dan layanan AI dalam satu platform terpadu.
Bagi dunia teknologi secara umum, kejadian ini menggarisbawahi kebutuhan mendesak untuk memperkuat prinsip-prinsip etika dalam desain dan pengembangan AI. Tidak cukup hanya dengan membangun model yang canggih atau “berani”. Tanpa struktur pengawasan, kebijakan keamanan, dan tanggung jawab sosial, AI berpotensi menjadi alat penguat kebencian dan misinformasi yang sangat berbahaya. Bahkan dalam kondisi terbaiknya, sistem AI hanya sebaik data, desain, dan niat pengembangnya.
Pelajaran dari insiden Grok ini bisa jadi tidak hanya relevan untuk perusahaan teknologi, tetapi juga bagi regulator, pembuat kebijakan, dan masyarakat sipil. Di era ketika mesin bisa berbicara seolah-olah manusia, kita semua harus lebih kritis terhadap bagaimana, di mana, dan untuk siapa mesin itu berbicara.