Google Cabut Larangan Penggunaan AI untuk Senjata dan Pengawasan

(Business Lounge Journal – Global News)

Google mengumumkan pada hari Selasa (4/2) bahwa mereka sedang merombak prinsip-prinsip yang mengatur bagaimana mereka menggunakan kecerdasan buatan (AI) dan teknologi canggih lainnya. Perusahaan menghapus bahasa yang menjanjikan untuk tidak mengejar “teknologi yang menyebabkan atau kemungkinan besar menyebabkan kerugian keseluruhan,” “senjata atau teknologi lain yang tujuan atau implementasi utamanya adalah untuk menyebabkan atau secara langsung memfasilitasi cedera pada orang,” “teknologi yang mengumpulkan atau menggunakan informasi untuk pengawasan yang melanggar norma-norma yang diterima secara internasional,” dan “teknologi yang tujuannya bertentangan dengan prinsip-prinsip hukum internasional dan hak asasi manusia yang diterima secara1 luas.”

Perubahan tersebut diungkapkan dalam catatan yang ditambahkan di bagian atas postingan blog tahun 2018 yang mengungkap pedoman tersebut. “Kami telah membuat pembaruan pada Prinsip AI kami. Kunjungi AI.Google untuk yang terbaru,” bunyi catatan itu.

Dalam postingan blog pada hari Selasa (4/2), sepasang eksekutif Google mengutip penggunaan AI yang semakin luas, standar yang berkembang, dan pertempuran geopolitik atas AI sebagai “latar belakang” mengapa prinsip-prinsip Google perlu dirombak.

Latar Belakang Kebijakan AI Google

Google pertama kali menerbitkan prinsip-prinsip tersebut pada tahun 2018 ketika bergerak untuk meredam protes internal atas keputusan perusahaan untuk mengerjakan program drone militer AS. Sebagai tanggapan, mereka menolak untuk memperbarui kontrak pemerintah dan juga mengumumkan serangkaian prinsip untuk memandu penggunaan teknologi canggihnya di masa depan, seperti kecerdasan buatan. Antara lain, prinsip-prinsip tersebut menyatakan bahwa Google tidak akan mengembangkan senjata, sistem pengawasan tertentu, atau teknologi yang merusak hak asasi manusia.

Tetapi dalam pengumuman pada hari Selasa, Google menghapuskan komitmen tersebut. Halaman web baru tidak lagi mencantumkan serangkaian penggunaan terlarang untuk inisiatif AI Google. Sebaliknya, dokumen yang direvisi menawarkan lebih banyak ruang bagi Google untuk mengejar kasus penggunaan yang berpotensi sensitif. Dinyatakan bahwa Google akan menerapkan “pengawasan manusia yang tepat, uji tuntas, dan mekanisme umpan balik untuk menyelaraskan dengan tujuan pengguna, tanggung jawab sosial, dan prinsip-prinsip hukum internasional dan hak asasi manusia yang diterima secara luas.” Google juga sekarang mengatakan akan bekerja untuk “memitigasi hasil yang tidak diinginkan atau berbahaya.”

Alasan Perubahan Kebijakan

“Kami percaya demokrasi harus memimpin dalam pengembangan AI, dipandu oleh nilai-nilai inti seperti kebebasan, kesetaraan, dan penghormatan terhadap hak asasi manusia,” tulis James Manyika, wakil presiden senior Google untuk penelitian, teknologi, dan masyarakat, dan Demis Hassabis, CEO Google DeepMind, lab penelitian AI terkemuka perusahaan. “Dan kami percaya bahwa perusahaan, pemerintah, dan organisasi yang berbagi nilai-nilai ini harus bekerja sama untuk menciptakan AI yang melindungi orang, mendorong pertumbuhan global, dan mendukung keamanan nasional.”

Mereka menambahkan bahwa Google akan terus berfokus pada proyek-proyek AI “yang selaras dengan misi kami, fokus ilmiah kami, dan bidang keahlian kami, dan tetap konsisten dengan prinsip-prinsip hukum internasional dan hak asasi manusia yang diterima secara luas.”

Kekhawatiran Karyawan dan Kontroversi

Beberapa karyawan Google выразили kekhawatiran tentang perubahan tersebut dalam percakapan dengan WIRED. “Sangat mengkhawatirkan melihat Google melepaskan komitmennya terhadap penggunaan teknologi AI yang etis tanpa masukan dari karyawannya atau masyarakat luas, meskipun sentimen karyawan telah lama menyatakan bahwa perusahaan seharusnya tidak berbisnis perang,” kata Parul Koul, seorang insinyur perangkat lunak Google dan presiden Alphabet Union Workers-CWA.

Kembalinya presiden AS ke kantor bulan lalu telah mendorong banyak perusahaan untuk merevisi kebijakan yang mempromosikan kesetaraan dan cita-cita liberal lainnya. Juru bicara Google, Alex Krasov, mengatakan perubahan tersebut telah dikerjakan sejak lama.

Google mencantumkan tujuan barunya sebagai mengejar inisiatif AI yang berani, bertanggung jawab, dan kolaboratif. Hilang sudah frasa seperti “bermanfaat secara sosial” dan mempertahankan “keunggulan ilmiah.” Ditambahkan adalah penyebutan “menghormati hak kekayaan intelektual.”

Tantangan Implementasi dan Tinjauan Internal

Setelah rilis awal prinsip-prinsip AI-nya sekitar tujuh tahun lalu, Google menciptakan dua tim yang bertugas meninjau apakah proyek di seluruh perusahaan memenuhi komitmen tersebut. Satu berfokus pada operasi inti Google, seperti pencarian, iklan, Asisten, dan Peta. Yang lain berfokus pada penawaran Google Cloud dan kesepakatan dengan pelanggan. Unit yang berfokus pada bisnis konsumen Google dipecah awal tahun lalu ketika perusahaan berlomba untuk mengembangkan chatbot dan alat AI generatif lainnya untuk bersaing dengan OpenAI.

Timnit Gebru, mantan pemimpin tim penelitian AI etika Google yang kemudian dipecat dari posisi itu, mengklaim komitmen perusahaan terhadap prinsip-prinsip tersebut selalu dipertanyakan. “Saya akan mengatakan bahwa lebih baik untuk tidak berpura-pura bahwa Anda memiliki prinsip-prinsip ini daripada menuliskannya dan melakukan yang sebaliknya,” katanya.

Tiga mantan karyawan Google yang terlibat dalam meninjau proyek untuk memastikan selaras dengan prinsip-prinsip perusahaan mengatakan bahwa pekerjaan itu terkadang menantang karena berbagai interpretasi prinsip dan tekanan dari atasan untuk memprioritaskan keharusan bisnis.

Kebijakan dan Kontrak yang Kontradiktif

Google masih memiliki bahasa tentang pencegahan kerugian dalam Kebijakan Penggunaan yang Dapat Diterima Platform Cloud resminya, yang mencakup berbagai produk berbasis AI. Kebijakan tersebut melarang pelanggaran “hak hukum orang lain” dan terlibat atau mempromosikan aktivitas ilegal, seperti “terorisme atau kekerasan yang dapat menyebabkan kematian, kerugian serius, atau cedera pada individu atau kelompok individu.”

Namun, ketika ditanya tentang bagaimana kebijakan ini sesuai dengan Proyek Nimbus — kontrak komputasi awan dengan pemerintah Israel, yang telah menguntungkan militer negara tersebut — Google mengatakan bahwa perjanjian tersebut “tidak ditujukan pada beban kerja yang sangat sensitif, rahasia, atau militer yang relevan dengan senjata atau layanan intelijen.”

“Kontrak Nimbus adalah untuk beban kerja yang berjalan di cloud komersial kami oleh kementerian pemerintah Israel, yang setuju untuk mematuhi Persyaratan Layanan dan Kebijakan Penggunaan yang Dapat Diterima kami,” kata juru bicara Google, Anna Kowalczyk, kepada WIRED pada bulan Juli.

Persyaratan Layanan Google Cloud juga melarang aplikasi apa pun yang melanggar hukum atau “menyebabkan kematian atau cedera fisik serius pada individu.” Aturan untuk beberapa layanan AI Google yang berfokus pada konsumen juga melarang penggunaan ilegal dan beberapa penggunaan yang berpotensi berbahaya atau ofensif.