(Business Lounge Journal – News and Insight)
Perusahaan-perusahaan kecerdasan buatan besar termasuk OpenAI, Meta Platforms, dan Google Alphabet pada minggu lalu sepakat untuk menerapkan langkah-langkah keamanan baru untuk melindungi anak-anak dari eksploitasi dan menutup beberapa lubang pada pertahanan mereka saat ini. Tujuan dari aliansi baru ini adalah untuk membatasi pembuatan konten berbau pornografi yang saat ini juga marak diciptakan sejumlah alat generatif baru yang didukung AI, demikian disampaikan Thorn, sebuah kelompok keselamatan anak yang membantu mengorganisir inisiatif ini bersama dengan organisasi nirlaba All Tech Is Human.
Thorn dan beberapa perusahaan AI sepakat untuk menerapkan prinsip-prinsip untuk meminimalkan risiko alat mereka. Salah satu prinsip tersebut mengharuskan laboratorium AI untuk menghindari kumpulan data yang mungkin berisi konten seksual anak-anak dan menghapus materi tersebut dari materi pelatihan mereka sendiri. Mereka ingin perusahaan-perusahaan berinvestasi lebih banyak dalam redteaming secara teratur, atau pengujian untuk menemukan dan memperbaiki kesenjangan yang memungkinkan material tersebut dihasilkan.
Thorn mendorong platform AI dan mesin pencari seperti Google untuk menghapus tautan ke layanan yang “nudify” gambar anak-anak yang tidak berbahaya—sebuah masalah yang muncul di sekolah menengah atas selama setahun terakhir. “Proyek ini dimaksudkan untuk memperjelas bahwa Anda tidak perlu menyerah begitu saja,” kata Rebecca Portnoff, wakil presiden ilmu data di Thorn. “Kami ingin dapat mengubah arah teknologi ini sehingga dampak buruk yang ada dari teknologi ini dapat dihilangkan.” Para eksekutif di perusahaan AI yang terlibat mengatakan mereka tidak ingin membiarkan alat mereka membuat materi eksploitasi anak.
Beberapa eksekutif dan pendukung keselamatan anak mengatakan bahwa jika kumpulan data ini terlalu disanitasi, produk AI akan menjadi kurang bermanfaat bagi konsumen. Tahun lalu, Pusat Nasional untuk Anak Hilang dan Tereksploitasi, atau NCMEC, menerima 36 juta laporan eksploitasi anak. Pusat ini kewalahan dengan banyaknya laporan karena keterbatasan dana, teknologi yang ketinggalan jaman, dan kendala hukum dalam menangani materi sensitif. Ketika Thorn mendekati perusahaan AI, mereka menemukan bahwa meskipun beberapa perusahaan telah memiliki tim besar yang fokus pada penghapusan materi pelecehan seksual terhadap anak, perusahaan lain tidak menyadari masalah dan solusi potensialnya.
Ada juga ketegangan antara keharusan untuk melindungi alat-alat ini dan dorongan para pemimpin bisnis untuk bergerak cepat guna memajukan teknologi AI baru. “Kami tidak ingin menghindari membantu kemajuan teknologi karena rasa takut,” kata Justin Maier, pendiri platform AI open-source Civitai, yang merupakan bagian dari aliansi tersebut. “Saya pikir daripada lari dari hal tersebut, lebih baik memikirkan bagaimana kita bisa membuat ruang tersebut lebih aman.” Civitai, yang didukung oleh perusahaan modal ventura Andreessen Horowitz, dikritik karena tidak berbuat banyak untuk melindungi anak-anak. Platform berita teknologi 404 Media melaporkan pada bulan Desember bahwa beberapa gambar di platform tersebut dapat dianggap sebagai pornografi anak. Civitai mengatakan pihaknya menanggapi masalah ini dengan serius dan memperkuat pertahanannya untuk menghilangkan gambar-gambar yang eksploitatif.
Thorn dan pendukung lainnya khawatir bahwa alat AI baru akan “menumbuhkan tumpukan jerami” yang berpotensi melanggar materi, sehingga memaksa petugas penegak hukum menghabiskan lebih banyak waktu untuk menentukan apakah anak dalam gambar itu nyata. Untuk membantu menghindari masalah ini, Thorn dan perusahaan-perusahaan dalam aliansi ini juga setuju untuk menambahkan sinyal yang membantu pihak lain menentukan apakah konten dihasilkan atau ditingkatkan oleh AI.
Platform media sosial mengandalkan sistem deteksi gambar otomatis yang terutama mencocokkan hash, atau sidik jari dari gambar dan video pelecehan seksual terhadap anak-anak. Namun, konten yang dihasilkan AI merupakan hal yang baru dan kemungkinan besar tidak menyertakan sidik jari tersebut, sehingga menjadikan alat yang ada saat ini menjadi kurang efektif. Banyak perusahaan telah mencoba menyingkirkan konten AI yang mengeksploitasi anak-anak melalui filter dan rekayasa cepat. Namun pertahanan tersebut bisa gagal.