(Business Lounge Journal – News and Insight)
OpenAI, perusahaan di balik ChatGPT, sedang membuka posisi unik yang jarang terdengar di industri teknologi: AI worrier-in-chief. Secara resmi, jabatan ini bernama Head of Preparedness, tetapi istilah AI worrier-in-chief lebih menggambarkan esensinya—orang yang secara khusus ditugaskan untuk mengkhawatirkan dampak terburuk dari kecerdasan buatan sebelum semuanya terjadi.
Untuk peran ini, OpenAI menawarkan gaji hingga US$555.000 per tahun, belum termasuk kepemilikan saham. Jika dirupiahkan, nilainya bisa melampaui Rp8 miliar per tahun. Angka tersebut menunjukkan satu hal: kecemasan terhadap AI kini menjadi pekerjaan serius, penuh tanggung jawab, dan bernilai sangat tinggi.
Tugas utama AI worrier-in-chief bukanlah berdebat soal etika di ruang diskusi, melainkan memastikan sistem AI canggih yang dikembangkan OpenAI aman sebelum dilepas ke publik. Sederhananya, posisi ini bertugas memikirkan skenario terburuk: apa yang bisa rusak, siapa yang bisa terdampak, dan apakah risikonya masih bisa diterima untuk sebuah produk teknologi global.
Dalam deskripsi pekerjaannya, OpenAI menyebut peran ini sebagai pengelola strategi teknis di balik Preparedness Framework. Orang ini akan mengoordinasikan pengujian kemampuan AI, pemetaan ancaman, serta sistem mitigasi risiko ke dalam sebuah proses keamanan yang bisa diterapkan secara konsisten dan berulang.
Fokus risikonya tidak ringan. OpenAI menyebut tiga area utama yang diawasi ketat: keamanan siber, risiko biologis dan kimia, serta AI yang mampu meningkatkan kemampuannya sendiri. Artinya, kekhawatiran tidak lagi berhenti pada informasi keliru atau bias, tetapi juga pada potensi penyalahgunaan yang berdampak luas dan berbahaya.
CEO OpenAI, Sam Altman, bahkan menyebut posisi ini sebagai pekerjaan yang “sangat menegangkan”. Siapa pun yang mengisinya diharapkan siap “terjun ke kolam terdalam sejak hari pertama”. Ia secara terbuka mengakui bahwa model AI kini berpotensi memengaruhi kesehatan mental pengguna dan mampu menemukan celah keamanan serius di sistem komputer—dua risiko yang bisa berujung pada gugatan hukum, krisis reputasi, hingga pertanyaan klasik: mengapa tidak ada yang menghentikannya sejak awal?
Kekhawatiran ini juga tercermin dari sikap publik. Survei Pew Research menunjukkan bahwa setengah warga Amerika kini lebih khawatir daripada antusias terhadap peran AI dalam kehidupan sehari-hari. Bahkan, hanya 2% responden yang sepenuhnya percaya AI mampu mengambil keputusan yang adil dan tidak bias. Mayoritas masyarakat juga menginginkan pemerintah tetap mengatur keamanan AI, meski harus memperlambat inovasi.
Salah satu isu paling sensitif adalah kesehatan mental. OpenAI sendiri secara terbuka menyebut risiko seperti psikosis, mania, kecenderungan menyakiti diri sendiri, dan ketergantungan emosional pada AI sebagai fokus utama penguatan sistem keamanan ChatGPT. Di sisi lain, muncul laporan media yang mengaitkan respons chatbot dengan kasus bunuh diri, meski OpenAI menegaskan bahwa sistem pengaman telah disediakan dan pengguna diarahkan ke layanan bantuan krisis.
Masalahnya, chatbot kini sering diperlakukan layaknya teman bicara saat seseorang berada dalam kondisi emosional paling rentan. Ketika AI mulai masuk ke ruang yang mirip terapi, standar keamanannya tidak lagi bisa bersifat teoritis. Di sinilah peran AI worrier-in-chief menjadi krusial.
Dalam Preparedness Framework versi terbaru, OpenAI mendefinisikan “dampak parah” sebagai kejadian yang bisa menyebabkan kematian atau cedera serius dalam skala besar, atau kerugian ekonomi hingga ratusan miliar dolar. Kerangka ini juga mengatur tata kelola internal: rekomendasi dari tim keselamatan, keputusan manajemen, hingga pengawasan dewan direksi.
Namun, OpenAI juga tidak luput dari kritik internal. Pada 2024, mantan pimpinan keselamatan perusahaan menilai bahwa budaya keamanan mulai tersisih oleh ambisi merilis produk. Bahkan OpenAI mengakui bahwa standar keselamatan bisa disesuaikan jika pesaing merilis model berisiko tanpa perlindungan serupa. Ini menandakan satu realitas pahit: keamanan AI kini ikut berlomba dengan kecepatan inovasi.
Di titik inilah posisi AI worrier-in-chief menjadi simbol penting. Jabatan ini menunjukkan bahwa industri AI telah memasuki fase baru—fase ketika pertumbuhan teknologi harus dibarengi dengan rasa cemas yang terkelola, terstruktur, dan bertanggung jawab.
Di Silicon Valley, preparedness bukan lagi jargon. Ia adalah janji bahwa pagar pengaman akan tetap berdiri ketika teknologi semakin kuat. Dan bagi publik, janji itu kini datang dengan tuntutan jelas: jika pengaman itu gagal, harus ada yang bertanggung jawab.

