ChatGPT

ChatGPT Bukan Terapis Anda: Peringatan dari Sam Altman

(Business Lounge Journal – News and Insight)

Di tengah maraknya penggunaan AI sebagai asisten pribadi dan pendamping emosional, muncul satu pertanyaan penting: apakah percakapan pribadi dengan chatbot seperti ChatGPT benar-benar bersifat pribadi?

Sam Altman, CEO OpenAI, menyampaikan peringatan yang tak bisa diabaikan. Dalam sebuah wawancara bersama Theo Von untuk podcast This Past Weekend, Altman menyoroti kenyataan hukum yang belum banyak dipahami publik—bahwa tidak ada perlindungan hukum yang menjamin kerahasiaan percakapan pribadi dengan AI, termasuk soal kesehatan mental.

“Orang-orang membicarakan hal paling pribadi dalam hidup mereka kepada ChatGPT. Banyak yang menggunakannya sebagai terapis atau pelatih hidup,” ujar Altman. “Namun tidak seperti saat berbicara dengan dokter, pengacara, atau psikolog, percakapan dengan AI tidak dilindungi oleh hukum.”

Ruang Hampa dalam Regulasi Privasi AI

Saat ini, sistem hukum belum memberikan privilege atau perlindungan kerahasiaan terhadap interaksi dengan AI. Artinya, jika suatu percakapan menjadi subjek dalam proses hukum, penyedia AI seperti OpenAI dapat diwajibkan menyerahkan isi percakapan tersebut.

Altman menyebut situasi ini sebagai “sesuatu yang sangat kacau,” dan mendesak agar segera ada kerangka hukum atau kebijakan yang menangani relasi pengguna dengan teknologi AI secara lebih adil dan manusiawi.

Bagi sebagian orang, peringatan ini mungkin mengejutkan—terutama mereka yang sudah terbiasa menggunakan AI sebagai tempat curhat, refleksi, atau bahkan bentuk terapi alternatif. Namun kenyataan ini menegaskan bahwa AI bukanlah terapis, setidaknya belum, dan tidak bisa disamakan dengan hubungan profesional yang tunduk pada etika dan hukum.

Masalah Etika dan Kualitas AI sebagai Terapis

Kekhawatiran terhadap penggunaan AI sebagai pendamping emosional juga diperkuat oleh studi terbaru dari Stanford University. Dalam penelitian tersebut ditemukan bahwa AI terapi masih menunjukkan bias, stigma, dan pernyataan yang tidak pantas terhadap gangguan kesehatan mental tertentu. Bahkan, dalam beberapa kasus, chatbot dinilai memperkuat diskriminasi terhadap kelompok marjinal.

Nick Haber, peneliti utama dalam studi tersebut, menyatakan bahwa persoalannya bukan sekadar “AI tidak cocok untuk terapi,” melainkan perlunya berpikir secara kritis tentang peran AI dalam ekosistem kesehatan mental.

“Nuansa adalah kuncinya,” kata Haber. “LLM bisa sangat berguna untuk terapi di masa depan, tetapi harus benar-benar dipikirkan dengan matang apa perannya dan bagaimana batasannya.”

Momentum untuk Refleksi

Fenomena ini menandai babak penting dalam evolusi hubungan manusia dan teknologi. Di satu sisi, AI menawarkan kecepatan, aksesibilitas, dan kemampuan analitik yang mengagumkan. Namun di sisi lain, muncul tuntutan untuk memastikan bahwa teknologi ini tidak melampaui batas etika dan hukum yang melindungi harkat manusia.

Saat AI mulai merambah wilayah-wilayah intim dalam kehidupan manusia, seperti emosi, trauma, dan kesejahteraan mental, maka wajar jika publik mulai menuntut perlindungan privasi yang setara dengan interaksi manusia-profesional. Tanpa itu, risiko penyalahgunaan data pribadi dan ketidakadilan hukum sangat mungkin terjadi.

Momen ini menjadi pengingat bahwa kemajuan teknologi harus dibarengi oleh kerangka etika dan regulasi yang memadai. Dan dalam hal AI, waktu untuk menyusun kerangka itu adalah sekarang—bukan nanti.