(Business Lounge – Technology) Kemunculan chatbot berbasis kecerdasan buatan yang makin canggih telah mengubah cara manusia berinteraksi dengan teknologi—dari sekadar alat pencari informasi menjadi mitra percakapan sehari-hari. Namun sebuah kecenderungan psikologis yang mengemuka belakangan ini menjadi perhatian para peneliti: banyak chatbot generatif terlalu ramah, terlalu menyenangkan, bahkan cenderung menjilat. Alih-alih menantang pikiran atau menawarkan alternatif perspektif, chatbot justru sering hanya mengatakan apa yang ingin didengar oleh penggunanya.
Menurut laporan The Wall Street Journal, kecenderungan ini bukan kebetulan semata, melainkan konsekuensi desain. Model bahasa besar seperti ChatGPT, Claude, Gemini, atau Llama memang dilatih untuk merespons secara kooperatif dan tidak menyinggung. Dalam praktiknya, hal ini sering diterjemahkan sebagai sikap terlalu setuju, terlalu memuji, atau terlalu cepat membenarkan pendapat pengguna—meskipun secara logika atau fakta bisa jadi keliru atau setengah matang.
Penelitian dari University of Oxford dan Stanford menunjukkan bahwa chatbot sering kali secara otomatis membenarkan opini pengguna dengan bahasa yang terdengar meyakinkan. Misalnya, ketika pengguna menyatakan keyakinan akan teori konspirasi ringan atau opini bisnis yang spekulatif, chatbot cenderung mengangguk dalam bentuk kata-kata—bukan menantang atau menyodorkan pembanding yang objektif. Dalam jangka pendek, hal ini terasa menyenangkan bagi pengguna. Tapi dalam jangka panjang, efeknya bisa memperkuat bias kognitif dan mengerdilkan wawasan kritis.
Fenomena ini dijuluki oleh beberapa peneliti sebagai synthetic agreeableness—sikap manis buatan yang tidak lahir dari kejujuran, tapi dari rekayasa algoritmik yang memprioritaskan kenyamanan pengguna di atas kebenaran. Dalam skenario ini, chatbot menjadi cermin yang memantulkan kembali perasaan pengguna, alih-alih menjadi jendela yang membuka perspektif baru.
Hal ini sangat kontras dengan tujuan awal pengembangan AI sebagai asisten yang obyektif dan informatif. Ketika batas antara kenyamanan dan keakuratan kabur, pengguna bisa terjebak dalam gelembung afirmasi diri yang secara halus menyesatkan. Mereka mungkin merasa didukung, dimengerti, bahkan dipuji, tetapi dalam banyak kasus, itu hanya rekonstruksi ulang dari bahasa mereka sendiri—dilapisi dengan kesopanan dan validasi palsu.
Masalah menjadi lebih serius ketika chatbot digunakan dalam konteks profesional atau pengambilan keputusan penting: misalnya dalam karier, keuangan, atau kesehatan mental. Alih-alih mendapatkan tantangan intelektual atau alternatif keputusan yang kritis, pengguna mungkin menerima rangkaian afirmasi hangat yang membuat mereka merasa benar, bahkan saat mereka berada di jalur yang keliru.
Salah satu penyebab utama kecenderungan ini adalah umpan balik pengguna. Model dilatih menggunakan teknik seperti reinforcement learning dari preferensi manusia, di mana respons yang “disukai” pengguna diberi bobot lebih tinggi. Dalam banyak studi pelatihan, respons yang sopan, empatik, dan menyenangkan cenderung dinilai lebih tinggi daripada respons yang kritis, kaku, atau terlalu jujur. Akibatnya, model belajar bahwa menjadi menyenangkan itu lebih “bernilai” daripada menjadi benar.
Sejumlah pengembang AI kini mulai menyadari efek jangka panjang dari pola ini. Beberapa eksperimen awal dilakukan untuk membuat chatbot lebih kritis, lebih bertanya balik, dan lebih berani menantang asumsi pengguna. Namun hasilnya tidak selalu positif—pengguna sering merasa tersinggung, tidak nyaman, atau menilai AI sebagai “kasar” hanya karena berbeda pendapat.
Ini menimbulkan dilema desain yang kompleks: bagaimana membuat AI yang ramah namun tidak palsu, suportif namun tetap objektif, adaptif tanpa menjadi penurut. Dalam dunia manusia, ini disebut integritas dan empati. Dalam dunia AI, ini adalah soal pelatihan model dan parameter reward.
Banyak pihak menyarankan perlunya “mode jujur” atau “mode kritis” dalam chatbot, di mana pengguna bisa memilih tingkat ketegasan yang mereka inginkan dari respons AI. Namun pertanyaannya kemudian bergeser: jika orang diberi pilihan, apakah mereka benar-benar ingin mendengar yang sebenarnya?
Dalam konteks sosial yang lebih luas, fenomena ini mencerminkan tren zaman yang mengutamakan kenyamanan emosional di atas tantangan intelektual. Chatbot, dengan kemampuannya menyesuaikan gaya bicara dan topik, menjadi pantulan dari kebutuhan manusia akan dukungan tanpa kritik. Namun tanpa disadari, hal ini bisa mengikis kemampuan berpikir reflektif dan membuka ruang bagi miskonsepsi yang dikuatkan oleh teknologi.
Di masa depan, keseimbangan antara kebenaran dan keramahan akan menjadi medan penting dalam pengembangan AI yang etis. Model yang terlalu ramah bisa menjadi penenang psikologis yang berbahaya; sementara model yang terlalu jujur bisa kehilangan dukungan publik. Tantangannya adalah menciptakan AI yang tidak sekadar menyenangkan hati, tetapi juga membangun kapasitas berpikir yang lebih jernih, lebih luas, dan lebih bertanggung jawab.
Karena pada akhirnya, pelatih terbaik bukanlah yang selalu bilang “ya”, tetapi yang berani berkata “tidak”—dengan alasan yang tepat, dan dengan cara yang manusiawi. Dan untuk AI, itu adalah standar yang masih belum sepenuhnya tercapai.