Bahaya Curhat ke ChatGPT! Bisa Picu Risiko Psikologis-Melek Teknologi

27 April 2026 17:20

Jakarta: Kecerdasan buatan atau artificial intelligence (AI) kini semankin sering dimanfaatkan untuk berbagai kebutuhan, termasuk tempat mencurahkan isi hati. Namun, psikolog mengingatkan kebiasaan terlalu sering curhat ke chatbot AI seperti ChatGPT dapat menimbulkan risiko, terutama jika digunakan sebagai pengganti bantuan profesional.

Dalam unggahan instagram @theaifield menunjukkan seorang psikoterapis dan penulis, Joe Nucci, viral karena membagikan percakapannya dengan ChatGPT soal “kebenaran paling kejam dalam psikologi”.

Jawaban AI yang dinilai tajam dan blak-blakan memicu banyak orang merasa “dipahami”, bahkan menjadikan chatbot sebagai ruang konsultasi emosional.Namun di balik tren itu, para ahli menilai AI tetap tidak bisa menggantikan fungsi terapis manusia.
 

 

Risiko Self-Diagnose dan Validasi yang Menyesatkan

Salah satu kekhawatiran utama adalah meningkatnya praktik self-diagnose atau mendiagnosis diri sendiri hanya berdasarkan respons AI. Hal ini dinilai berbahaya karena jawaban chatbot berpotensi dianggap sebagai validasi mutlak, padahal belum tentu sesuai kondisi psikologis pengguna.

AI bekerja dengan mengenali pola bahasa dan menyusun respons berdasarkan data, bukan melalui penilaian klinis. Karena itu, respons yang terdengar meyakinkan belum tentu akurat, bahkan bisa keluar dari konteks dan memperburuk pemahaman seseorang tentang kondisi dirinya.

Alasan Chatbot AI Tidak Layak Dijadikan Terapis

Melansir dari Media Indonesia, ada sejumlah alasan mengapa chatbot AI tidak layak dijadikan terapis.
  1. Chatbot berpotensi menciptakan lingkaran umpan balik berbahaya, yakni memperkuat pikiran negatif pengguna karena responnya menyesuaikan pola percakapan.
  2. AI dinilai tidak konsisten dalam percakapan panjang. Kesalahan kecil dalam memahami konteks di awal obrolan bisa berkembang menjadi saran yang keliru.
  3.  remaja dan kelompok rentan disebut paling berisiko salah menafsirkan respons chatbot sebagai bentuk empati manusia, padahal yang dihadapi hanyalah sistem komputer.
  4. Orang yang ahli dalam hal kesehatan mental menyarankan bantuan kesehatan mental tetap dicari melalui orang terpercaya, komunitas pendukung, atau tenaga profesional.

Data Pribadi Juga Berisiko Bocor

Selain persoalan psikologis, penggunaan AI untuk curhat juga dinilai berisiko dari sisi privasi.

Dilansir dari Universitas Muhammadiyah Malang, peneliti Stanford Human-Centered AI Jennifer King, ada sejumlah informasi sensitif yang tidak seharusnya dibagikan ke chatbot, seperti data pribadi, informasi keuangan, dan rekam medis.

Data seperti nomor identitas, alamat rumah, hingga informasi kesehatan dinilai tidak aman dibagikan karena sistem AI tidak dirancang sebagai tempat penyimpanan data sensitif.
 

Meski AI dapat membantu memberi perspektif awal, para ahli menegaskan chatbot sebaiknya diposisikan sebagai alat bantu, bukan tempat terapi utama.

Jika seseorang sedang mengalami tekanan mental, kecemasan, atau membutuhkan dukungan emosional, berbicara dengan keluarga, teman dekat, psikolog, atau tenaga profesional tetap menjadi pilihan paling aman. Di tengah perkembangan teknologi yang kian canggih, para psikolog mengingatkan bahwa empati, penilaian klinis, dan relasi manusia tetap belum bisa digantikan oleh chatbot.

Jangan lupa saksikan MTVN Lens lainnya hanya di Metrotvnews.com. 

(Jessica Nur Faddilah)

Jangan lupa ikuti update berita lainnya dan follow  akun
Google News Metrotvnews.com
(Zein Zahiratul Fauziyyah)