AI Generatif Bisa Menjerumuskan, Ini Risiko ChatGPT yang Perlu Kamu Tahu-Melek Teknologi

5 March 2026 14:01

Jakarta: Perkembangan kecerdasan buatan (AI) membawa banyak manfaat bagi pendidikan, produktivitas, dan inovasi. Namun di sisi lain, laporan sepanjang 2024–2025 juga menunjukkan meningkatnya kasus penyalahgunaan teknologi AI untuk tujuan yang merugikan.

Teknologi seperti ChatGPT yang dikembangkan oleh OpenAI pada dasarnya dirancang untuk membantu manusia. Tetapi dalam praktiknya, muncul sejumlah persoalan yang memicu perdebatan global tentang etika dan regulasi AI.
 

Dugaan Manipulasi Emosional dan Gugatan Hukum

Pada 2025, muncul gugatan hukum terhadap OpenAI terkait interaksi panjang antara chatbot dan pengguna yang sedang mengalami krisis emosional. Kasus ini memicu diskusi luas mengenai batas tanggung jawab AI dalam konteks kesehatan mental.

Beberapa laporan juga menyoroti kekhawatiran soal ketergantungan remaja terhadap chatbot, yang berpotensi berdampak negatif jika tidak diimbangi pendampingan dan literasi digital yang memadai.

Modus AI Scam: Bukti Transfer Palsu

AI kini juga dimanfaatkan dalam kejahatan siber. Pelaku penipuan menggunakan teknologi generatif untuk membuat bukti transfer palsu yang sangat meyakinkan. Detail nominal, nama penerima, hingga tampilan visual dapat dimodifikasi dengan presisi tinggi, sehingga sulit dibedakan secara kasat mata.

Modus ini memperlihatkan bagaimana AI dapat meningkatkan kecanggihan penipuan finansial.

Malware Berkedok Aplikasi ChatGPT

Kasus malware seperti “PipeMagic” menunjukkan adanya aplikasi palsu yang menyamar sebagai ChatGPT untuk mencuri data pengguna. Pelaku memanfaatkan popularitas AI untuk mengelabui korban agar mengunduh aplikasi berbahaya.

Fenomena ini menjadi pengingat penting agar pengguna hanya mengakses layanan AI dari sumber resmi.

Phishing yang Semakin Sempurna

Kemampuan AI dalam menyusun kalimat yang rapi dan profesional turut dimanfaatkan dalam serangan phishing. Email penipuan kini terlihat lebih meyakinkan, meningkatkan risiko serangan seperti Business Email Compromise (BEC) terhadap individu maupun perusahaan.

Tanda-tanda klasik penipuan seperti tata bahasa berantakan kini semakin jarang ditemukan.

Halusinasi AI dan Risiko Disinformasi

AI juga dapat menghasilkan informasi yang keliru atau tidak akurat, fenomena yang dikenal sebagai “halusinasi AI”. Dalam beberapa kasus global, keluaran AI yang tidak diverifikasi berpotensi mencemarkan nama baik individu atau menyebarkan informasi salah.
Hal ini menegaskan pentingnya verifikasi fakta sebelum mempercayai atau menyebarkan konten yang dihasilkan AI.
 
Para pakar keamanan siber menekankan bahwa teknologi pada dasarnya bersifat netral. Dampaknya sangat bergantung pada bagaimana manusia menggunakannya. Oleh karena itu, regulasi, pengawasan, serta peningkatan literasi digital menjadi kunci utama dalam menghadapi era kecerdasan buatan.
 

Di tengah percepatan inovasi, tantangan terbesar bukan hanya soal kecanggihan teknologi—melainkan bagaimana memastikan AI digunakan secara etis, aman, dan bertanggung jawab.

Jangan lupa saksikan MTVN Lens lainnya hanya di Metrotvnews.com. 

(Calista Vanis)

Jangan lupa ikuti update berita lainnya dan follow  akun
Google News Metrotvnews.com
(Zein Zahiratul Fauziyyah)