Ilustrasi: via Meritalk
Heboh Konten AI Tak Senonoh, Prancis dan Malaysia Selidiki Grok
Putri Purnama Sari • 6 January 2026 16:52
Jakarta: Perkembangan teknologi kecerdasan buatan (Artificial Intelligence/AI) kembali menjadi sorotan dunia. Kali ini, AI Grok, chatbot berbasis AI yang terintegrasi di platform X milik Elon Musk tengah diselidiki oleh pemerintah Prancis dan Malaysia menyusul munculnya laporan terkait konten AI tidak senonoh yang dihasilkan oleh sistem tersebut.
Kasus ini memicu kekhawatiran global mengenai potensi penyalahgunaan teknologi AI, khususnya dalam pembuatan gambar atau konten visual yang melanggar norma etika dan hukum.
Melihat hal tersebut, Grok akhirnya mengunggah permintaan maaf melalui akun resminya terkait insiden konten tidak senonoh yang terjadi pada 28 Desember 2025 lalu.
Grok mengakui telah menghasilkan dan membagikan gambar AI yang menampilkan dua anak perempuan berusia sekitar 12–16 tahun dalam busana yang diseksualisasi berdasarkan permintaan pengguna.
Dugaan Konten AI Tidak Senonoh Jadi Pemicu Penyelidikan
Penyelidikan dilakukan setelah beredar laporan bahwa Grok sempat menghasilkan konten visual bernuansa seksual berdasarkan perintah (prompt) dari pengguna. Konten tersebut dinilai bermasalah karena berpotensi melanggar regulasi perlindungan anak dan norma kesusilaan di ruang digital.Otoritas di Prancis menyatakan tengah menelusuri kemungkinan pelanggaran hukum terkait penyebaran konten ilegal berbasis AI di platform digital.
Sementara itu, Komisi Komunikasi dan Multimedia Malaysia (MCMC) juga mengonfirmasi sedang melakukan penilaian terhadap dampak dan risiko penggunaan Grok di negaranya.
“MCMC saat ini tengah menyelidiki potensi dampak negatif dan pelanggaran yang terjadi di platform X,” demikian pernyataan komisi tersebut, yang dikutip dari Antara, Selasa, 6 Januari 2026.
Langkah yang diambil Prancis dan Malaysia tersebut sejalan dengan kebijakan yang sebelumnya dilakukan oleh pemerintah India.
Dalam waktu dekat, Kementerian Teknologi Informasi India telah menginstruksikan platform X untuk membatasi kemampuan Grok agar tidak menghasilkan konten yang dinilai melanggar norma dan hukum, termasuk konten cabul, pornografi, vulgar, tidak pantas, berunsur seksual eksplisit, pedofilia, maupun bentuk lain yang dilarang secara hukum.
Pemerintah India juga memberikan batas waktu selama 72 jam kepada pihak X untuk memberikan tanggapan atas perintah tersebut. Apabila tidak dipatuhi, platform tersebut terancam kehilangan status “safe harbor”, yakni perlindungan hukum yang selama ini membebaskan platform digital dari tanggung jawab langsung atas konten yang dibuat oleh penggunanya.
Penyelidikan terhadap Grok menambah daftar panjang pengawasan ketat terhadap teknologi AI generatif di berbagai negara. Sejumlah pemerintah mulai menyadari bahwa kemajuan AI harus diimbangi dengan regulasi dan pengawasan yang kuat, terutama untuk melindungi kelompok rentan dan menjaga ruang digital tetap aman.
Pengamat teknologi menilai kasus ini sebagai peringatan penting bagi industri AI agar tidak hanya fokus pada inovasi, tetapi juga pada tanggung jawab sosial dan kepatuhan hukum.
Pentingnya Literasi dan Etika AI
Kasus Grok menunjukkan bahwa teknologi AI bersifat netral, namun hasil akhirnya sangat bergantung pada cara manusia menggunakannya. Oleh karena itu, literasi digital dan pemahaman etika AI menjadi kunci untuk meminimalkan penyalahgunaan teknologi di masa depan.Pemerintah, pengembang, dan pengguna diharapkan dapat berkolaborasi menciptakan ekosistem AI yang aman, bertanggung jawab, dan bermanfaat bagi masyarakat luas.