Alko Magazine – Di tengah kemajuan teknologi AI, muncul fenomena baru yang memprihatinkan: Dark AI—kecerdasan buatan yang dimanfaatkan untuk tujuan kriminal. Berbeda dari AI etis yang dibatasi oleh protokol keamanan, Dark AI beroperasi tanpa batas moral. Dua contoh paling mencolok adalah FraudGPT dan WormGPT, model bahasa generatif yang diciptakan untuk mengeksploitasi kelemahan sistem dan manusia.
“Baca Juga: YouTube Gunakan AI untuk Verifikasi Umur Pengguna”
Model-model ini tidak tersedia di pasar publik seperti ChatGPT atau Gemini. Sebaliknya, mereka dijual di forum dark web, tempat pelaku kejahatan siber mencari alat untuk melancarkan serangan yang makin canggih. Fenomena ini menjadi perhatian serius karena menyulitkan aparat hukum dan menambah kompleksitas dalam mengamankan ruang digital global.
FraudGPT: AI yang Dirancang untuk Menipu dan Mengecoh
FraudGPT dikembangkan sebagai alat bantu kejahatan digital dengan kemampuan menyerupai AI generatif biasa, namun tanpa etika. Model ini dilatih untuk menulis email phishing yang sangat realistis, meniru bahasa profesional dari bank dan lembaga resmi. Hal ini membuat deteksi menjadi sangat sulit bagi pengguna biasa maupun sistem keamanan standar. Menurut laporan dari SlashNext, FraudGPT juga bisa membuat skrip ransomware, menyusun malware kompleks, serta mendesain skenario penipuan finansial. FraudGPT tidak memiliki pembatasan moral, memungkinkan pelaku menciptakan konten manipulatif dalam hitungan detik. Keberadaan FraudGPT membuka babak baru dalam kejahatan digital, di mana AI digunakan bukan hanya sebagai alat bantu, tetapi sebagai eksekutor utama serangan siber.
WormGPT: Model AI Tanpa Filter yang Mengancam Keamanan Global
Sebelum FraudGPT dikenal luas, dunia keamanan digital sempat diguncang oleh WormGPT, versi tak terkendali dari model GPT yang beroperasi tanpa batasan. Penelitian dari Journal of Cybersecurity Research mengungkapkan bahwa WormGPT mampu membuat konten berbahaya yang tidak dibatasi oleh filter keamanan. WormGPT memungkinkan pembuatan serangan siber berskala besar, pesan penipuan yang dipersonalisasi, dan konten eksploitasi yang sangat sulit dilacak. Teknologi ini memungkinkan pelaku mengotomatisasi serangan dalam jumlah besar dengan tingkat akurasi dan efektivitas tinggi. Sifat WormGPT yang open-access dalam dark web menjadikannya ancaman nyata bagi organisasi dan individu di seluruh dunia. Tanpa regulasi yang memadai, AI jenis ini akan terus tumbuh dalam bayang-bayang internet gelap.
Dampak Global dan Lonjakan Kejahatan Siber Berbasis AI
Dark AI bukan ancaman lokal, melainkan fenomena global yang menyerang tanpa batas geografis. Model seperti FraudGPT dan WormGPT telah digunakan untuk menyerang bank di Asia, rumah sakit di Eropa, hingga akun pribadi di Amerika Latin. Data dari Europol 2025 menunjukkan bahwa kejahatan siber berbasis AI meningkat 38% dibanding tahun sebelumnya. Sebagian besar serangan tersebut berasal dari AI generatif yang tidak memiliki kontrol etis atau hukum. Sementara itu, Science News Today mencatat bahwa malware buatan AI kini mampu menghindari deteksi dan beradaptasi dengan sistem keamanan. Ini menjadikan AI sebagai ancaman dinamis yang terus berkembang melampaui solusi keamanan tradisional.
Ketimpangan Regulasi Jadi Tantangan Internasional
Salah satu hambatan terbesar dalam menangani Dark AI adalah ketimpangan kebijakan antarnegara. Beberapa negara telah memiliki regulasi AI yang ketat, seperti Uni Eropa melalui AI Act. Namun, banyak negara lain masih dalam tahap menyusun kerangka hukum. Akibatnya, pasar gelap AI ilegal tetap berkembang, memfasilitasi distribusi model seperti FraudGPT dan WormGPT. Tanpa koordinasi global, penegakan hukum sulit dilakukan, sementara pelaku kejahatan siber terus mengeksploitasi celah regulasi. Para ahli menilai bahwa penanganan Dark AI membutuhkan kerja sama lintas negara, pelibatan sektor swasta, dan penguatan teknologi pendeteksi berbasis AI pula.
“Baca Juga: PPATK Jelaskan Isu Pemblokiran Dompet Digital yang Viral”
Penutup: Teknologi Netral, Tapi Pengguna Menentukan Arah
Fenomena Dark AI memperkuat pandangan bahwa teknologi bersifat netral—yang menentukan baik buruknya adalah tangan manusia di baliknya. FraudGPT dan WormGPT hanyalah dua contoh bagaimana AI bisa digunakan untuk menghancurkan, bukan membangun. Masa depan keamanan digital bergantung pada seberapa cepat dunia merespons ancaman ini. Kombinasi regulasi global, edukasi pengguna, dan teknologi pendeteksi lanjutan dibutuhkan untuk menjaga ruang digital tetap aman dari eksploitasi AI jahat.




Leave a Reply