JMNpost.com | Dunia penipuan terus berevolusi, dan saat ini tengah memasuki babak paling menyeramkan: era kecerdasan buatan atau artificial intelligence (AI). Jika dulu orang tertipu lewat SMS warisan raja Afrika atau telepon gelap yang mengaku dari bank, sekarang masyarakat harus waspada terhadap kejahatan yang menggunakan suara dan wajah orang terdekat yang dipalsukan dengan teknologi. Bukan hanya menyeramkan, tetapi juga sangat meyakinkan.
Teknologi AI yang awalnya dikembangkan untuk memudahkan hidup manusia, kini justru menjadi alat baru dalam praktik kriminal. Penipu tidak lagi menggunakan cara-cara tradisional, tetapi memanfaatkan deepfake, voice cloning, chatbot canggih, dan generator teks otomatis untuk menipu masyarakat dari berbagai kalangan. Dan yang paling berbahaya, banyak orang bahkan tidak menyadari bahwa mereka sedang ditipu karena tampilan kejahatannya kini terlihat “berkelas” dan profesional.
Salah satu modus yang paling menakutkan saat ini adalah deepfake. Teknologi ini memungkinkan penipu membuat video dengan wajah seseorang—entah itu anak, orang tua, pasangan, bahkan atasan—yang berbicara layaknya mereka sungguhan. Bayangkan Anda menerima video dari anak Anda yang sedang merantau, mengaku ditahan polisi dan butuh uang jaminan. Wajahnya seperti asli, suaranya pun persis. Tapi nyatanya, semua itu palsu. Video itu adalah hasil manipulasi AI yang merender wajah dan ekspresi berdasarkan data visual yang tersedia di internet atau media sosial. Korban yang panik tentu saja langsung mengirim uang, dan hanya menyadari penipuan setelah semuanya terlambat.
Tak kalah canggih adalah voice cloning. Teknologi ini mampu meniru suara manusia dengan akurasi tinggi hanya dengan rekaman pendek beberapa detik saja. Dengan suara itu, penipu bisa membuat panggilan telepon atau pesan suara yang seolah-olah berasal dari orang yang kita kenal. Sudah ada beberapa laporan kasus di luar negeri di mana penipu menelepon orang tua dengan suara anaknya, mengaku diculik atau kecelakaan, lalu meminta tebusan. Semuanya terdengar nyata dan emosional. Di Indonesia sendiri, ancaman ini sangat relevan, terutama karena banyak orang yang kini aktif di media sosial dan tidak menyadari bahwa suara mereka mudah dicuri hanya dari konten TikTok atau YouTube.
Yang juga patut diwaspadai adalah chatbot penipuan. Dengan teknologi pemrosesan bahasa alami (NLP), AI kini bisa membuat bot yang mampu bercakap-cakap seperti manusia, dengan respon yang sopan, terstruktur, dan meyakinkan. Bot ini digunakan oleh penipu untuk menyamar sebagai customer service palsu dari bank, marketplace, atau perusahaan besar. Modusnya adalah korban diarahkan mengisi data, mengunduh aplikasi tertentu, atau memberikan akses ke perangkat mereka. Semua obrolan berjalan normal, profesional, dan tidak terasa janggal, sampai akhirnya korban kehilangan data atau uang.
Selain itu, para penipu kini juga menggunakan AI untuk membuat email penipuan dan lowongan kerja palsu yang terlihat sah. Tidak ada lagi typo, tidak ada kalimat aneh. Semua struktur bahasanya rapi seperti surat resmi dari instansi pemerintah atau perusahaan ternama. Bahkan tanda tangan, kop surat, dan dokumen pendukung pun bisa dibuat dengan bantuan AI visual. Banyak pencari kerja yang tertipu, mengira mereka mendapatkan panggilan kerja dari perusahaan besar, padahal itu hanya skema penipuan yang meminta uang pelatihan atau memaksa mengisi data pribadi.
Ada pula penipuan investasi bodong berbasis AI. Situs-situs palsu dibuat dengan tampilan profesional, grafik harga yang bergerak real-time, hingga fitur chat dengan AI yang menjawab semua pertanyaan investor secara meyakinkan. Korban diminta menaruh uang ke dalam platform palsu itu, dijanjikan keuntungan besar dalam waktu singkat. Sering kali mereka melihat portofolio untung besar di dashboard—padahal itu hanya tampilan semu yang tidak bisa diuangkan. Setelah korban menyetor banyak uang, akses ke akun mereka ditutup atau situsnya mendadak hilang.
Yang membuat semua ini lebih berbahaya adalah rendahnya literasi digital di tengah masyarakat. Banyak orang belum tahu bahwa video bisa dimanipulasi, suara bisa dipalsukan, dan percakapan bisa dibuat bot. Mereka percaya karena tampilan profesional dan bahasa yang sopan. Apalagi jika penipu meniru orang yang sudah dikenal korban, maka pertahanan logika cenderung runtuh. Di sinilah letak celah yang dimanfaatkan para pelaku.
Lalu, apa yang bisa dilakukan? Masyarakat perlu mulai mengasah rasa curiga yang sehat. Jangan percaya sepenuhnya pada video atau suara, apalagi jika permintaannya bersifat mendesak dan melibatkan uang. Selalu lakukan verifikasi dengan cara berbeda—misalnya menghubungi langsung orang yang bersangkutan dengan nomor yang sudah dikenal, atau bertanya pada pihak lain. Jangan pernah memberikan data penting seperti OTP, PIN, atau password lewat telepon atau chat. Institusi resmi tidak akan pernah meminta data sensitif lewat jalur informal. Gunakan juga fitur keamanan tambahan seperti verifikasi dua langkah dan pengenal wajah asli, terutama pada akun keuangan.
Penting pula untuk membatasi sebaran informasi pribadi di media sosial. Banyak orang terlalu sering mengunggah video yang menampilkan suara dan wajah mereka, memberi celah bagi penjahat untuk mengumpulkan data demi keperluan cloning. Sekali wajah atau suara Anda digunakan oleh pelaku kejahatan, akan sangat sulit membuktikan bahwa itu bukan Anda.
Penipuan berbasis AI bukan sekadar kabar masa depan ini sudah nyata, sudah terjadi, dan bisa menimpa siapa saja. Kejahatan digital kini tak lagi mengandalkan kelemahan logika, tetapi kelemahan emosi dan ketidaktahuan. Di era di mana suara ibu Anda bisa dipalsukan oleh mesin, maka skeptisisme adalah bentuk pertahanan terbaik. Jangan mudah panik, jangan mudah percaya. Dunia digital memang penuh kemudahan, tapi di baliknya juga menyimpan jebakan yang kian sulit dikenali.
Post a Comment