Teknologi Voice Spoofing Makin Canggih, Waspadai Penipuan Telepon Bermodus Suara Keluarga

Modus penipuan AI Voice Spoofing makin marak. Teknologi ini mampu meniru suara keluarga hanya dalam hitungan detik. Kenali ciri-ciri dan cara menghindarinya. (Foto: itsecurityguru.org)

Modus penipuan AI Voice Spoofing makin marak

Kejahatan siber semakin berkembang seiring kemajuan teknologi kecerdasan buatan (AI). Salah satu metode yang kini marak adalah AI Voice Spoofing, yaitu teknik penipuan dengan mengkloning suara seseorang untuk melakukan aksi kejahatan melalui telepon atau pesan suara.

Metode Voice Spoofing atau sering disebut Vishing (Voice Phishing), memungkinkan penipu meniru suara asli korban hanya dengan mengambil sampel audio selama 3 hingga 10 detik. Menurut laporan dari Google Cloud, pelaku biasanya menghubungi korban terlebih dahulu dan merekam suara singkat, kemudian memprosesnya menggunakan sistem AI untuk membuat versi digital yang sangat mirip.

Setelah itu, pelaku akan menelpon keluarga atau kerabat dekat korban dan mengatasnamakan situasi darurat atau permintaan dana.

Modus Voice Spoofing dan Bahaya yang Mengancam

Menurut Google, ancaman cyber kini memanfaatkan kecerdasan buatan generatif untuk menghasilkan konten penipuan yang jauh lebih meyakinkan, termasuk audio, gambar, dan video deepfake. Berdasarkan penelitian awal, aktor kejahatan digital juga memakai model bahasa besar (LLMs) untuk mengembangkan malware serta melakukan operasi manipulasi informasi.

Salah satu kasus terbesar terjadi di Hong Kong ketika pelaku kejahatan berhasil mencuri lebih dari HK$200 juta (Rp430 miliar) menggunakan kombinasi deepfake dan kloning suara untuk menipu internal perusahaan.

Tim Merah Mandiant dari Google kemudian melakukan simulasi serangan menggunakan teknik yang sama untuk menguji ketahanan perusahaan. Hasil simulasi menemukan beberapa ciri suara hasil AI, di antaranya:

  • jeda canggung sebelum menjawab pertanyaan

  • intonasi suara stabil tanpa perubahan emosi

  • respons terdengar tidak alami

  • penundaan atau distorsi halus

  • tidak mampu menjawab pertanyaan detail

Seorang juru bicara Resemble AI menegaskan pentingnya keamanan sistem voice generator. “Kami menyadari potensi penyalahgunaan alat yang sangat kuat ini dan telah menerapkan langkah-langkah pengamanan yang kuat untuk mencegah pembuatan deepfake dan melindungi dari peniruan suara,” kata juru bicara Resemble AI, melansir referensi luar NBC News 19 November.

Menurut Sarah Myers West, Co Executive Director AI Now Institute, teknologi ini memiliki risiko besar terhadap keamanan publik. “Ini jelas dapat digunakan untuk penipuan, penipuan, dan disinformasi, misalnya dengan menyamar sebagai tokoh institusi,” kata West.

Mengapa Banyak Korban Tidak Sadar Menjadi Target

Berdasarkan temuan lapangan, banyak korban tidak menyadari suara mereka dicuri atau dimanfaatkan. Sifat manusia yang mudah percaya pada suara yang terdengar familiar menjadi celah yang dimanfaatkan pelaku untuk melakukan pemerasan atau permintaan transaksi keuangan.

Faktor psikologis seperti panik dan urgensi sering membuat korban langsung merespons tanpa melakukan verifikasi.

Referensi: CNN Indonesia
Referensi tambahan: NBC News

📚 ️Baca Juga Seputar Internet

Temukan berbagai artikel menarik dan inspiratif di halaman 👉 Kumpulan Artikel dan Berita Internet Terpopuler 2026 . Dari berita terbaru, tips, hingga kisah menarik seputar dunia internet — semua ada di sana!

✍️ Ditulis oleh: Fadjri Adhi Putra & Fahmi Fahrulrozi
📌 Editor: Redaksi Tren Media

Ikuti Saluran Resmi Trenmedia di WhatsApp!
Dapatkan berita terkini, tren viral, serta tips inspiratif langsung dari redaksi.

📱 Saluran Trenmedia 🍳 Saluran Resep Masakan Viral

Klik dan bergabung sekarang – update terbaru langsung masuk ke WhatsApp kamu!

BERITATERKAIT

BERITATERBARU

INSTAGRAMFEED