OpenAI Hadirkan GPT 5.5 Instant, ChatGPT Kini Lebih Cepat dan Akurat
OpenAI resmi meluncurkan model kecerdasan buatan terbaru bernama GPT 5.5 Instant. Model ini langsung menjadi model default di layanan ChatGPT,...
Read more
Kejahatan siber semakin berkembang seiring kemajuan teknologi kecerdasan buatan (AI). Salah satu metode yang kini marak adalah AI Voice Spoofing, yaitu teknik penipuan dengan mengkloning suara seseorang untuk melakukan aksi kejahatan melalui telepon atau pesan suara.
Metode Voice Spoofing atau sering disebut Vishing (Voice Phishing), memungkinkan penipu meniru suara asli korban hanya dengan mengambil sampel audio selama 3 hingga 10 detik. Menurut laporan dari Google Cloud, pelaku biasanya menghubungi korban terlebih dahulu dan merekam suara singkat, kemudian memprosesnya menggunakan sistem AI untuk membuat versi digital yang sangat mirip.
Setelah itu, pelaku akan menelpon keluarga atau kerabat dekat korban dan mengatasnamakan situasi darurat atau permintaan dana.
Menurut Google, ancaman cyber kini memanfaatkan kecerdasan buatan generatif untuk menghasilkan konten penipuan yang jauh lebih meyakinkan, termasuk audio, gambar, dan video deepfake. Berdasarkan penelitian awal, aktor kejahatan digital juga memakai model bahasa besar (LLMs) untuk mengembangkan malware serta melakukan operasi manipulasi informasi.
Salah satu kasus terbesar terjadi di Hong Kong ketika pelaku kejahatan berhasil mencuri lebih dari HK$200 juta (Rp430 miliar) menggunakan kombinasi deepfake dan kloning suara untuk menipu internal perusahaan.
Tim Merah Mandiant dari Google kemudian melakukan simulasi serangan menggunakan teknik yang sama untuk menguji ketahanan perusahaan. Hasil simulasi menemukan beberapa ciri suara hasil AI, di antaranya:
jeda canggung sebelum menjawab pertanyaan
intonasi suara stabil tanpa perubahan emosi
respons terdengar tidak alami
penundaan atau distorsi halus
tidak mampu menjawab pertanyaan detail
Seorang juru bicara Resemble AI menegaskan pentingnya keamanan sistem voice generator. “Kami menyadari potensi penyalahgunaan alat yang sangat kuat ini dan telah menerapkan langkah-langkah pengamanan yang kuat untuk mencegah pembuatan deepfake dan melindungi dari peniruan suara,” kata juru bicara Resemble AI, melansir referensi luar NBC News 19 November.
Menurut Sarah Myers West, Co Executive Director AI Now Institute, teknologi ini memiliki risiko besar terhadap keamanan publik. “Ini jelas dapat digunakan untuk penipuan, penipuan, dan disinformasi, misalnya dengan menyamar sebagai tokoh institusi,” kata West.
Berdasarkan temuan lapangan, banyak korban tidak menyadari suara mereka dicuri atau dimanfaatkan. Sifat manusia yang mudah percaya pada suara yang terdengar familiar menjadi celah yang dimanfaatkan pelaku untuk melakukan pemerasan atau permintaan transaksi keuangan.
Faktor psikologis seperti panik dan urgensi sering membuat korban langsung merespons tanpa melakukan verifikasi.
Referensi: CNN Indonesia
Referensi tambahan: NBC News
Temukan berbagai artikel menarik dan inspiratif di halaman 👉 Kumpulan Artikel dan Berita Internet Terpopuler 2026 . Dari berita terbaru, tips, hingga kisah menarik seputar dunia internet — semua ada di sana!
Ikuti Saluran Resmi Trenmedia di WhatsApp!
Dapatkan berita terkini, tren viral, serta tips inspiratif langsung dari redaksi.
📱 Saluran Trenmedia 🍳 Saluran Resep Masakan Viral
Klik dan bergabung sekarang – update terbaru langsung masuk ke WhatsApp kamu!
OpenAI resmi meluncurkan model kecerdasan buatan terbaru bernama GPT 5.5 Instant. Model ini langsung menjadi model default di layanan ChatGPT,...
Apple dikabarkan mulai mempertimbangkan langkah strategis baru dalam produksi chip yang digunakan pada perangkatnya. Selama ini, perusahaan tersebut sangat bergantung...