Image credit: Freepix
Ancaman Kloning Suara dalam Penipuan Bisnis – Dahulu, kita hidup di era di mana “melihat adalah percaya” dan “mendengar adalah kebenaran”. Namun, masa-masa itu kini telah berlalu.
Kehadiran Kecerdasan Buatan Generatif (GenAI) telah mendemokratisasi pembuatan konten deepfake, baik berupa video maupun audio. Saat ini, menghasilkan klip suara tiruan yang sangat meyakinkan semudah menekan satu atau dua tombol.
Fenomena ini menjadi berita buruk bagi semua orang, terutama bagi organisasi bisnis yang mengandalkan komunikasi suara untuk validasi transaksi penting.
Deepfake kini membantu penipu melewati protokol Know Your Customer (KYC) dan pemeriksaan autentikasi akun. Bahkan, aktor negara yang berniat jahat dapat menyamar sebagai kandidat pekerjaan dalam sesi wawancara daring.
Namun, ancaman terbesar yang ditimbulkan oleh teknologi ini adalah penipuan transfer kawat (wire transfer) dan pembajakan akun eksekutif.
Pemerintah Inggris mengklaim bahwa sebanyak delapan juta klip sintetis dibagikan tahun lalu, melonjak drastis dari hanya 500.000 pada tahun 2023. Angka sebenarnya di lapangan kemungkinan jauh lebih tinggi.
|
Baca juga: Taktik 48 Menit Melawan Hacker |
Mekanisme Serangan
Penelitian yang dilakukan oleh pakar keamanan menunjukkan bahwa meluncurkan serangan deepfake audio terhadap sebuah bisnis kini lebih mudah dari sebelumnya.
Penyerang hanya membutuhkan klip pendek suara target yang ingin ditiru, dan GenAI akan melakukan sisanya. Berikut adalah tahapan umum serangan tersebut:
- Pemilihan Target Identitas: Penyerang memilih orang yang akan mereka tiru, biasanya seorang CEO, CFO, atau perwakilan pemasok (supplier) utama.
- Pengumpulan Sampel Suara: Penyerang mencari sampel audio target di internet. Ini sangat mudah dilakukan untuk eksekutif tingkat tinggi yang sering berbicara di depan umum, seperti dalam video wawancara, laporan pendapatan (earnings call), atau unggahan media sosial. Rekaman beberapa detik saja sudah cukup untuk melatih model AI.
- Identifikasi Target Korban: Penyerang melakukan riset (biasanya melalui LinkedIn) untuk mencari staf bantuan IT atau anggota tim keuangan yang memiliki otoritas untuk mengeksekusi perintah transfer atau mengatur ulang kata sandi.
- Kontak Awal: Penyerang mungkin mengirimkan email terlebih dahulu untuk menciptakan konteks urgensi, seperti permintaan transfer uang mendesak dari CEO atau pemberitahuan faktur yang jatuh tempo dari pemasok.
- Eksekusi Suara Tiruan: Penyerang menelepon target terpilih menggunakan audio deepfake. Alat canggih saat ini memungkinkan metode “speech-to-speech”, di mana suara penyerang diterjemahkan secara waktu nyata (real-time) menjadi suara target, lengkap dengan ritme dan infleksi yang unik.
Mengapa Deepfake Sangat Meyakinkan
Serangan jenis ini semakin murah, mudah, dan meyakinkan karena alat AI saat ini mampu menyisipkan kebisingan latar belakang, jeda alami, bahkan gagap agar suara terdengar lebih manusiawi.
Penyerang juga menggunakan taktik rekayasa sosial (social engineering), seperti menciptakan tekanan waktu agar korban merespons dengan cepat tanpa berpikir panjang.
Selain itu, mereka sering meminta kerahasiaan atas permintaan tersebut, yang dikombinasikan dengan rasa segan staf terhadap atasan senior, membuat korban mudah tertipu. Siapa yang berani menolak permintaan mendesak dari seorang CEO?
Meskipun teknologi ini semakin maju, ada beberapa tanda peringatan yang dapat membantu kita mengenali suara palsu:
- Ritme bicara yang terdengar tidak alami atau terlalu kaku.
- Nada emosional yang datar secara tidak wajar.
- Kalimat yang diucapkan tanpa suara napas atau pola pernapasan yang aneh.
- Suara yang terdengar robotik (pada alat AI yang kurang canggih).
- Suara latar belakang yang menghilang secara tiba-tiba atau terdengar terlalu seragam.
|
Baca juga: Infostealer Kejahatan Siber Ala Start Up |
Strategi Pertahanan
Mengingat teknologi deepfake terus berkembang, organisasi harus mengambil langkah-langkah mitigasi yang komprehensif.
- Pendidikan dan Kesadaran Karyawan: Pelatihan harus diperbarui dengan menyertakan simulasi serangan deepfake audio agar staf memahami risiko dan tahu cara merespons skenario tersebut. Staf harus diajarkan untuk mengenali tanda-tanda rekayasa sosial.
- Perubahan Proses Internal: Terapkan verifikasi “luar jalur” (out-of-band). Jika menerima permintaan transfer uang melalui telepon, karyawan harus memverifikasinya kembali melalui saluran pesan internal resmi perusahaan. Selain itu, wajibkan persetujuan dari dua individu untuk setiap transfer finansial besar dan gunakan kata sandi atau frasa rahasia yang telah disepakati sebelumnya untuk membuktikan identitas melalui telepon.
- Implementasi Teknologi: Gunakan alat deteksi suara sintetis yang dapat menganalisis parameter frekuensi untuk mendeteksi keberadaan audio buatan AI.
Deepfake audio adalah ancaman yang nyata, murah untuk diproduksi, namun memiliki potensi kerugian yang masif. Satu blunder kecil dapat menyebabkan kerugian jutaan dolar, seperti kasus yang pernah terjadi di sebuah perusahaan di UEA.
Organisasi tidak boleh meremehkan ancaman ini. Dengan mengombinasikan kewaspadaan manusia, proses verifikasi yang ketat, dan teknologi deteksi, bisnis dapat membangun benteng yang lebih kuat terhadap gelombang penipuan berbasis AI ini.
Baca artikel lainnya:
- IoT Murah Gerbang Botnet ke Jaringan Anda
- IP Dirgantara dalam Bidikan Siber
- Airstalk Malware Lihai Curi Data Perusahaan
- Jebakan Tanda Tangan Phising Docusign
- Penipuan Lansia Meroket Uang Miliaran Melayang
- Trojan Android Baru Cerdik Meniru Gerak Manusia
- Tahun Depan Serangan Berbasis Identitas Melonjak
- Waspada! Mirai Cs Intai Server PHP dan Cloud
- Kunci Lindungi Web dari Crawler AI Jahat
- YouTube Jadi Sarang Malware Ghost Network
Sumber berita: