
Ancaman AI dan Deepfake Terbaru
Masifnya perkembangan dan penggunaan kecerdasan buatan mendorong munculnya ancaman AI dan Deepfake terbaru yang tentu saja menjadi masalah baru bagi warga dunia maya. Berikut ulasan selengkapnya.
Kecerdasan buatan (AI) memberikan manfaat luar biasa bagi banyak bisnis. AI membantu mengotomatiskan tugas-tugas berulang untuk efisiensi dan penghematan biaya. Kecerdasan buatan meningkatkan layanan pelanggan dan pengodean.
AI juga membantu menggali wawasan untuk mendorong pengambilan keputusan bisnis yang lebih baik. Pada Oktober 2023, Gartner memperkirakan bahwa 55% organisasi berada dalam mode uji coba atau produksi dengan AI generatif (GenAI). Angka tersebut pasti akan lebih tinggi saat ini.
Namun, perusahaan kriminal juga berinovasi dengan teknologi tersebut, dan itu merupakan berita buruk bagi para pemimpin TI dan bisnis di mana pun. Untuk mengatasi ancaman penipuan yang meningkat ini, Anda memerlukan respons berlapis yang berfokus pada orang, proses, dan teknologi.
Baca juga: Penipuan Identitas Berbasis AI |
Ancaman AI dan Deepfake Terbaru
Penjahat dunia maya memiliki kreativitas yang tinggi ketika bicara memanfaatkan kekuatan AI dan deepfake melalui beberapa cara. Di antaranya:
Karyawan palsu
Ratusan perusahaan dilaporkan telah disusupi oleh warga Korea Utara yang menyamar sebagai pekerja lepas TI yang bekerja jarak jauh.
Mereka menggunakan perangkat AI untuk menyusun resume palsu dan dokumen palsu, termasuk gambar yang dimanipulasi AI, agar lolos pemeriksaan latar belakang.
Tujuan akhirnya adalah mendapatkan uang untuk dikirim kembali ke rezim Korea Utara serta pencurian data, spionase, dan bahkan ransomware.
Jenis baru penipuan BEC
Klip audio dan video deepfake digunakan untuk memperkuat penipuan jenis kompromi email bisnis (BEC) di mana pekerja keuangan ditipu agar mentransfer dana perusahaan ke rekening yang dikendalikan penipu.
Dalam satu kasus terkenal baru-baru ini, seorang pekerja keuangan dibujuk untuk mentransfer $25 juta kepada penipu yang memanfaatkan deepfake untuk menyamar sebagai CFO perusahaan dan anggota staf lainnya dalam panggilan konferensi video.
Namun, ini bukanlah hal baru – sejak tahun 2019, seorang eksekutif energi Inggris ditipu agar mentransfer £200.000 kepada penipu setelah berbicara dengan versi deepfake bosnya di telepon.
Penghindaran autentikasi
Deepfake juga digunakan untuk membantu penipu menyamar sebagai pelanggan yang sah, membuat persona baru, dan menghindari pemeriksaan autentikasi untuk pembuatan akun dan log-in.
Salah satu malware yang sangat canggih, GoldPickaxe, dirancang untuk mengumpulkan data pengenalan wajah, yang kemudian digunakan untuk membuat video deepfake. Menurut sebuah laporan, 13,5% dari semua pembukaan akun digital global diduga sebagai aktivitas penipuan tahun lalu.
Penipuan deepfake
Penjahat dunia maya juga dapat menggunakan deepfake dengan cara yang kurang tertarget, seperti menyamar sebagai CEO perusahaan dan tokoh terkenal lainnya di media sosial, untuk meningkatkan investasi dan penipuan lainnya.
Seperti yang telah ditunjukkan oleh Jake Moore dari ESET, secara teoritis setiap pemimpin perusahaan dapat menjadi korban dengan cara yang sama. Pada catatan yang sama, seperti yang dijelaskan dalam Laporan Ancaman terbaru ESET, penjahat dunia maya memanfaatkan deepfake dan posting media sosial bermerek perusahaan untuk memikat korban sebagai bagian dari jenis baru penipuan investasi yang disebut Nomani.
Baca juga: Ancaman Deepfake |
Pembobolan kata sandi
Algoritme AI dapat diatur untuk bekerja memecahkan kata sandi pelanggan dan karyawan, yang memungkinkan pencurian data, ransomware, dan penipuan identitas massal. Salah satu contohnya, PassGAN, dilaporkan dapat memecahkan kata sandi dalam waktu kurang dari setengah menit.
Pemalsuan dokumen
Dokumen yang dibuat atau diubah oleh AI adalah cara lain untuk melewati pemeriksaan know your customer (KYC) di bank dan perusahaan lain. Dokumen tersebut juga dapat digunakan untuk penipuan asuransi. Hampir semua (94%) pengelola klaim menduga setidaknya 5% klaim dimanipulasi dengan AI, terutama klaim dengan nilai yang lebih rendah.
Phising dan pengintaian
Pusat Keamanan Siber Nasional (NCSC) Inggris telah memperingatkan tentang peningkatan yang didapat penjahat dunia maya dari jenis AI generatif dan lainnya.
Di awal tahun 2024, NCSC mengklaim bahwa teknologi tersebut “hampir pasti akan meningkatkan volume dan meningkatkan dampak serangan dunia maya selama dua tahun ke depan.”
Teknologi ini akan berdampak sangat tinggi pada peningkatan efektivitas rekayasa sosial dan pengintaian target. Hal ini akan memicu ransomware dan pencurian data, serta berbagai serangan phishing terhadap pelanggan.
Dampak Ancaman AI
Dampak penipuan yang didukung AI pada akhirnya adalah kerusakan finansial dan reputasi dalam berbagai tingkatan. Satu laporan memperkirakan bahwa 38% pendapatan yang hilang akibat penipuan selama setahun terakhir disebabkan oleh penipuan yang digerakkan oleh AI. Pertimbangkan bagaimana:
- Pembobolan KYC memungkinkan penipu untuk menggunakan kredit dan menguras dana dari rekening pelanggan yang sah.
- Karyawan palsu dapat mencuri IP sensitif dan informasi pelanggan yang diatur, yang menciptakan masalah finansial, reputasi, dan kepatuhan.
- Penipuan BEC dapat menghasilkan kerugian besar satu kali. Kategori ini menghasilkan lebih dari $2,9 miliar bagi penjahat dunia maya pada tahun 2023 saja.
- Penipuan peniruan identitas mengancam loyalitas pelanggan. Sepertiga pelanggan mengatakan mereka akan meninggalkan merek yang mereka sukai hanya setelah satu pengalaman buruk.
Baca juga: AI 2025 |
Menentang Penipuan yang Didukung AI
Memerangi lonjakan penipuan yang didukung AI ini memerlukan respons berlapis-lapis, yang berfokus pada orang, proses, dan teknologi. Ini harus mencakup:
- Penilaian risiko penipuan yang sering dilakukan
- Pembaruan kebijakan antipenipuan agar relevan dengan AI
- Program pelatihan dan kesadaran yang komprehensif bagi staf (misalnya, tentang cara mengenali phishing dan deepfake)
- Program pendidikan dan kesadaran bagi pelanggan
- Mengaktifkan autentikasi multifaktor (MFA) untuk semua akun perusahaan dan pelanggan yang sensitif
- Peningkatan pemeriksaan latar belakang bagi karyawan, seperti memindai resume untuk mencari ketidakkonsistenan karier
- Pastikan semua karyawan diwawancarai melalui video sebelum perekrutan
- Tingkatkan kolaborasi antara tim SDM dan keamanan siber
Teknologi AI juga dapat digunakan dalam upaya ini, misalnya:
- Alat bertenaga AI untuk mendeteksi deepfake (misalnya, dalam pemeriksaan KYC).
- Algoritma mesin pembelajaran untuk mendeteksi pola perilaku mencurigakan dalam data staf dan pelanggan.
- GenAI untuk menghasilkan data sintetis, yang dengannya model penipuan baru dapat dikembangkan, diuji, dan dilatih.
Saat pertarungan antara AI yang jahat dan baik hati memasuki fase baru yang intens, organisasi harus memperbarui kebijakan keamanan siber dan anti penipuan mereka untuk memastikan mereka mengikuti lanskap ancaman yang terus berkembang.
Dengan begitu banyak yang dipertaruhkan, kegagalan untuk melakukannya dapat memengaruhi loyalitas pelanggan jangka panjang, nilai merek, dan bahkan menggagalkan inisiatif transformasi digital yang penting.
AI berpotensi mengubah permainan bagi musuh kita. Namun, AI juga dapat melakukannya untuk tim keamanan dan risiko perusahaan.
Sumber berita: