AI telah mempercepat perlombaan senjata keamanan siber selama setahun terakhir. Dan 12 bulan mendatang tidak akan memberikan jeda. Hal ini memiliki implikasi besar bagi tim keamanan siber perusahaan dan pemberi kerja mereka, serta pengguna web sehari-hari, berikut merupakan pembahasan mengenai AI 2025.
Sementara teknologi AI membantu para pembela untuk meningkatkan keamanan, pelaku kejahatan tidak membuang waktu untuk memanfaatkan alat yang didukung AI, jadi kita dapat mengharapkan peningkatan penipuan, rekayasa sosial, penipuan akun, disinformasi, dan ancaman lainnya.
Berikut ini yang dapat Anda harapkan dari tahun 2025.
Baca juga: Pedang Bermata Dua Artificial Intelligence |
Yang Perlu Diwaspadai dari AI 2025
Pada awal tahun 2024, Pusat Keamanan Siber Nasional (NCSC) Inggris memperingatkan bahwa AI sudah digunakan oleh setiap jenis pelaku ancaman dan akan “hampir pasti meningkatkan volume dan dampak serangan siber dalam dua tahun ke depan.”
Ancaman tersebut paling akut dalam konteks rekayasa sosial, di mana AI generatif (GenAI) dapat membantu pelaku kejahatan menyusun kampanye yang sangat meyakinkan dalam bahasa lokal yang sempurna. Dalam pengintaian, di mana AI dapat mengotomatiskan identifikasi aset yang rentan dalam skala besar.
Penggunaan AI
Meskipun tren ini tentu akan terus berlanjut hingga tahun 2025, kita juga dapat melihat AI digunakan untuk:
- Penghindaran autentikasi: Teknologi deepfake digunakan untuk membantu penipu menyamar sebagai pelanggan dalam swafoto dan cek berbasis video untuk pembuatan akun baru dan akses akun.
- Kompromi email bisnis (BEC): AI sekali lagi digunakan untuk rekayasa sosial, tetapi kali ini untuk mengelabui penerima perusahaan agar mentransfer dana ke akun yang dikendalikan penipu. Audio dan video deepfake juga dapat digunakan untuk menyamar sebagai CEO dan pemimpin senior lainnya dalam panggilan telepon dan rapat virtual.
- Penipuan peniruan identitas: Open source Large Language Model (LLM) akan menawarkan peluang baru bagi penipu. Dengan melatih mereka pada data yang diambil dari akun media sosial yang diretas dan/atau dapat diakses publik, penipu dapat menyamar sebagai korban dalam penculikan virtual dan penipuan lainnya, yang dirancang untuk mengelabui teman dan keluarga.
- Penipuan influencer: Dengan cara yang sama, GenAI diperkirakan akan digunakan oleh penipu pada tahun 2025 untuk membuat akun media sosial palsu atau duplikat yang meniru selebritas, influencer, dan tokoh terkenal lainnya. Video deepfake akan diunggah untuk memikat pengikut agar menyerahkan informasi pribadi dan uang. Ini akan memberi tekanan lebih besar pada platform media sosial untuk menawarkan alat verifikasi akun dan lencana yang efektif serta pada Anda untuk tetap waspada.
- Disinformasi: Negara-negara yang bermusuhan dan kelompok-kelompok lain akan memanfaatkan GenAI untuk dengan mudah membuat konten palsu, untuk menarik pengguna media sosial yang mudah percaya agar mengikuti akun-akun palsu. Pengguna-pengguna ini kemudian dapat diubah menjadi penguat daring untuk operasi pengaruh, dengan cara yang lebih efektif dan lebih sulit dideteksi daripada ladang konten/troll.
- Peretasan kata sandi: Alat-alat yang digerakkan oleh AI mampu membuka kedok kredensial pengguna secara massal dalam hitungan detik untuk memungkinkan akses ke jaringan dan data perusahaan, serta akun pelanggan.
Baca juga: Serangan Phising Lebih Berbahaya dengan AI |
Privasi AI untuk Tahun 2025
AI tidak hanya akan menjadi alat bagi pelaku ancaman selama tahun mendatang. AI juga dapat menimbulkan risiko kebocoran data yang lebih tinggi. LLM memerlukan teks, gambar, dan video dalam jumlah besar untuk melatihnya.
Sering kali secara tidak sengaja, sebagian data tersebut akan menjadi sensitif: misalnya, biometrik, informasi perawatan kesehatan, atau data keuangan. Dalam beberapa kasus, media sosial dan perusahaan lain dapat mengubah S&K untuk menggunakan data pelanggan guna melatih model.
Setelah diserap oleh model AI, informasi ini menjadi risiko bagi individu, jika sistem AI itu sendiri diretas. Atau jika informasi tersebut dibagikan dengan orang lain melalui aplikasi GenAI yang berjalan di atas LLM.
Ada juga kekhawatiran bagi pengguna korporat bahwa mereka mungkin tanpa sengaja membagikan informasi sensitif terkait pekerjaan melalui perintah GenAI. Menurut satu jajak pendapat, seperlima perusahaan di Inggris secara tidak sengaja mengekspos data perusahaan yang berpotensi sensitif melalui penggunaan GenAI oleh karyawan.
AI untuk Dunia Siber pada Tahun 2025
Kabar baiknya adalah AI akan memainkan peran yang semakin besar dalam pekerjaan tim keamanan siber selama tahun mendatang, karena AI akan dibangun ke dalam produk dan layanan baru. Berdasarkan sejarah panjang keamanan yang didukung AI, penawaran baru ini akan membantu untuk:
- Menghasilkan data sintetis untuk melatih pengguna, tim keamanan, dan bahkan alat keamanan AI.
- Merangkum laporan intelijen ancaman yang panjang dan rumit untuk analis dan memfasilitasi pengambilan keputusan yang lebih cepat untuk insiden.
- Meningkatkan produktivitas SecOps dengan mengontekstualisasikan dan memprioritaskan peringatan untuk tim yang kewalahan, dan mengotomatiskan alur kerja untuk investigasi dan perbaikan
- Memindai volume data besar untuk mencari tanda-tanda perilaku yang mencurigakan
- Meningkatkan keterampilan tim TI melalui fungsionalitas “copilot” yang dibangun ke dalam berbagai produk untuk membantu mengurangi kemungkinan kesalahan konfigurasi
Namun, para pemimpin TI dan keamanan juga harus memahami keterbatasan AI dan pentingnya keahlian manusia dalam proses pengambilan keputusan.
Keseimbangan antara manusia dan mesin akan dibutuhkan pada tahun 2025 untuk:
- Mengurangi risiko halusinasi.
- Degradasi model.
- Dan konsekuensi negatif lainnya.
Yang perlu disadari adalah AI bukanlah peluru ajaib. AI harus dikombinasikan dengan alat dan teknik lain untuk hasil yang optimal.
Baca juga: FBI Berikan Saran Cara Mengatasi Penipuan AI |
Tantangan AI Dalam Kepatuhan & Penegakan Hukum
Lanskap ancaman dan pengembangan keamanan AI tidak terjadi begitu saja. Perubahan geopolitik pada tahun 2025, terutama di AS, bahkan dapat menyebabkan deregulasi di sektor teknologi dan media sosial. Hal ini pada gilirannya dapat memberdayakan penipu dan pelaku jahat lainnya untuk membanjiri platform daring dengan ancaman yang dihasilkan AI.
Sementara itu di UE, masih ada beberapa ketidakpastian atas regulasi AI, yang dapat membuat hidup lebih sulit bagi tim kepatuhan. Seperti yang telah dicatat oleh para ahli hukum, kode praktik dan panduan masih perlu disusun, dan tanggung jawab atas kegagalan sistem AI dihitung. Lobi dari sektor teknologi masih dapat mengubah cara penerapan Undang-Undang AI UE dalam praktik.
Namun, yang jelas adalah bahwa AI akan mengubah cara kita berinteraksi dengan teknologi secara radikal pada tahun 2025, baik atau buruk. AI menawarkan manfaat potensial yang besar bagi bisnis dan individu, tetapi juga risiko baru yang harus dikelola. Merupakan kepentingan semua pihak untuk bekerja sama lebih erat selama tahun mendatang guna memastikan hal itu terjadi. Pemerintah, perusahaan sektor swasta, dan pengguna akhir harus memainkan peran mereka dan bekerja sama untuk memanfaatkan potensi AI sekaligus mengurangi risikonya.
Sumber berita: