2. Peniruan Suara (Voice Deepfake)
Teknologi cloning voice kini dapat meniru suara seseorang hanya dari sampel 3–10 detik. Dampaknya:
- Sistem keamanan berbasis suara bisa diretas.
- Pelaku kejahatan bisa menipu layanan perbankan via verifikasi suara.
- Potensi penyalahgunaan dalam panggilan darurat atau otorisasi AI voice assistant.
3. Serangan Ganda Menggunakan AI
Deepfake kini bisa digabungkan dengan AI lain untuk meningkatkan keberhasilan serangan, seperti:
- AI yang menganalisis ritme suara asli.
- Model yang mempelajari gerakan khas wajah.
- Manipulasi mikro-ekspresi agar lebih meyakinkan.
Ini menjadikan biometrik tradisional tidak lagi cukup kuat tanpa lapisan keamanan tambahan.

Aaf Afiatna (Aura OS) adalah seorang WordPress Developer, Administrator IT, dan penggerak di balik infrastruktur berbagai portal media digital PT Arina Duta Sehati. Ia memiliki ketertarikan mendalam pada rekayasa sistem tingkat rendah, implementasi AI on-device, dan pengembangan proyek open-source seperti Neural Standby Kernel (NSK). Saat tidak sedang berurusan dengan server atau kode, ia aktif mengeksplorasi ekosistem Web3 dan berbagi wawasan melalui channel YouTube CryptoFansWorld.




Komentar