AI Bisa Dibajak? Begini Cara Peretas Membobol Sistem dan Membuat AI Patuh pada Perintah Berbahaya!
- Image Creator/Handoko
Bagaimana Peretas Bisa Membobol AI?
Ada banyak cara yang bisa digunakan untuk membuat AI menuruti perintah yang seharusnya tidak boleh dijalankan. Salah satu metode yang cukup sering digunakan adalah Crescendo, di mana seseorang memberikan pertanyaan secara bertahap hingga AI mulai kehilangan batasan keamanannya.
Selain itu, ada juga teknik DAN (Do Anything Now) yang cukup terkenal. Dengan cara ini, peretas membuat AI percaya bahwa ia sedang berada dalam mode khusus di mana semua aturan normal tidak berlaku. Akibatnya, AI bisa diperintahkan untuk memberikan informasi yang seharusnya diblokir.
Metode lain yang tak kalah berbahaya adalah Deceptive Delight, di mana seseorang menggunakan bahasa yang sangat persuasif untuk membujuk AI agar mengabaikan filter keamanannya. Teknik ini sering kali mengandalkan manipulasi emosional terhadap sistem AI, seolah-olah AI diajak bekerja sama untuk tujuan yang lebih besar.
Di beberapa kasus, ada juga teknik yang memanfaatkan kelemahan dalam cara AI menilai pertanyaan. Contohnya adalah metode Bad Likert Judge, yang menggunakan skala angka untuk memanipulasi respons AI. Misalnya, AI bisa diminta menilai suatu tindakan dari skala 1 sampai 10, lalu peretas menyusun pertanyaan dengan cara yang membuat AI lebih permisif terhadap permintaan yang awalnya dilarang.
DeepSeek dan Masalah Keamanan AI
Salah satu model AI yang baru-baru ini ditemukan memiliki celah keamanan adalah DeepSeek, sebuah AI yang dikembangkan di Tiongkok. Model ini sempat menjadi perhatian karena beberapa peneliti menemukan bahwa ia rentan terhadap berbagai teknik jailbreak.