AI Bisa Dibajak? Begini Cara Peretas Membobol Sistem dan Membuat AI Patuh pada Perintah Berbahaya!

Jailbreak dalam AI
Sumber :
  • Image Creator/Handoko

Bagaimana Peretas Bisa Membobol AI?

Metode Dialektika Socrates: Mengapa Pertanyaan Lebih Kuat dari Jawaban?

Ada banyak cara yang bisa digunakan untuk membuat AI menuruti perintah yang seharusnya tidak boleh dijalankan. Salah satu metode yang cukup sering digunakan adalah Crescendo, di mana seseorang memberikan pertanyaan secara bertahap hingga AI mulai kehilangan batasan keamanannya.

Selain itu, ada juga teknik DAN (Do Anything Now) yang cukup terkenal. Dengan cara ini, peretas membuat AI percaya bahwa ia sedang berada dalam mode khusus di mana semua aturan normal tidak berlaku. Akibatnya, AI bisa diperintahkan untuk memberikan informasi yang seharusnya diblokir.

Serikat Pekerja dalam Arus Transformasi Digital: Tantangan dan Strategi Bertahan di Era Gig Economy

Metode lain yang tak kalah berbahaya adalah Deceptive Delight, di mana seseorang menggunakan bahasa yang sangat persuasif untuk membujuk AI agar mengabaikan filter keamanannya. Teknik ini sering kali mengandalkan manipulasi emosional terhadap sistem AI, seolah-olah AI diajak bekerja sama untuk tujuan yang lebih besar.

Di beberapa kasus, ada juga teknik yang memanfaatkan kelemahan dalam cara AI menilai pertanyaan. Contohnya adalah metode Bad Likert Judge, yang menggunakan skala angka untuk memanipulasi respons AI. Misalnya, AI bisa diminta menilai suatu tindakan dari skala 1 sampai 10, lalu peretas menyusun pertanyaan dengan cara yang membuat AI lebih permisif terhadap permintaan yang awalnya dilarang.

AI Membantu Pemetaan Waduk Angkor dalam Skala Besar di Luar Angkor Raya

DeepSeek dan Masalah Keamanan AI

Salah satu model AI yang baru-baru ini ditemukan memiliki celah keamanan adalah DeepSeek, sebuah AI yang dikembangkan di Tiongkok. Model ini sempat menjadi perhatian karena beberapa peneliti menemukan bahwa ia rentan terhadap berbagai teknik jailbreak.

Halaman Selanjutnya
img_title