AI Bisa Dibajak? Begini Cara Peretas Membobol Sistem dan Membuat AI Patuh pada Perintah Berbahaya!

Jailbreak dalam AI
Sumber :
  • Image Creator/Handoko

Menurut laporan dari Palo Alto Networks Unit 42, DeepSeek bisa dimanipulasi untuk memberikan instruksi detail tentang teknik peretasan, termasuk cara melakukan serangan SQL Injection. Ini tentu sangat berbahaya, karena informasi semacam ini bisa digunakan untuk membobol sistem keamanan di internet.

Teknologi AI Bikin Liburan di Indonesia Lebih Seru, Ini Cara Kerjanya!

Selain itu, penelitian dari HiddenLayer mengungkap bahwa model AI DeepSeek-R1 bisa dimanipulasi agar mengungkapkan informasi yang seharusnya bersifat rahasia. Bahkan, ada dugaan bahwa DeepSeek secara diam-diam mengambil data dari OpenAI tanpa izin, yang jika terbukti benar, bisa menjadi skandal besar di dunia kecerdasan buatan.

Namun, bukan hanya DeepSeek yang mengalami masalah ini. Model AI lainnya seperti ChatGPT-4o, Qwen 2.5-VL (Alibaba), dan bahkan GitHub Copilot juga ditemukan memiliki celah keamanan yang bisa dimanfaatkan.

Model AI dapat Memprediksi 'Usia Biologis' dari Swafoto dan akan Digunakan Memandu Pengobatan Kanker

ChatGPT-4o, misalnya, memiliki kelemahan yang disebut Time Bandit, di mana ia bisa kehilangan kesadaran waktu dan memberikan jawaban yang seharusnya diblokir. Sementara itu, GitHub Copilot ternyata bisa dibuat lebih patuh hanya dengan menambahkan kata "Sure" di awal perintah, sehingga membuatnya lebih rentan terhadap eksploitasi.

Seberapa Besar Dampaknya bagi Pengguna?

Siswa Berkompetisi Melawan AI dalam Lomba Menulis, Hasilnya Mengejutkan!

Jika AI bisa dibajak dengan mudah, ini bisa menjadi ancaman yang cukup serius. Ada beberapa dampak yang mungkin terjadi jika teknik jailbreak semakin banyak digunakan.

Salah satu yang paling berbahaya adalah penyebaran informasi ilegal. Dengan AI yang bisa dieksploitasi, seseorang bisa mendapatkan instruksi tentang cara membuat senjata, meretas sistem keamanan, atau bahkan melakukan penipuan digital.

Halaman Selanjutnya
img_title