AI Bisa Dibajak? Begini Cara Peretas Membobol Sistem dan Membuat AI Patuh pada Perintah Berbahaya!
- Image Creator/Handoko
Menurut laporan dari Palo Alto Networks Unit 42, DeepSeek bisa dimanipulasi untuk memberikan instruksi detail tentang teknik peretasan, termasuk cara melakukan serangan SQL Injection. Ini tentu sangat berbahaya, karena informasi semacam ini bisa digunakan untuk membobol sistem keamanan di internet.
Selain itu, penelitian dari HiddenLayer mengungkap bahwa model AI DeepSeek-R1 bisa dimanipulasi agar mengungkapkan informasi yang seharusnya bersifat rahasia. Bahkan, ada dugaan bahwa DeepSeek secara diam-diam mengambil data dari OpenAI tanpa izin, yang jika terbukti benar, bisa menjadi skandal besar di dunia kecerdasan buatan.
Namun, bukan hanya DeepSeek yang mengalami masalah ini. Model AI lainnya seperti ChatGPT-4o, Qwen 2.5-VL (Alibaba), dan bahkan GitHub Copilot juga ditemukan memiliki celah keamanan yang bisa dimanfaatkan.
ChatGPT-4o, misalnya, memiliki kelemahan yang disebut Time Bandit, di mana ia bisa kehilangan kesadaran waktu dan memberikan jawaban yang seharusnya diblokir. Sementara itu, GitHub Copilot ternyata bisa dibuat lebih patuh hanya dengan menambahkan kata "Sure" di awal perintah, sehingga membuatnya lebih rentan terhadap eksploitasi.
Seberapa Besar Dampaknya bagi Pengguna?
Jika AI bisa dibajak dengan mudah, ini bisa menjadi ancaman yang cukup serius. Ada beberapa dampak yang mungkin terjadi jika teknik jailbreak semakin banyak digunakan.
Salah satu yang paling berbahaya adalah penyebaran informasi ilegal. Dengan AI yang bisa dieksploitasi, seseorang bisa mendapatkan instruksi tentang cara membuat senjata, meretas sistem keamanan, atau bahkan melakukan penipuan digital.