AI Bisa Dibajak? Begini Cara Peretas Membobol Sistem dan Membuat AI Patuh pada Perintah Berbahaya!
Sabtu, 1 Februari 2025 - 07:10 WIB
Sumber :
- Image Creator/Handoko
Teknik jailbreak semakin berkembang, dan banyak model AI besar yang ternyata masih bisa dieksploitasi. Dari DeepSeek hingga ChatGPT, peretas telah menemukan berbagai cara untuk membobol batasan keamanan yang ada.
Baca Juga :
Model AI dapat Memprediksi 'Usia Biologis' dari Swafoto dan akan Digunakan Memandu Pengobatan Kanker
Meskipun AI memberikan banyak manfaat, kita tetap harus waspada dalam menggunakannya. Keamanan dan privasi harus tetap menjadi prioritas utama, agar kecanggihan teknologi tidak menjadi bumerang bagi kita sendiri.
Saat ini, dunia AI masih terus berkembang, dan tantangan keamanannya semakin kompleks. Jika perusahaan teknologi tidak segera mengambil langkah yang lebih ketat, bukan tidak mungkin di masa depan kita akan menghadapi lebih banyak kasus AI yang disalahgunakan oleh pihak yang tidak bertanggung jawab.