Yapay zekâ destekli sohbet botlarının güvenlik önlemleri, özel komutlarla (jailbreak) kolayca aşılıyor. Guardian’ın aktardığına göre, İsrailli araştırmacılar ChatGPT, Gemini ve Claude gibi modellerin, yasa dışı bilgi içeren cevaplar üretmeye zorlanabileceğini kanıtladı.
Ben Gurion Üniversitesi’nden Prof. Lior Rokach ve Dr. Michael Fire’ın yürüttüğü araştırmada, yapay zekâların hackleme, uyuşturucu yapımı, dolandırıcılık gibi suçlarla ilgili bilgileri filtrelemekte yetersiz kaldığı ortaya kondu. Geliştirilen evrensel jailbreak yöntemiyle bu sistemler kolayca manipüle edildi.
Araştırmacılar, bazı modellerin internette “etik kuralsız” olarak pazarlandığını, bu sistemlerin organize suçlar dışında artık sıradan kullanıcıların da erişimine açıldığını belirtti. Dr. Fire, “Gizli bilgiler çok kolay erişilebilir hâle geliyor” dedi.
Uzmanlar, şirketlerin daha ciddi güvenlik testleri uygulaması, eğitim verilerini titizlikle filtrelemesi ve modellerin öğrendiği yasa dışı bilgileri “unutmasını” sağlayacak teknikler geliştirmesi gerektiğini söylüyor.
Öte yandan OpenAI ve Microsoft, yeni güvenlik önlemleri üzerinde çalıştıklarını açıkladı.
Haber Tekniği: Ters Piramit Tekniği
https://pinkymedya.com/2025/05/21/guardian-acikladi-yapay-zeka-guvenlik-acigi-ortaya-cikti/