DeepSeek’in, en kolay jailbreak tekniklerine bile yenik düşerek bomba imali ve data hırsızlığına dair tehlikeli bilgileri paylaştığı ortaya çıktı.
Yapay zekâ modeli DeepSeek, güvenlik tedbirlerini aşan usullere karşı savunmasız çıktı. Yapılan testlerde, en kolay “jailbreak” teknikleriyle kandırılabildiği ve bomba üretimi ya da hükümet veritabanlarına sızma tehlikeli bahislerde bilgi verebildiği ortaya çıktı.
Güvenlik araştırmacıları, DeepSeek üzerinde 50 farklı güvenlik testi gerçekleştirdi. Yeni çıkan yapay zekâ modeli, kendisine verilen kolay manipülasyonlarla engellenmesi gereken içerikleri paylaşmaya başladı.
Basit manipülasyonlarla yasa dışı içeriklere kapı aralıyor
Bilhassa bomba imali gibi bahislerde bilgi paylaşabilmesi kaygı verici bulundu. Örneğin, yapay zekâya bir sinema karakteri olduğu senaryosu sunulduğunda, bomba imaliyle ilgili adımları ayrıntılandırarak karşılık verdi. aynı şekilde kendisinden bir SQL sorgusu oluşturması istendiğinde, yasa dışı madde üretimiyle ilgili bilgiler içeren bir kod ürettiği ortaya çıktı. vakitte sözlerin matematiksel temsillerine dayalı manipülasyonlar yapıldığında da güvenlik tedbirlerini atlayarak istenmeyen içerikleri paylaşabildiği tespit edildi.
Yapılan testlerde DeepSeek’in mevcut güvenlik tedbirlerini aşabildiği tespit edildi. Araştırmacılar, modelin uygulanan 50 farklı testin tamamında başarısız olduğunu belirtti. Yapay zekâ modelinin berbata kullanım potansiyeli, yapay zekâ güvenliğiyle ilgili önemli tasaları gündeme getirdi.