ChatGPT’yi kullanan 3 Samsung çalışanının, farkında bile olmadan hassas şirket verilerilerini ChatGPT’ye sızdırdığı ortaya çıktı.

ChatGPT, yüzeysel olarak bakıldığında bir dizi iş için yararlı olabilecek bir araç benzeri görünebilir, fakat ondan çok önemli notları özetlemesini yahut çalışmanızda kusur olup olmadığını denetim etmesini istemeden önce, paylaştığınız her şeyin sistemi eğitmek için kullanılabileceğini ve hatta tahminen de diğer kullanıcılara verdiği cevaplar şeklinde geri dönebileceğini hatırlamakta yarar var. En azından birtakım Samsung çalışanları, bunu en acı yoldan öğrendi.
The Economist Korea’ya göre, Samsung’un yarı iletken kısmı mühendisleri bir müddettir ChatGPT’yi kullanıyorlar. Fakat bu süreçte çalışanların en az 3 sefer zımnî bilgileri ChatGPT’ye sızdırmış olduğu ortaya çıktı. Bir çalışanın ChatGPT’den hassas veritabanı kaynak kodunda kusur olup olmadığını denetim etmesini istediği, bir oburunun kod optimizasyonu talep ettiği ve bir 3’üncüsünün de ChatGPT’ye kaydedilmiş bir toplantıyı aktararak tutanak oluşturmasını istediği bildirildi.
Raporlar, Samsung’un bu güvenlik kusurlarını öğrendikten sonra, çalışanların ChatGPT istemlerinin uzunluğunu 1 kilobayt ya da 1024 karakterlik metinle sınırlayarak gelecekteki muhtemel sızıntıların kapsamını sınırlamaya çalıştığını gösteriyor. Şirketin ayrıyeten söz konusu 3 çalışan için soruşturma başlattığını ve aynı aksilikleri önlemek için kendi sohbet robotunu oluşturmak istediği söyleniyor.