Yapay zekânın ilerleme suratı ve yapabileceklerinin sınırsızlığı her geçen gün bizi hayrete düşürüp heyecanlandırıyor. Lakin bu sınırsızlık, pedofili vahim olgulara da hizmet edebiliyor. Şu Anda size yapay zekâ tabanlı “ClothOff” pedofili ağını anlatacağız.

Yapay zekâ yoluyla istediğiniz kişinin çıplak fotoğrafını önünüze sunabilen “ClothOff” isimli uygulama, reşit olmayan birçok kız çocuğunun şantaja ve ruhsal şiddete maruz kalmasına sebep oldu. Kızların gerçek olmayan ama gerçeğinden farkı olmayan çıplak görüntüleri elden ele yayıldı.
The Guardian’ın öncülüğünde araştırılmaya devam eden mevzunun ayrıntılarına inmeden önce “deepfake” dediğimiz şey tam olarak nedir ve ne şeyler yapabilir bir bakalım.
Deepfake nedir?

Deepfake, çoğunlukla yapay zekâ teknikleriyle oluşturulan geçersiz yahut manipüle edilmiş ses kayıtları, videolar yahut fotoğraflardır. Örneğin birinin görüntüsü çok gerçekçi bir şekilde değiştirilerek görüntüde söylediğinden çok farklı şeyler söylüyormuş yapılabilir.
Aynı şekilde sizin bir fotoğrafınız kullanılarak yapmadığınız bir harekette bulunuyormuş yahut bir şey söylüyormuş gibi gösterilebilirsiniz. Tüm bunlar, birkaç fotoğrafın yahut görüntünün dataları kullanılarak kusursuz bir şekilde gerçekleştirilebilir.
Şuraya bir deepfake görüntüsü da bırakalım:
Tek kurban Taylor Swift de değil.

Hatırlarsanız geçtiğimiz ay Taylor Swift’in deepfake görüntüleri oldukça gündem olmuştu. Ne yazık ki bu durum sadece birkaç kişinin başına gelmiyor. Bilmediğimiz kentlerde, kasabalarda, topluluklarda; birçok insanın bu şekilde görüntüleri kullanılabiliyor.
Yani Taylor Swift buz dağının yalnızca görünen kısmıydı. Bizim içeriğimize bahis olan dehşet verici dosya da İspanya’nın küçük Almendralejo kasabasında geçiyor.
“ClothOff” isimli uygulama, vahim bir pedofili ağı başlattı.

The Guardian’ın 1 Mart 2024 tarihinde yayımladığı habere göre kasabadaki kız öğrencilerin yapay zekâ tarafından oluşturulan düzinelerce çıplak fotoğrafları, okuldaki diğer çocuklar tarafından kurulan bir WhatsApp kümesinde dolanıma girmişti.
Deepfake fotoğraflar yüzünden önemli anksiyete yaşayan ve depresyona giren kızlar, okula gitmeyi bile bırakmıştı. Panik ataklar geçiriyor, şantaja ve zorbalığa maruz kalıyorlardı.
Kızlardan birinin annesi şu sözleri söylemişti: “Gördüğünüzde şoke oluyorsunuz. Görüntü tamamen gerçek benzeri… Kızımın bedenini tanımasaydım kesinlikle o imgenin gerçek olduğunu düşünürdüm.”
Aynı durum ABD New Jersey’de de yaşanıyordu.

Almendralejo’dan binlerce kilometre uzaklıktaki New Jersey’deki bir lisede de aynı olaylar vardı. Liseli kızlar, sınıflarındaki diğer öğrenciler tarafından oluşturulan deepfake imajların kurbanı olmuştu. İspanya ve New Jersey’deki olayların merkezinde ise “ClothOff” isimli uygulama vardı.
Ayda 4 milyondan fazla ziyaret edilen ClothOff’a girmek için 18 yaşın üzerinde olduğunuzu onayladıktan sonra 25 görsel için 8.50 euro ücret ödemeniz kafiydi. Bir kişinin fotoğrafını yüklediğinizde size çıplak versiyonunu veriyordu.
Korkunç pedofili ağının ardındakiler hâlâ araştırılmaya devam ediyor.

ClothOff’un gerisindeki şahıslar anonim olmayı iyi bir şekilde sürdürebiliyordu lakin The Guardian’ın yaptığı 6 aylık bir araştırma, birkaç kişinin ismini ortaya çıkardı. İpuçları, Belarus’ta bir erkek ve kız kardeşe götürmüştü. Şirket, paravan şirket üzerinden gelir elde ederek kara para aklıyordu.
Ulaşılan bireylerden biri ClothOff’un kurucusu olduğunu kabul etti fakat 18 yaşının altında bireylerin imajlarının kullanılamayacağını söyledi. Avrupa’da kayıtlı işletmeler ve Londra’daki yerleşik paravan şirketler üzerinden çalışan karmaşık bir ağ var.
Uygulamaya erişim birçok ülkeden engellendi fakat dünyanın her yerinden çeşitli tekniklerle hâlâ kullanılabiliyor. Görüntülerin nasıl oluşturulduğu ve arkasında tam olarak kimlerin olduğu hâlâ araştırılmaya devam ediyor.
Diğer içeriklerimize göz atmak isterseniz: