ChatGPT’nin yaratıcısı OpenAI, Rusya, Çin, İran ve İsrail’in de aralarında bulunduğu ülkelerden dezenformasyon oluşturmak için yapay zeka araçlarını kullanan hesapları engelledi.
OpenAI, Rusya, Çin, İran ve İsrail kontaklı operasyonların yapay zeka araçlarını dezenformasyon yaratmak ve yaymak için kullandığını ortaya çıkardı.
ChatGPT sohbet robotunun San Francisco merkezli geliştiricisi, yayınladığı raporda, beş kapalı operasyonda yapay zeka modellerinin yüksek hacimde metin ve görseller üretmek için kullanıldığını ve bu prosedürle daha önce olduğundan daha az lisan yanılgısı yapıldığını, ayrıyeten kendi paylaşımlarına yorum ve cevaplar üretildiğini belirtti.
OpenAI raporunda, içeriklerin “Rusya’nın Ukrayna’yı işgali, Gazze’deki insanlık dramı, Hindistan seçimleri, Avrupa ve Amerika Birleşik Devletleri’ndeki siyaset ve Çinli muhalifler ve yabancı hükümetler tarafından Çin hükümetine yönelik eleştiriler” benzeri mevzulara odaklandığı belirtildi.
Yapay zekaya dezenformasyon baskısı artıyor
OpenAI gibi süratle büyüyen yapay zeka şirketleri üzerindeki baskı artıyor çünkü teknolojilerindeki süratli ilerlemeler, dezenformasyon yapanların gerçekçi deepfake’ler yaratmasının, medyayı manipüle etmesinin ve akabinde bu içeriği otomatik bir şekilde yaymasının çoğu zaman kinden daha ucuz ve kolay olduğunu gösteriyor. Bu yıl yaklaşık 2 milyar insan sandık başına giderken, siyasetçiler şirketleri uygun müdafaa tedbirleri almaya ve uygulamaya çağırdı.
Microsoft dayanaklı OpenAI, buna aynı dezenformasyon kampanyalarını ifşa etmeye kararlı olduğunu ve tespit ve tahlili “daha etkili” hale getirmek için kendi yapay zeka takviyeli araçlarını geliştirdiğini söyledi. OpenAI, güvenlik sistemlerinin faillerin çalışmasını şimdiden zorlaştırdığını ve modellerinin istenen metin yahut görüntüleri üretmeyi birçok defa reddettiğini de sözlerine ekledi.
Raporda OpenAI, devlete bağlı birkaç tanınmış dezenformasyon aktörünün araçlarını kullandığını ortaya koydu. Bunlar arasında ilk defa 2022’de keşfedilen ve çoklukla Ukrayna’ya verilen takviyesi baltalamaya çalışan Doppelganger isimli bir Rus operasyonu ve Pekin’in çıkarlarını yurtdışına taşıyan Spamouflage olarak bilinen bir Çin ağı da vardı. Her iki kampanya da X platformlarda yayınlamadan önce birden fazla lisanda metin ya da yorum oluşturmak için modellerini kullandı.
Daha önce bildirilmeyen ve Bad Grammar olarak isimlendirilen bir Rus operasyonunu da açığa çıkaran rapor, bu operasyonun OpenAI modellerini bir Telegram botunu çalıştırmak için kod yanlışlarını ayıklamak ve daha sonra iletileşme platformu Telegram’da yayınlanan Rusça ve İngilizce kısa, siyasi yorumlar oluşturmak için kullandığını belirtti.
Ayrıca şirket, Tel Aviv merkezli STOIC isimli bir siyasi kampanya yönetimi şirketi tarafından yürütüldüğü iddia edilen ve modellerini X, Instagram ve Facebook’da makaleler ve yorumlar oluşturmak için kullanan İsrail yanlısı bir dezenformasyon girişimini engellediğini söyledi.