OpenAI’ın geçtiğimiz günlerde kullanıma açtığı görsel oluşturma aracı, kötü niyetli bireylerin ana odağı hâline gelmiş durumda.
OpenAI’ın yeni görsel oluşturma aracı birkaç gündür ortalığı kasıp kavursa beraberinde çok önemli tartışmaları da getirdi.
ChatGPT 4o’nun sunduğu en etkileyici özelliklerden biri, yapay zekânın artık yüksek doğrulukta ve süratli bir şekilde görseller üretebilmesi.
Telif hakkıyla korunan sanat usulleri kopyalanmaya başladı
Diğer yapay zekâların metin yazma konusundaki başarısızlığının tersine metin içeren görseller oluşturabiliyor, gerçek fotoğrafları uydurma imgelerle değiştirebiliyor ve hatta telif hakkıyla korunan sanat usullerini kopyalayabiliyor.
Ancak eleştirmenler, tam da bu sebeplerden dolayı modelin getirdiği mümkün tehlikeler konusunda uyarıyor. Öncelikle bu kadar güçlü bir aracın grafik dizayncılar, fotoğrafçılar ve diğer içerik üreticileri için önemli bir tehdit oluşturduğu gerçek. Bunun yanı sıra OpenAI’ın ChatGPT 4o ile üretilen görsellere filigran eklememesi, uydurma içeriklerin tespit edilmesini zorlaştırıyor.
Ciddi bir dezenformasyon söylediği söz edilen olabilir
Daha da kaygı verici olan ise modelin deepfake içerik oluşturmayı hayli kolaylaştırması. Ünlülerin ya da kamuya mal olmuş kişilerin geçersiz görselleri saniyeler içinde üretilebiliyor ve kötü niyetli şahısların elinde bu durum önemli bir dezenformasyon aracı hâline gelebilir.
OpenAI, gelen tenkitlerin akabinde bu mevzu ile ilgili birtakım açıklamalar yaptı lakin deepfake sıkıntısına yönelik net bir adım atılmış değil. Şirket, ünlülerin ve kamu figürlerinin imgelerinin kullanımına karşı bir “devre dışı bırakma” listesi oluşturduğunu söylese de bu listenin kimleri kapsadığı ve nasıl işlediği belgisiz.
Şimdilik reaksiyonların ana odağı bu içeriklerin tamamında tespit edilebilir bir filigran olması gerektiği yönünde lakin OpenAI’ın bu hususta nasıl bir adım atacağını şimdilik bekleyip görmemiz gerekecek.