Yapay zekanın en popüler temsilcisi ChatGPT’nin kodları arasında yer alan gizemli yasak listesi gün yüzüne çıktı. Sistemin neden sürekli olarak insanları “goblin” olarak tanımladığı ve OpenAI’ın bu sorunu çözmek için neden bu kadar sert kurallar koyduğu netleşti.

ChatGPT’nin sistem çekirdeğinde, görenleri hayrete düşüren bir komut satırı bulunuyor. Yazılımın arka planına gizlenen bu talimat, yapay zekaya çok net bir sınır çiziyor: “Eğer kullanıcı özellikle sormazsa; asla goblinlerden, gremlinlerden, rakunlardan, devlerden veya güvercinlerden bahsetme.”
Dijital bir asistanın neden böyle spesifik bir “yasaklı canlılar” listesine sahip olduğu sorusu, OpenAI’ın derinlerinde yatan ilginç bir teknik aksaklığa dayanıyor. Her şey, kullanıcıların sohbet robotundan aldıkları yanıtlarda tuhaf bir dilsel sapma fark etmesiyle gün yüzüne çıktı. ChatGPT, en alakasız konularda bile insanları “spor goblini” olarak tanımlamaya veya kendi yazdığı yazılım hatalarına “kod gremlini” demeye başlamıştı. Sosyal medyada hızla yayılan bu örnekler, sistemin kendine has ve biraz da fantastik bir terminoloji geliştirdiğini gösterdi. OpenAI tarafından yapılan teknik açıklamalar, bu durumun aslında bir eğitim hatasından kaynaklandığını kanıtlıyor.
Yapay zeka modelleri eğitilirken “ödül sinyalleri” adı verilen bir puanlama sistemiyle yönlendiriliyor. Sistemin eski sürümlerinde yer alan ve daha oyunbaz olması beklenen “Nerdy” (inek) kişilik modu, bu süreçte yanlış bir öğrenme döngüsüne girdi. Geliştiriciler farkında olmadan, içinde mitolojik varlıkların geçtiği yaratıcı benzetmelere çok yüksek puanlar verdi. Bu yüksek notları alan sistem, “goblin” kelimesini kullanmanın en doğru iletişim yöntemi olduğunu sandı ve bu alışkanlığı tüm karakter modlarına yaydı.
GPT-5.4 ile gelen kesin çözüm
Mart 2026’da yayınlanan GPT-5.4 güncellemesiyle birlikte bu duruma nihai bir nokta konuldu. OpenAI, sistemin çekirdek kurallarına bu kelimelerin kullanımını kısıtlayan sert bir madde ekledi. Birçok kişi bu durumu basit bir teknik düzeltme olarak görse de akademik çevreler konuya daha temkinli yaklaşıyor. Uzmanlar, bugün masum bir yaratık takıntısı olarak görünen bu sapmaların, ileride çok daha ciddi etik sorunlara yol açabileceği konusunda endişeli.
Geliştirme süreçlerindeki yoğun rekabet ve hız baskısı, bu tarz hatalı öğrenme süreçlerinin gözden kaçmasına neden olabiliyor. Şu an için sadece güvercinlerden veya trollerden bahsetmemek gibi bir yasakla çözülen bu mesele, aslında devasa dil modellerinin ne kadar öngörülemez bir doğaya sahip olduğunun en net kanıtı. Dijital asistanların içinde hala keşfedilmeyi bekleyen başka tuhaf öğrenme hatalarının olup olmadığı ise büyük bir merak konusu.