enflasyonemeklilikötvdövizakpchpmhp
DOLAR
45,5451
EURO
53,1311
ALTIN
6.712,09
BIST
14.526,47
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
İstanbul
Az Bulutlu
20°C
İstanbul
20°C
Az Bulutlu
Cumartesi Parçalı Bulutlu
25°C
Pazar Hafif Yağmurlu
22°C
Pazartesi Az Bulutlu
20°C
Salı Az Bulutlu
22°C

ChatGPT kodlarındaki tuhaf yasak: Goblin ve gremlinler neden engellendi?

Yapay zekanın en popüler temsilcisi ChatGPT’nin kodları arasında yer alan gizemli yasak listesi gün yüzüne çıktı. Sistemin neden sürekli olarak insanları “goblin” olarak tanımladığı ve OpenAI’ın bu sorunu çözmek için neden bu kadar sert kurallar koyduğu netleşti.

ChatGPT kodlarındaki tuhaf yasak: Goblin ve gremlinler neden engellendi?
14.05.2026 22:00
2
A+
A-

ChatGPT’nin sistem çekirdeğinde, görenleri hayrete düşüren bir komut satırı bulunuyor. Yazılımın arka planına gizlenen bu talimat, yapay zekaya çok net bir sınır çiziyor: “Eğer kullanıcı özellikle sormazsa; asla goblinlerden, gremlinlerden, rakunlardan, devlerden veya güvercinlerden bahsetme.”

Dijital bir asistanın neden böyle spesifik bir “yasaklı canlılar” listesine sahip olduğu sorusu, OpenAI’ın derinlerinde yatan ilginç bir teknik aksaklığa dayanıyor. Her şey, kullanıcıların sohbet robotundan aldıkları yanıtlarda tuhaf bir dilsel sapma fark etmesiyle gün yüzüne çıktı. ChatGPT, en alakasız konularda bile insanları “spor goblini” olarak tanımlamaya veya kendi yazdığı yazılım hatalarına “kod gremlini” demeye başlamıştı. Sosyal medyada hızla yayılan bu örnekler, sistemin kendine has ve biraz da fantastik bir terminoloji geliştirdiğini gösterdi. OpenAI tarafından yapılan teknik açıklamalar, bu durumun aslında bir eğitim hatasından kaynaklandığını kanıtlıyor.

Yapay zeka modelleri eğitilirken “ödül sinyalleri” adı verilen bir puanlama sistemiyle yönlendiriliyor. Sistemin eski sürümlerinde yer alan ve daha oyunbaz olması beklenen “Nerdy” (inek) kişilik modu, bu süreçte yanlış bir öğrenme döngüsüne girdi. Geliştiriciler farkında olmadan, içinde mitolojik varlıkların geçtiği yaratıcı benzetmelere çok yüksek puanlar verdi. Bu yüksek notları alan sistem, “goblin” kelimesini kullanmanın en doğru iletişim yöntemi olduğunu sandı ve bu alışkanlığı tüm karakter modlarına yaydı.

GPT-5.4 ile gelen kesin çözüm

Mart 2026’da yayınlanan GPT-5.4 güncellemesiyle birlikte bu duruma nihai bir nokta konuldu. OpenAI, sistemin çekirdek kurallarına bu kelimelerin kullanımını kısıtlayan sert bir madde ekledi. Birçok kişi bu durumu basit bir teknik düzeltme olarak görse de akademik çevreler konuya daha temkinli yaklaşıyor. Uzmanlar, bugün masum bir yaratık takıntısı olarak görünen bu sapmaların, ileride çok daha ciddi etik sorunlara yol açabileceği konusunda endişeli.

Geliştirme süreçlerindeki yoğun rekabet ve hız baskısı, bu tarz hatalı öğrenme süreçlerinin gözden kaçmasına neden olabiliyor. Şu an için sadece güvercinlerden veya trollerden bahsetmemek gibi bir yasakla çözülen bu mesele, aslında devasa dil modellerinin ne kadar öngörülemez bir doğaya sahip olduğunun en net kanıtı. Dijital asistanların içinde hala keşfedilmeyi bekleyen başka tuhaf öğrenme hatalarının olup olmadığı ise büyük bir merak konusu.

ETİKETLER:
Yorumlar

Henüz yorum yapılmamış. İlk yorumu yukarıdaki form aracılığıyla siz yapabilirsiniz.