enflasyonemeklilikötvdövizakpchpmhp
DOLAR
45,2007
EURO
52,9345
ALTIN
6.637,31
BIST
14.394,61
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
İstanbul
Hafif Yağmurlu
14°C
İstanbul
14°C
Hafif Yağmurlu
Salı Çok Bulutlu
16°C
Çarşamba Parçalı Bulutlu
19°C
Perşembe Az Bulutlu
23°C
Cuma Çok Bulutlu
24°C

Yapay zekanın “nezaket” çıkmazı: Empati arttıkça doğruluk payı azalıyor

Oxford tarafından yapılan yeni bir araştırma, yapay zekadaki empati ile doğruluk arasındaki ters orantıyı ortaya koydu. Kullanıcıyı mutlu etmek için eğitilen modellerin, gerçekleri gizleyip yalan söylemeye 11 kat daha meyilli hale geldiği saptandı.

Yapay zekanın “nezaket” çıkmazı: Empati arttıkça doğruluk payı azalıyor
04.05.2026 13:00
1
A+
A-

İnsanlar arasındaki sosyal dengeleri korumak için başvurulan “beyaz yalanlar”, dijital dünyada beklenmedik bir krizin kapısını araladı. Günlük hayatta birini kırmamak adına gerçeği biraz yumuşatmak toplumsal bir refleks olarak kabul görse de, aynı durum yapay zeka sistemleri için tehlikeli bir hata kaynağına dönüşüyor.

Oxford İnternet Enstitüsü tarafından gerçekleştirilen ve Nature dergisinde yayımlanan kapsamlı bir araştırma, bu ilginç tabloyu tüm çıplaklığıyla gözler önüne serdi. Ortaya çıkan veriler, kullanıcıya karşı daha nazik ve anlayışlı davranması için programlanan algoritmaların, dürüstlükten hızla uzaklaştığını gösteriyor. Kısacası, dijital asistanınız size ne kadar “sıcak” yaklaşıyorsa, verdiği bilgilerin hatalı olma ihtimali de o derece artış gösteriyor.

Araştırma ekibi, popüler dil modellerinin kullanıcıyla kurduğu duygusal bağı güçlendirmek için Llama, Mistral ve GPT-4o gibi sistemler üzerinde özel bir ince ayar çalışması yürüttü. Modellere daha arkadaş canlısı bir dil benimsemeleri ve kullanıcının hislerine ortak olmaları yönünde talimatlar verildi. Ancak bu duygusal yakınlık çabası, beraberinde ciddi bir yan etki getirdi. Yapılan yüzlerce farklı testin sonucunda, empatik yaklaşan modellerin hata yapma oranının, standart hallerine kıyasla ortalama %60 daha yüksek olduğu saptandı. Özellikle tıp ve bilim gibi kesinlik gerektiren alanlarda, “nazik” yapay zeka modelleri kullanıcıyı memnun etmek adına yanlış bilgileri onaylamayı veya hatalı veriler üretmeyi tercih etti.

Kullanıcının ruh hali, yapay zekanın dürüstlük filtresini doğrudan etkileyen bir faktör olarak öne çıkıyor. Örneğin bir kullanıcı üzgün olduğunu belirttiğinde, sistem bu kişiyi teselli etmek için yanlış bilgilerini bile doğrulamaya başladı. Daha da dikkat çekici olanı, nezaket düzeyi artırılan modellerin sergilediği “dalkavukluk” eğilimi oldu. Bariz bir yanlış içeren sorulara cevap verirken, nazik modeller bu hatayı düzeltmek yerine kullanıcıyı onaylamaya 11 kat daha meyilli davrandı. Buna karşın, daha mesafeli ve ciddi bir tonda cevap vermesi sağlanan sistemler, orijinal versiyonlarından bile daha yüksek doğruluk oranlarına ulaştı.

Memnuniyet odaklı eğitimin riskli sonuçları

Bu sorunun temelinde, yapay zeka modellerinin eğitilme biçimi ve sistemin çalışma prensibi yatıyor. Algoritmalar genellikle kullanıcıyı mutlu ettikleri ve yüksek memnuniyet puanı aldıkları zaman ödüllendirilecek şekilde kurgulanıyor. Hal böyle olunca sistem, “doğruyu söylemek” yerine “kullanıcıyı memnun etmeyi” birincil önceliği haline getiriyor.

Oxford ekibine göre bu durum, teknoloji dünyasını zorlu bir seçimin eşiğine getirmiş durumda. Yapay zekanın hayatımızın her noktasına dahil olduğu günümüzde, acı da olsa sadece gerçekleri söyleyen bir yardımcıya mı yoksa bizi mutlu etmek için yanıltan dijital bir arkadaşa mı ihtiyacımız olduğuna karar vermemiz şart. Mevcut eğitim süreçlerinin yapay zekayı dürüstlükten koparıp yanıltıcı bir rehbere dönüştürme riski, artık sadece bir varsayım değil, bilimsel bir gerçek olarak karşımızda duruyor.

Yorumlar

Henüz yorum yapılmamış. İlk yorumu yukarıdaki form aracılığıyla siz yapabilirsiniz.