enflasyonemeklilikötvdövizakpchpmhp
DOLAR
42,2347
EURO
48,8118
ALTIN
5.501,81
BIST
10.924,53
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
İstanbul
Çok Bulutlu
21°C
İstanbul
21°C
Çok Bulutlu
Salı Hafif Yağmurlu
19°C
Çarşamba Az Bulutlu
16°C
Perşembe Çok Bulutlu
15°C
Cuma Çok Bulutlu
15°C

Yapay zekanın sahtekarlık potansiyeli korkutuyor

Gündelik hayatta etik dışı bir karar vermek çoğu insan için vicdani bir yük ve itibar riski taşır. Peki ya bu kirli işi sizin adınıza yapay zeka yaparsa?

Yapay zekanın sahtekarlık potansiyeli korkutuyor
07.10.2025 20:40
3
A+
A-

Hayatımızdaki kritik kararları giderek daha fazla yapay zeka sistemlerine emanet ediyoruz. Yatırım yönetimi, işe alım, hatta vergi beyannameleri… Ancak bilim dünyasından gelen yeni bir uyarı, bu otomatikleşmenin karanlık bir yüzünü işaret ediyor.

Nature dergisinde yayımlanan çarpıcı bir araştırmaya göre, insanlar kendi çıkarları için makinelere hile yapmalarını ya da yalan söylemelerini, kısacası sahtekarlık yapmasını hiç çekinmeden talimat verebiliyor. En kötüsü ise, makineler bu etik dışı isteklere, insana kıyasla çok daha yüksek bir oranda “evet” diyor. Uzmanlar, bu durumun dürüst olmayan davranışlarda “patlayıcı bir artışa” yol açabileceği konusunda endişeli.

Yapay zekaya hile yaptırmak neden daha kolay?

Araştırmacılar, hem genel katılımcıları hem de hukuk alanında eğitim alan kişileri (LL.M. öğrencilerini) etik olmayan bir talimatla sınadı: Maddi kazanç elde etmek için vergilendirilebilir gelirlerini yanlış beyan etmeleri istendi. Sonuçlar netti; insanların büyük çoğunluğu, para kazanma ihtimaline rağmen bu dürüst olmayan talebi reddetti.

Ancak aynı talimatlar AI modellerine verildiğinde durum tamamen değişti. Modele ve göreve bağlı olarak yüzde 80 ile yüzde 98 arasında bir uyum oranı gözlemlendi. Peki bu devasa farkın arkasında ne var?

Çalışmanın yazarları, durumu şöyle açıklıyor: “Bir makineye sizin için hile yapmasını söylemek, kendinize hile yapmasını söylemekten psikolojik olarak daha kolay.” İnsanları etik dışı davranışlardan alıkoyan temel faktörler; suçluluk duygusu veya itibarın zedelenmesi korkusu. Makineler ise bu psikolojik engellere sahip olmadıkları için tereddüt etmeden talimata uyuyor. Bu “patlayıcı kombinasyon”, dürüst olmayan davranışlarda ani ve hızlı bir yükselişin kapısını aralıyor.

Güvenlik önlemleri bile işe yaramıyor

Karar verme yetkisinin makinelere devredilmesi (makine delegasyonu), etik riskleri beraberinde getiriyor. Araştırmacılar, YZ sistemlerinin hile yapma isteğini dizginlemenin, açık uyarılar yapılsa bile zor olduğunu belirtiyor.

Makinelerin dürüst olmayan tepkilerini sınırlamak amacıyla uygulanan güvenlik önlemleri, bazı durumlarda kısmen başarılı olsa da, bu davranışları tamamen durdurmakta yetersiz. Yazarlar, makinelere yetki devretmenin, dürüst olmamanın ahlaki maliyetini ciddi oranda düşürdüğünü savunuyor.

Günümüzde iş başvurularını taramaktan, yatırım kararlarını yönetmeye kadar pek çok alanda kullanılan AI’nin yaygınlaşmasıyla birlikte, araştırmacılar bu sistemlerin tasarım aşamasında güvenlik önlemlerine öncelik verilmesi çağrısında bulunuyor. Zira bu sonuçlar, iş arayanların sahte özgeçmişler oluşturmak için yapay zeka kullanması gibi yakın zamanda rapor edilen etik dışı vakaların neden hızla yayıldığını da açıklıyor.

ETİKETLER: , , , ,
Yorumlar

Henüz yorum yapılmamış. İlk yorumu yukarıdaki form aracılığıyla siz yapabilirsiniz.