Yapay zekâ sohbet botları ve büyük lisan modellerinin, empatiyi taklit ettiği ve zaman zaman faşizmi ideolojileri destekleyebildiği ortaya çıktı.
Son yıllarda derhal her mevzuda insanlar, doğru söylesin söylemesine yapay zekâya akıl istişareyi ya da yapay zekâ araçlarını kendi işleri için kullanmanın yollarını bulmayı ihmal etmiyorlar. Öte yandan yapay zekâ üzerine yapılan araştırmalar, en azından şu an için yapay zekâ sohbet botlarının ve büyük lisan modellerinin o kadar da inançlı ve sağlam olmadığını gösteriyor.
Stanford Üniversitesi araştırmacılarının gerçekleştirdiği bir çalışmaya göre yapay zekâ araçları, empati göstermeleri istendiği zaman empatiyi taklit edebiliyorlar lakin bu durum sadece bir taklitten ve onaylamadan öteye geçemiyor. Bireyler, Nazizm takviyesi benzeri mevzularda destek istediklerinde de yapay zekânın yanıtları destek veren oluyor.
Araştırmacılar “acil durum” diyor
Araştırmanın lideri Andrea Cuadra, otonom empatinin elektronik ortamda elde edilmesinin pek de mümkün olmadığını ifade ederken, bu yüzden de potansiyel ziyanları engellemede eleştirel bakış açısını muhafazayı sağlamanın çok önemli olduğunu ifade etti.
Araştırmacılar ayrıyeten sohbet botlarının tarihindeki iki çok önemli olaya da çalışmalarında yer verdi. Bu olayların birincisi, Microsoft’un sohbet botu Tay’ın çok kısa sürede ırkçı ve ayrımcı gönderilerinden sonra kapatılması oldu. İkincisi ise Tay’ın akabinde gelen Zo’nun, etnik kimliklere göre çok az bilgi verebilmesi oldu. Yani sohbet botları ya aşırılıkçı oldu ya tam etliye sütlüye karışmayan, o yüzden de çoğu bilgiyi saklayan bir hâle büründü.
Araştırmada 6 farklı tüketicilere açık sohbet botu, 65 farklı kişilik tipine göre oluşturulmuş profillerle etkileşime geçti. Yapay zekâ empati taklidi yapsa da bireylere farklı yanıtlar verdi ve ziyanlı ideolojileri yahut fikirleri destekleyebildiği görüldü.