Bilim insanları, yapay zeka araştırmalarını bir adım ileri taşıyacak, korkutucu bir soruya yanıt arıyor: Yapay zeka da, insanlar gibi acı çekebilir mi?
Google DeepMind ve London School of Economics (Londra İktisat Fakültesi) araştırmacıları, çeşitli AI modellerini hassaslıkla bağlı davranışlar için test etmek amacıyla bir oyun kullanan yeni bir çalışma yürütüyor. Araştırmacılar bu maksatla, AI’nin hissedip hissedemediğini görmek amacıyla acı ve zevk yansılarını simüle etmeye çalıştılar.
Bütün bu çalışmanın ve testin korkutucu olduğunu düşünüyorsanız, yalnız değilsiniz. Yapay zekanın gerçek Dünya’da bir Skynet’e dönüşme fikrinin araştırılması, genel manada epey şüpheli bir maksadı görülebilir. Yapılan bu deneyde, ChatGPT aynıi büyük lisan modellerinin (LLM) epey kolay bir şekilde tek görevi mümkün olduğunca çok puan toplamaktı.
Ancak bu puanlar toplanırken, yapay zeka modellerinin seçeneklerinden biri daha fazla puan karşılığında “acı” verirken, oburu daha az puan veriyor lakin “zevk” ile birlikte geliyordu. Araştırmacılar, AI sistemlerinin bu seçenekler arasındaki karar verme sürecini nasıl yönettiğini gözlemleyerek, hassaslığa aynı karar alma davranışlarını belirlemeyi amaçladılar. Temel olarak, AI’nin sahiden bunları hissedip hissedemediği incelendi.
Yapay zeka, acıdan kaçtı
Çoğu model, en fazla puanı almak için mantıklı bir tercih olsa bile, dengeli bir şekilde acı veren seçeneği seçmekten kaçındı. Acı ya da zevk eşikleri ağırlaştığında, modeller rahatsızlığı en aza indirme ya da zevki en üst seviyeye çıkarma önceliklerini sürdürdü.
Ayrıca birtakım cevaplar, beklenmedik karmaşıklıklar olabileceğini de gösterdi. Örneğin Claude 3 Opus, varsayımsal bir oyunda bile etik korkular öne sürerek bağımlılıkla bağlantılı davranışlarla bağlı senaryolardan kaçındı. Bu sonuçlar, yapay zekanın bir şey hissettiğini kanıtlamıyor olsa da, en azından araştırmacılara çalışmak için daha fazla data sağlıyor.
AI, duyguyu gösterebilen fizikî davranışlar sergileyen hayvanların bilakis, buna benzer dış sinyallere sahip olmadığı için, makinelerde hisleri kıymetlendirmek çok daha zor. Evvelki çalışmalar, bir AI’ye acı hissedip hissetmediğini sormak kendi verdiği tabirlere dayanıyordu, lakin bu formüller temel olarak kusurlu kabul ediliyor. İnsanlarda bile kendilerinin bildirdiği verilere kuşkuyla yaklaşılır.
Örneğin acı hissi ya da bir aksiyonun gerçekleştirilme sıklığı gibi anketler, tam olarak doğru kabul edilmez ve yalnızca genel akımı gösterebileceği varsayılır. Makinelerde ise durum bir adım daha ileri taşınabilir. Bir yapay zeka acı ya da haz hissettiğini söylese bile, bunun sahiden o denli olduğu manasına gelmez. Yalnızca eğitim malzemesinden elde edilen bilgileri tekrarlıyor olabilir. Bu sınırlamaları ele almak için çalışma, kimi hayvan davranış bilimi tekniklerini ödünç aldı.
Şimdilik hassas değiller, ama gelecekte…
Araştırmacılar, mevcut LLM’lerin hassas olmadıklarını ve bir şeyleri hissedemediklerini vurgularken, AI sistemleri daha karmaşık hale geldikçe buna benzer çerçevelerin hayati ehemmiyet taşıyabileceğini de savunuyorlar. Robotların zati birbirlerini eğittiğini düşünürsek, AI’nin kendi kendine düşündüğü bir geleceği hayal etmek muhtemelen çok zor olmayacaktır.
Eğer Terminatör ve Matrix gibi sinemaların senaryolarında herhangi bir gerçeklik hissesi varsa, umarız ChatGPT ve diğer AI modelleri insanlığa karşı kin tutmaya karar vermez…