ChatGPT’nin geliştirilmesinde faal rol oynayan bir OpenAI mühendisinin, yapay zekanın gelişiminden korktuğunu söyleyerek istifa ettiği ortaya çıktı.
DeepSeek, kısa bir süre önce yaptığı süratli çıkışla AI (yapay zeka) gündemini ele geçirmeyi başardı. Çinli teşebbüs DeepSeek, OpenAI’nin muazzam donanım ve altyapı kaynaklarına sahip olmamasına karşın, ChatGPT o1 kadar güçlü bir mantık modeli geliştirmeyi başardı. Ayrıyeten teşebbüs, DeepSeek R1’i eğitmek için eski çipleri ve yazılım optimizasyonlarını kullandı.
DeepSeek projesinin muhtemelen pek çok alanda maksadına ulaştığı söylenebilir. Teşebbüs, yapay zeka alanında çok önemli bir rekabet imkanı yarattı ve tüm yaptırımlara karşın Çin’e bir mücadele şansı verdi. Ayrıyeten DeepSeek, diğer yapay zeka donanım şirketlerinin büyük ölçülerde değer kaybetmesine sebep olarak ABD borsasında yaklaşık 1 milyar dolar kaybetmelerine sebep oldu. Son olarak DeepSeek, Çin’e TikTok’tan çok daha güçlü olabilecek bir yazılım silahı verdi. İsteyen herkes DeepSeek modelini bilgisayarına yükleyebiliyor ve öbür modeller oluşturmak için kullanabiliyor.
Bütün bu haberlerin ve çok önemli gelişmelerin arasında, çok önemli bir OpenAI güvenlik araştırmacısının daha istifa ettiği haberleri çok dikkat çekmeyebilir.şimdi, Steven Adler isimli mühendis, geçen yıl OpenAI’dan ayrılan mühendislerin arasında yer aldığını doğruladı.
Adler, X’te yaptığı paylaşımda, dört yılın sonunda şirketten ayrıldığını ve şirketteki çalışmalarının büyük bir kısmını özleyeceğini söyledi. Fakat sonrasında, “bugünlerde AI gelişiminin suratından hayli korkuyorum” diyerek paylaşımını çok daha karamsar bir tarafa taşıdı.
Adler’in açıklaması, AI’nin kaçınılmaz sonumuzu getireceğini düşünen diğer AI uzmanlarının endişelerini yansıtıyor. Eski ChatGPT güvenlik araştırmacısı, gelecekten tasa duyduğunu açıkça söylüyor: “Gelecekte bir aileyi nerede büyüteceğimi ya da emeklilik için ne kadar tasarruf edeceğimi düşündüğümde, şu soruyu sormadan edemiyorum: İnsanlık o noktaya gelebilecek mi?”
Çok riskli bir kumar
Adler, OpenAI’den ayrılmasının nedeni hakkında bir açıklama yapmadı ya da onu tam olarak neyin bu kadar korkuttuğunu söylemedi. Fakat Adler, AGI (yapay genel zeka) yarışının çok riskli bir kumar olduğunu düşündüğünü belirtti. Şimdi hiçbir laboratuvarın AGI’nin getirebileceği öngörülen problemlere karşı bir tahlili olmadığını ve bu yarış ne kadar hızlanırsa, bir tahlilin bulunma ihtimalinin de o kadar azaldığını söyledi.
AGI, herhangi bir sorunu çözmeye çalışırken bir insanın yaratıcılığı ve yeteneğiyle eşleşecek bir AI tipi olarak tanımlanabilir. Lakin AGI ayrıyeten çok daha fazla bilgi tutacağından, herhangi bir görevi bir beşerden çok daha tesirli bir şekilde çözebilir. AI, AGI ve süper yapay zeka (ASI) ile ilgili en çok önemli güvenlik sorunu ahenk. Geliştirilecek AI, insanlığın çıkarlarıyla her seviyede uyumlu olmak zorunda. AI’nin insanlığın sonunu getirebilecek tahliller geliştirmesini engellemek için bundan emin olmamız gerekiyor.
Ancak, ChatGPT ve DeepSeek gerçek hayat ürünleri bize şimdiden iki farklı ahenk tipi sunuyor. ChatGPT, muhtemelen ABD ve Batı çıkarlarıyla daha uyumlu bir yol izlerken, DeepSeek, öncelikle Çin çıkarlarını gözetecek şekilde kuruldu ve birtakım cevaplarda uyguladığı sansürlerle bu ahengi gösteriyor.
Ayrıca Adler, direkt olarak ismini vermemiş olsa da DeepSeek’in muvaffakiyetinden da endişeleniyor gözüküyor. Mühendis, bazı geliştiriciler AI’nin uyumluğuna öncelik verse de, başkalarının birtakım tedbirleri uygulamadan geliştirme yapmaya devam edebileceğini ve çok daha tehlikeli sürümler oluşturabileceğini belirtti.
Adler’in mesleğinin geleceği şimdilik besbelli değil, lakin hala yapay zeka güvenliğiyle ilgileniyor benzeri görünüyor. X’te insanlara yapay zeka güvenliği / siyasetindeki “en çok önemli ve ihmal edilen fikirlerin” ne olduğunu sordu ve “kontrol teknikleri, entrika tespiti ve güvenlik vakaları” konusunda heyecanlı olduğunu ekledi.