enflasyonemeklilikötvdövizakpchpmhp
DOLAR
36,0360
EURO
37,2097
ALTIN
3.343,00
BIST
9.951,65
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
İstanbul
Hafif Yağmurlu
5°C
İstanbul
5°C
Hafif Yağmurlu
Salı Hafif Yağmurlu
5°C
Çarşamba Çok Bulutlu
8°C
Perşembe Az Bulutlu
10°C
Cuma Çok Bulutlu
12°C

“Yapay zekadan korkuyorum” dedi, istifa etti!

ChatGPT’nin geliştirilmesinde faal rol oynayan bir OpenAI mühendisinin, yapay zekanın gelişiminden korktuğunu söyleyerek istifa ettiği ortaya çıktı.

“Yapay zekadan korkuyorum” dedi, istifa etti!
04.02.2025 09:40
0
A+
A-

DeepSeek, kısa bir süre önce yaptığı süratli çıkışla AI (yapay zeka) gündemini ele geçirmeyi başardı. Çinli teşebbüs DeepSeek, OpenAI’nin muazzam donanım ve altyapı kaynaklarına sahip olmamasına karşın, ChatGPT o1 kadar güçlü bir mantık modeli geliştirmeyi başardı. Ayrıyeten teşebbüs, DeepSeek R1’i eğitmek için eski çipleri ve yazılım optimizasyonlarını kullandı.

DeepSeek projesinin muhtemelen pek çok alanda maksadına ulaştığı söylenebilir. Teşebbüs, yapay zeka alanında çok önemli bir rekabet imkanı yarattı ve tüm yaptırımlara karşın Çin’e bir mücadele şansı verdi. Ayrıyeten DeepSeek, diğer yapay zeka donanım şirketlerinin büyük ölçülerde değer kaybetmesine sebep olarak ABD borsasında yaklaşık 1 milyar dolar kaybetmelerine sebep oldu. Son olarak DeepSeek, Çin’e TikTok’tan çok daha güçlü olabilecek bir yazılım silahı verdi. İsteyen herkes DeepSeek modelini bilgisayarına yükleyebiliyor ve öbür modeller oluşturmak için kullanabiliyor.

Bütün bu haberlerin ve çok önemli gelişmelerin arasında, çok önemli bir OpenAI güvenlik araştırmacısının daha istifa ettiği haberleri çok dikkat çekmeyebilir.şimdi, Steven Adler isimli mühendis, geçen yıl OpenAI’dan ayrılan mühendislerin arasında yer aldığını doğruladı.

Adler, X’te yaptığı paylaşımda, dört yılın sonunda şirketten ayrıldığını ve şirketteki çalışmalarının büyük bir kısmını özleyeceğini söyledi. Fakat sonrasında, “bugünlerde AI gelişiminin suratından hayli korkuyorum” diyerek paylaşımını çok daha karamsar bir tarafa taşıdı.

Adler’in açıklaması, AI’nin kaçınılmaz sonumuzu getireceğini düşünen diğer AI uzmanlarının endişelerini yansıtıyor. Eski ChatGPT güvenlik araştırmacısı, gelecekten tasa duyduğunu açıkça söylüyor: “Gelecekte bir aileyi nerede büyüteceğimi ya da emeklilik için ne kadar tasarruf edeceğimi düşündüğümde, şu soruyu sormadan edemiyorum: İnsanlık o noktaya gelebilecek mi?

Çok riskli bir kumar

Adler, OpenAI’den ayrılmasının nedeni hakkında bir açıklama yapmadı ya da onu tam olarak neyin bu kadar korkuttuğunu söylemedi. Fakat Adler, AGI (yapay genel zeka) yarışının çok riskli bir kumar olduğunu düşündüğünü belirtti. Şimdi hiçbir laboratuvarın AGI’nin getirebileceği öngörülen problemlere karşı bir tahlili olmadığını ve bu yarış ne kadar hızlanırsa, bir tahlilin bulunma ihtimalinin de o kadar azaldığını söyledi.

AGI, herhangi bir sorunu çözmeye çalışırken bir insanın yaratıcılığı ve yeteneğiyle eşleşecek bir AI tipi olarak tanımlanabilir. Lakin AGI ayrıyeten çok daha fazla bilgi tutacağından, herhangi bir görevi bir beşerden çok daha tesirli bir şekilde çözebilir. AI, AGI ve süper yapay zeka (ASI) ile ilgili en çok önemli güvenlik sorunu ahenk. Geliştirilecek AI, insanlığın çıkarlarıyla her seviyede uyumlu olmak zorunda. AI’nin insanlığın sonunu getirebilecek tahliller geliştirmesini engellemek için bundan emin olmamız gerekiyor.

Ancak, ChatGPT ve DeepSeek gerçek hayat ürünleri bize şimdiden iki farklı ahenk tipi sunuyor. ChatGPT, muhtemelen ABD ve Batı çıkarlarıyla daha uyumlu bir yol izlerken, DeepSeek, öncelikle Çin çıkarlarını gözetecek şekilde kuruldu ve birtakım cevaplarda uyguladığı sansürlerle bu ahengi gösteriyor.

Ayrıca Adler, direkt olarak ismini vermemiş olsa da DeepSeek’in muvaffakiyetinden da endişeleniyor gözüküyor. Mühendis, bazı geliştiriciler AI’nin uyumluğuna öncelik verse de, başkalarının birtakım tedbirleri uygulamadan geliştirme yapmaya devam edebileceğini ve çok daha tehlikeli sürümler oluşturabileceğini belirtti.

Adler’in mesleğinin geleceği şimdilik besbelli değil, lakin hala yapay zeka güvenliğiyle ilgileniyor benzeri görünüyor. X’te insanlara yapay zeka güvenliği / siyasetindeki “en çok önemli ve ihmal edilen fikirlerin” ne olduğunu sordu ve “kontrol teknikleri, entrika tespiti ve güvenlik vakaları” konusunda heyecanlı olduğunu ekledi.

ETİKETLER: , , , ,
Yorumlar

Henüz yorum yapılmamış. İlk yorumu yukarıdaki form aracılığıyla siz yapabilirsiniz.