enflasyonemeklilikötvdövizakpchpmhp
DOLAR
45,2455
EURO
53,3626
ALTIN
6.885,04
BIST
14.947,33
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
İstanbul
Açık
23°C
İstanbul
23°C
Açık
Cuma Çok Bulutlu
24°C
Cumartesi Az Bulutlu
24°C
Pazar Çok Bulutlu
23°C
Pazartesi Az Bulutlu
24°C

OpenAI Yönetim Heyetine “Anti-Sam Altman” Yetkisi Verildi: Tehlikeli Görülen Yapay Zekâ Çalışmaları Veto Edilebilecek

OpenAI’ın şirket içi güvenlik tedbirleri genişletiliyor. Kurumun bünyesinde kurulan yeni güvenlik ünitesi ve yönetim şurasına verilen yapay zekâları veto hakkı duyuruldu.

OpenAI Yönetim Heyetine “Anti-Sam Altman” Yetkisi Verildi: Tehlikeli Görülen Yapay Zekâ Çalışmaları Veto Edilebilecek
19.12.2023 20:00
4
A+
A-

Son periyotta Sam Altman’ın görevden alınması, sonra geri dönmesi ve yönetim kurulunu değiştirmesi ile oldukça gündem olan OpenAI hakkında ortaya atılan savlardan biri, üstün ve tehlikeli bir yapay zekâ geliştirdikleri tarafındaydı. OpenAI, o mevzuda bir açıklama yapmaya gerek duymadıysa da yapay zekâ güvenliğini öne alan düzenlemeler yaptı. 

OpenAI öncelikle “güvenlik danışmanlık grubu” ismini verdiği bir ekip oluşturdu. Bu ekip kurumun teknik ekiplerinin üstünde konuşlandırıldı ve teknik gruplara liderlik tavsiyelerinde bulunacak. Ayrıyeten OpenAI Yönetim Kurulu, bundan sonra tehlikeli gördüğü yapay zekâ projelerini veto etme hakkına kavuştu. 

Yeni bir “güvenlik danışmanlık grubu” kuruldu, idareye veto hakkı geldi

Hemen her firmada dönem dönem bu cinsten değişiklikler yapılıyor olsa da, OpenAI’ın bu türlü bir değişiklik yapması, son vakitlerde yaşanan olayları ve iddiaları göz önüne aldığımızda büyük değer taşıyor. Sonuçta OpenAI, yapay zekâ alanında öncü kurum durumunda bulunuyor ve bu alandaki güvenlik tedbirleri büyük değer taşıyor. 

OpenAI’ın bir blog gönderisi ile açıkladığı yeni düzenleme, “Hazırlıklılık Çerçevesi” olarak isimlendirildi. Kasım ayında yönetim konseyinin agresif büyümeye karşı olmasıyla bilinen iki üyesi, Ilya Sutskever ve Helen Toner heyetten çıkarılmıştı. Yeni düzenleme ile birlikte “yıkıcı” yapay zekâların tanımlanması, tahlil edilmesi ve alınacak aksiyonlara karar verilmesi için bir rehber oluşturulmuş da oldu. 

Yeni şirket içi düzenlemeye göre, güvenlik sistemi takımı üretimdeki modelleri yönetecek. ChatGPT’nin sistematik berbata kullanımlarını API’lerde sınırlama gibi vazifeler, bu gruba düşecek. Hazırlıklılık takımı ise öncül modellerden sorumlu olacak ve mümkün riskleri tespit edip tedbir almaya odaklanacak. Süperyönelim ekibi ismi verilen ekip ise süper yapay zekâ modelleri için teorik yönlendirmeleri geliştirecek. Her bir ekip, sorumlu oldukları modelleri “siber güvenlik”, “ikna”, “otonomi”, “CBRN” (Kimyasal, biyolojik, radyolojik ve nükleer tehditler) açısından kıymetlendirecek. 

OpenAI şimdi bu değerledirmelerin nasıl yapılacağına dair bir bilgi paylaşmazken, işlevler arası güvenlik danışmanları grubu bu çalışmaları genel olarak denetleyecek ve liderlik etmelerine yardımcı olacak. 

Yorumlar

Henüz yorum yapılmamış. İlk yorumu yukarıdaki form aracılığıyla siz yapabilirsiniz.