OpenAI’ın şirket içi güvenlik tedbirleri genişletiliyor. Kurumun bünyesinde kurulan yeni güvenlik ünitesi ve yönetim şurasına verilen yapay zekâları veto hakkı duyuruldu.

Son periyotta Sam Altman’ın görevden alınması, sonra geri dönmesi ve yönetim kurulunu değiştirmesi ile oldukça gündem olan OpenAI hakkında ortaya atılan savlardan biri, üstün ve tehlikeli bir yapay zekâ geliştirdikleri tarafındaydı. OpenAI, o mevzuda bir açıklama yapmaya gerek duymadıysa da yapay zekâ güvenliğini öne alan düzenlemeler yaptı.
OpenAI öncelikle “güvenlik danışmanlık grubu” ismini verdiği bir ekip oluşturdu. Bu ekip kurumun teknik ekiplerinin üstünde konuşlandırıldı ve teknik gruplara liderlik tavsiyelerinde bulunacak. Ayrıyeten OpenAI Yönetim Kurulu, bundan sonra tehlikeli gördüğü yapay zekâ projelerini veto etme hakkına kavuştu.
Yeni bir “güvenlik danışmanlık grubu” kuruldu, idareye veto hakkı geldi

Hemen her firmada dönem dönem bu cinsten değişiklikler yapılıyor olsa da, OpenAI’ın bu türlü bir değişiklik yapması, son vakitlerde yaşanan olayları ve iddiaları göz önüne aldığımızda büyük değer taşıyor. Sonuçta OpenAI, yapay zekâ alanında öncü kurum durumunda bulunuyor ve bu alandaki güvenlik tedbirleri büyük değer taşıyor.
OpenAI’ın bir blog gönderisi ile açıkladığı yeni düzenleme, “Hazırlıklılık Çerçevesi” olarak isimlendirildi. Kasım ayında yönetim konseyinin agresif büyümeye karşı olmasıyla bilinen iki üyesi, Ilya Sutskever ve Helen Toner heyetten çıkarılmıştı. Yeni düzenleme ile birlikte “yıkıcı” yapay zekâların tanımlanması, tahlil edilmesi ve alınacak aksiyonlara karar verilmesi için bir rehber oluşturulmuş da oldu.
Yeni şirket içi düzenlemeye göre, güvenlik sistemi takımı üretimdeki modelleri yönetecek. ChatGPT’nin sistematik berbata kullanımlarını API’lerde sınırlama gibi vazifeler, bu gruba düşecek. Hazırlıklılık takımı ise öncül modellerden sorumlu olacak ve mümkün riskleri tespit edip tedbir almaya odaklanacak. Süperyönelim ekibi ismi verilen ekip ise süper yapay zekâ modelleri için teorik yönlendirmeleri geliştirecek. Her bir ekip, sorumlu oldukları modelleri “siber güvenlik”, “ikna”, “otonomi”, “CBRN” (Kimyasal, biyolojik, radyolojik ve nükleer tehditler) açısından kıymetlendirecek.
OpenAI şimdi bu değerledirmelerin nasıl yapılacağına dair bir bilgi paylaşmazken, işlevler arası güvenlik danışmanları grubu bu çalışmaları genel olarak denetleyecek ve liderlik etmelerine yardımcı olacak.