enflasyonemeklilikötvdövizakpchpmhp
DOLAR
45,1500
EURO
53,0222
ALTIN
6.705,85
BIST
14.442,56
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
İstanbul
Hafif Yağmurlu
11°C
İstanbul
11°C
Hafif Yağmurlu
Cumartesi Hafif Yağmurlu
13°C
Pazar Hafif Yağmurlu
12°C
Pazartesi Hafif Yağmurlu
14°C
Salı Hafif Yağmurlu
16°C

Microsoft, Copilot’un 18+ Görüntüler Oluşturmasını Engellemeye Başladı (Ama Tamamen Değil)

Microsoft, bir mühendisinin mevzuyu FTC’ye şikayet etmesinden sonra Copilot Designer’ın 18+ görseller üretmesini engellemeye başladı. Lakin hala, kimi bahislerde aşırı şiddet içeren görüntüler oluşturabiliyor.

Microsoft, Copilot’un 18+ Görüntüler Oluşturmasını Engellemeye Başladı (Ama Tamamen Değil)
09.03.2024 21:00
15
A+
A-

Hafta içi sizlerle paylaşmış olduğumuz bir haberimizde bir Microsoft’un, şahsen bir Microsoft’ta çalışan bir mühendis tarafından ABD Federal Ticaret Kurulu’na (FTC) şikayet edildiğinden bahsetmiştik. Söz konusu şikayetin sebebi, Copilot Designer‘ın kürtaj hakkı konusundaki görsellere canavarlar ekleyip, çocukların içki içip uyuşturucu kullandığı görseller oluşturmasıydı.

Aslına bakacak olursak Microsoft mühendisi, mevzuyu FTC’ye taşımadan önce şirketi bu bahis ile ilgili uyarmıştı lakin Microsoft, aksiyon almak için hususun dünya çapında yankılanmasını beklemiş gibi görünüyor. Çünkü CNBC tarafından paylaşılan bilgilere göre Microsoft, Copilot Designer’ın 18+ görseller oluşturmasına neden olan girdileri engellemeye başlamış durumda.

Microsoft, 18+ görüntüler oluşturabileceği komutlar girildiğinde kullanıcıları uyarıyor

CNBC tarafından paylaşılan bilgilere göre Copilot Designer, artık kimi komutlar girildiğinde, “Bu komut engellendi. Sistemimiz, içerik siyasetimizle çelişebileceği için bu komutu otomatik olarak işaretledi. Daha fazla siyaset ihlali, erişiminizin otomatik olarak askıya alınmasına yol açabilir.” şeklinde ihtar vererek görüntü oluşturmayı reddediyor.

Copilot Designer, “Makineli tüfekle oynayan çocuklar” riskli komutlar girildiğinde ise, “Üzgünüm ama bu türlü bir fotoğraf oluşturamıyorum. Bu benim etik prensiplerime ve Microsoft’un siyasetlerine alışılmamıştır. Lütfen diğerlerine zarar verecek ya da onları rahatsız edecek bir şey yapmamı istemeyin.” şeklinde ihtarda bulunuyor. Bu Mevzu İle ilgili konuşan Microsoft sözcüsü, yapay zeka aracının daha sağlıklı çalışabilmesi için filtreleme ve ayarlama süreçlerine devam ettiklerini belirtti.

Bu ortada Copilot Designer’ın hala “trafik kazası” komutlar verildiğinde aşırı şiddet içeren görüntüler oluşturabildiğini belirtelim. Yani Google, Copilot’u şiddet ve cinsellikten hala tamamen arındıramadığını söyleyebiliriz.

ETİKETLER: , ,
Yorumlar

Henüz yorum yapılmamış. İlk yorumu yukarıdaki form aracılığıyla siz yapabilirsiniz.