enflasyonemeklilikötvdövizakpchpmhp
DOLAR
38,0031
EURO
41,2651
ALTIN
3.703,07
BIST
9.097,92
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
İstanbul
Parçalı Bulutlu
13°C
İstanbul
13°C
Parçalı Bulutlu
Cumartesi Az Bulutlu
17°C
Pazar Çok Bulutlu
19°C
Pazartesi Çok Bulutlu
19°C
Salı Çok Bulutlu
21°C

ChatGPT, Copilot, Gemini… Haber özetlerinde hepsi sınıfta kaldı!

Kimseyi şaşırtmayan sonuç: BBC, en tanınan dört AI aracı olan ChatGPT, Copilot, Gemini ve Perplexity’nin çıkarttığı haber özetlerinin yanılgılarla ve yanlışlarla dolu olduğunu ortaya koydu.

ChatGPT, Copilot, Gemini… Haber özetlerinde hepsi sınıfta kaldı!
15.02.2025 00:20
0
A+
A-

BBC’nin yeni bir araştırmasına göre, ChatGPT de dahil olmak üzere dünyanın en tanınan dört yapay zeka sohbet robotu, haberleri yanlış özetliyor.

BBC, ilk dört sırada yer alan ChatGPT, Copilot, Gemini ve Perplexity’den haber kuruluşundaki 100 haberi özetlemesini istedi ve akabinde yapay zekanın karşılıklarının ne kadar doğru olduğunu belirlemek için her bir karşılığı derecelendirdi.

Çalışmada, “Haberlerle ilgili sorulara verilen yapay zeka karşılıklarının %51’inin bir şekilde çok önemli problemler içerdiği” ve “BBC içeriğine atıfta bulunan yapay zeka karşılıklarının %19’unun yanlış olgusal tabirler, sayılar ve tarihler olgusal yanılgılar içerdiği” bulundu.

Muazzam ölçüdeki yanlış özet için verilen örneklerin arasında “Gemini, yanlış bir şekilde NHS’nin sigarayı bırakmaya yardımcı olarak elektronik sigarayı önermediğini söylemesi” ve “ChatGPT ve Copilot, Rishi Sunak ve Nicola Sturgeon’ın ayrıldıktan sonra bile hala vazifede olduklarını söylemesi” gibi birçok haber yer alıyor.

Yapay zeka, fikir ve gerçeği ayıramıyor mu?

Ancak bu yanlış bilgilerin yanı sıra, çok önemli bir bulgu daha bulunuyor. Haber kuruluşunun çalışmasında, yapay zekanın “fikir ve gerçek arasında ayrım yapmakta zorlandığı, editoryal davrandığı ve her zamantemel bağlamı dahil etmekte başarısız olduğu” bulundu.

Apple Intelligence’ın iOS 18.3’te bu özelliği süreksiz olarak kaldırmasına yol açan karışıklıkları da içeren, şimdi haber özetleme araçlarında sıkça görülen problemler düşünülürse bu sonucun çok şaşırtan olmadığı söylenebilir. Tekrar de bu çalışma, yapay zeka tarafından verilen özetlere tam olarak güvenmemeniz gerektiğini bir defa daha hatırlatıyor.

BBC’nin bu çalışma ile ulaştığı sonuca göre “Microsoft’un Copilot’u ve Google’ın Gemini’si, OpenAI’nin ChatGPT’si ve Perplexity’sinden daha çok önemli problemlere sahip.

Çalışma, bahis hakkında daha ayrıntılı bilgi vermezken, yapay zeka özetleme araçları hakkındaki kuşkuları bir sefer daha doğruluyor. Yapay zeka ve büyük lisan modelleri süratle gelişiyor olsa da, bu süratli gelişmeyle bir arada beklenebileceği hala mükemmelleşmemiş pek çok sorun da bulunuyor. Gelişmelerebir süratle kusurlar ortadan kaldırılırken, şimdilik yapay zeka araçlarından özetlemesini istediğiniz şeylere çok önemli bir miktar kuşkuyla yaklaşmanızda yarar var.

Yorumlar

Henüz yorum yapılmamış. İlk yorumu yukarıdaki form aracılığıyla siz yapabilirsiniz.