BBC’nin araştırması, ChatGPT ve Google Gemini’nın haberleri doğru özetleyemediğini ve sıkça kusurlar yaptığını ortaya koydu.

BBC’nin yaptığı bir araştırma, yapay zekâ sohbet botlarının haberleri doğru özetleyip özetleyemediğini ortaya koydu. Çalışmada OpenAI’ın ChatGPT’sine, Microsoft’un Copilot’una, Google’ın Gemini’ına ve Perplexity AI’a BBC haberleri verildi ve bu içerikleri özetlemeleri istendi.
BBC, yapay zekâ sohbet botlarının haber özetleme yeteneklerini test etmek için 100 farklı haber üzerinde bir araştırma gerçekleştirdi. İnceleme sonucunda, bu botların haberleri doğru şekilde özetleyemediği ve çok önemli kusurlar yaptığı tespit edildi.
Hatalı tarihler, yanlış alıntılar

Konuyla ilgili uzman gazetecilerin yaptığı incelemelerde, botların verdiği karşılıkların %51’inde önemli yanlışlıklar tespit edildi. aynı vakitte BBC kaynaklı haberleri temel alan karşılıkların %19’unda yanlış tarih, kusurlu sayılar ve eksik yahut çarpıtılmış bilgilerin yer aldığı görüldü.
Araştırmada tespit edilen yanılgılar arasında, Gemini’nin İngiltere’nin sağlık sistemi NHS’nin elektronik sigarayı sigarayı bırakmak için önerilmediğini iddia etmesi yer alıyor. ChatGPT ve Copilot’un ise eski İngiltere Başbakanı Rishi Sunak ve eski İskoçya Başbakanı Nicola Sturgeon’un hâlâ misyonda olduğunu belirtmesi dikkat çekti. Perplexity ise BBC haberlerini yanlış alıntıladı.
BBC yetkilileri, yapay zekâ şirketleriyle iş birliği yaparak buna yanlışların önüne geçilmesi gerektiğini vurguladı. BBC, yapay zekâ dayanaklı haber özetleme sistemlerinin geri çekilmesini talep ederken, daha önce Apple’ın aynı bir durumu kabul ederek bu özelliği devre dışı bıraktığını hatırlattı. Yapay zekâ sohbet botlarının haber içeriklerini nasıl ele aldığı konusundaki tartışmalar sürerken OpenAI ise kaynak gösterme konusunda iyileştirmeler yapmaya devam ettiklerini açıkladı.