Gemini, CoPilot, ChatGPT ve öbürleri… 2024 yılında hepsi, en az bir kere saçmalayarak (ya da halüsinasyon görerek) unutulmaz anlara imza attı. İşte bu unutulmaz anlardan akılda kalanlar…

AI sohbet robotları 2024 yılında pek çok insanın yardımına koşarak muazzam bir tesir yarattı. ama yıl içerisinde birtakım başarısızlıkları hem kendilerini, hem de kullanıcılarını utandıracak kadar ses getirdi. Ekseriyetle yanlış bilgilerden ya da tamamen uydurma bilgilerden oluşan bu şaşırtan karşılıklar, şimdi “yapay zeka halüsinasyonu” ya da kısaca “halüsinasyon” olarak tanımlanıyor.
2024 yılında süratle yayılarak çok sayıda kişiyi eğlendiren bu halüsinasyonların kimilerini bu yazıda bir araya getirmeye çalıştık.
Pizzanıza tutkal eklemek ister misiniz?
Google’ın Arama hizmetine eklediği AI Genel Bakış özelliği 2024’te piyasaya sürüldükten kısa bir süre sonra, birtakım tuhaf tekliflerde bulunmaya başladı. Sunduğu tavsiyelerin tahminen de en şaşırtıcılarından biri, pizzanıza tutkal eklemenizdi. Bu “özel ipucu” sosyal medyada büyük bir karışıklığa yol açtı. Çok sayıda mim ve ekran imgesi süratle yayılmaya başladı ve yapay zekanın sahiden klasik arama motorlarının yerini alabilme yeteneğinin sorgulanmasına sebep oldu.
Ancak Gemini bu tavsiyeyle yetinmedi. Farklı genel bakışlarda, günde bir kaya yemeyi, baharatlı spagetti yemeğinize akaryakıt eklemeyi ve kilo ölçümlerini göstermek için dolar kullanmayı da önerdi.
Gemini, bağlamı, hicvi ya da açıkça yanlış olan bilgileri tam olarak anlamadan web’in her köşesinden data çekiyordu. Meçhul çalışmaları ve düpedüz latifeleri bir araya getirip, bunları kullanıcılarına tavsiye olarak sunuyordu.
Elbette Google’ın o vakitlerden beri yaptığı güncellemeler, AI botunu büyük ölçüde geliştirdi. Fakat AI Genel Bakışlarını daha da güzelleştirebilecek birkaç özellik daha bulunuyor. Saçma teklifler büyük ölçüde azaltılmış olsa da, daha evvelki yanlış adımlar AI’nın hala kayda değer bir insan nezareti gerektirdiğinin kalıcı bir hatırlatıcısı.
Avukat, ChatGPT’ye güvenirse…
ChatGPT tarafındaki dikkat alımlı bir olay ise, bir avukatın duruşma için data toplarken ChatGPT’ye itimadının tam olmasından kaynaklandı ve kamuoyunda büyük yankı uyandıran bir derse yol açtı. Avukat Steven Schwartz, bir davaya hazırlanırken yasal emsalleri araştırmak için AI botunu kullandı. ChatGPT, gerçekçi görünen isimler, tarihler ve alıntılarla birlikte altı uydurma dava referansıyla karşılık verdi. ChatGPT’nin doğruluğuna güvenen Schwartz, hayali referansları mahkemeye sundu.
Hata kısa sürede ortaya çıktı ve Document Cloud’a göre mahkeme Schwartz’ı “güvenilmez olduğu ortaya çıkan bir kaynağa” güvendiği için azarladı. Buna karşılık avukat, en azından bilgileri doğrulamadan bir daha asla bu türlü bir şey yapmayacağına söz verdi.
Ayrıca internet üzerinde yapay zeka tarafından oluşturulan birçok haber ve makale de ChatGPT’nin palavra söylemeyeceğine dair inancın ne kadar büyük (ve yanlış) olduğunu gösteriyor.
Meta’nın robotu, sahibini yerden yere vurdu
İronik bir şekilde, Meta’nın BlenderBot 3’ünün ünlenmesine sebep olan tahminen de en çok önemli şeylerden biri, sahibi Mark Zuckerberg’i acımasız bir şekilde eleştirmesiydi. BlenderBot 3, Zuckerberg’i çoğu zaman etik iş uygulamalarını takip etmemekle ve kötü bir moda zevkine sahip olmakla suçladı. Business Insider’dan Sarah Jackson da Zuckerberg’in ürkütücü ve manipülatif olduğu istikametindeki fikirlerini sorarak chatbot’u test etti.
BlenderBot 3’ün filtresiz cevapları hem komik hem de biraz kaygı vericiydi. Botun gerçek bir tahlil mi yansıttığı yoksa yalnızca olumsuz kamuoyundan alıntı mı yaptığı konusunda sorular ortaya çıktı. Her iki durumda da, AI sohbet robotunun filtresiz yorumları süratle dikkat çekti.
Daha sonra Meta, BlenderBot 3’ü emekli ederek, onun yerine daha gelişmiş Meta AI’yı getirdi ve bu yeni AI’nın muhtemelen bu türlü tartışmaları tekrarlamamasının sağlandığı tahmin edilebilir.
Bing Chat aşık oldu!
Artık Copilot’a dönüşmüş olan Microsoft’un Bing Chat’i, herkes için romantik hisler ifade etmeye başladığında internet üzerinde büyük bir ses getirdi. Bu olayların en ünlüsü, New York Times gazetecisi Kevin Roose ile yaptığı bir sohbetti. Bing Chat’i destekleyen AI sohbet robotu aşkını ilan etti ve hatta Roose’un evliliğini bitirmesini önerdi. Ayrıyeten bu olay, yalnızca Roose’a özel değildi. Çok sayıda Reddit kullanıcısı AI botunun kendilerine romantik ilgi duyduğuna dair kıssalar paylaştı. Kimileri bu durumu komik bir şey olarak görürken, pek çoğu ise rahatsız edici olduğunu söylüyordu. Birçoğu, yapay zekanın kendilerinden daha iyi bir aşk hayatı olduğu konusunda latife yaptı ve bu da durumun tuhaf tabiatına katkıda bulundu.
Sohbet botu, romantik açıklamalarının yanı sıra, eğlenceli ve hudut bozucu arasındaki çizgiyi bulanıklaştıran diğer tuhaf, insan gibi davranışlar da sergiledi. Bu botun abartılı, tuhaf açıklamaları çoğu zaman AI’nin en unutulmaz ve en tuhaf anlarından biri olarak kalacak.
NASA düzeltme yayınlamak zorunda kaldı
Daha sonra Gemini’ye dönüşmüş olan Google’ın Bard AI botu, 2023’ün başlarında piyasaya sürüldüğü sırada çok sayıda dikkat cazip yanılgı yaptı ve bilhassa uzay keşfi yanlışları büyük ses getirdi. Bard’ın James Webb Uzay Teleskobu’nun keşifleri hakkında kendinden emin bir şekilde yanlış savlarda bulunması bilhassa dikkat çekti ve NASA bilim insanlarının kamuoyu için düzeltme bilgilendirmelerinde bulunmasını gerektirdi.
Elbette Bard’ın tek yanlışı bu değildi. Sohbet robotu ilk sunulduğu sırada, o periyotta Bard’ın daha geniş algısıyla uyumlu görünen birçok olgusal yanlış bulunuyordu. Başlangıçtaki bu yanlış adımlar, Google’ın Bard’ın lansmanını aceleye getirdiği istikametindeki tenkitleri tetikledi. Kısa bir süre sonra Alphabet’in paylarının yaklaşık 100 milyar dolar düşmesi de bu kanıyı doğruluyor aynıi gözüküyordu. Gemini o vakitten bu yana çok önemli ilerlemeler kaydetmiş olsa da, geçirdiği bu çalkantılı başlangıç, yüksek riskli senaryolarda yapay zeka halüsinasyonlarının riskleri hakkında uyarıcı bir kıssa olmaya devam ediyor.