Yapay zekâ araçlarını kullanırken edindiğiniz bilgilerini kendinizin de teyit etmenizi gösteren çarpıcı araştırmayı içeriğimizde anlattık. Yanlış bilgi düzeyi %27’ye kadar çıkabiliyor.

ChatGPT gibi yapay zekâ araçları hayatımıza girdiğinden beri elimiz ayağımız oldular. Müzikler yazdırıyoruz, görseller yaptırıyoruz, en kıymetlisi de aklımıza gelebilecek her türlü soruyu soruyoruz.
Peki aldığımız yanıtlara güvenmeli miyiz? Yapılan araştırmaya göre hayır. O denli ki, kimi chat bot’ların palavra söyleme düzeyi azımsanacak gibi değil.
Yapay zekâ palavralarına literatürde “halüsinasyon” deniyor.

Open AI’ın chatbot’u ChatGPT, aralarında en günahsızı kalıyor. ChatGPT’nin söylediklerinin ortalama %3’ünün, Meta’nın Llama bot’unun %5’inin, The Claude’un %8’inin, Google’ın Palm bot’unun ise %27’sinin yalan olduğu ortaya çıktı.
Özellikle Google’ınki hiç de azımsanacak gibi değil. Hatta yapay zekâyı işinizde kullanıyorsanız küçük görünen bu olaylar kötü sonuçlara yol açabilir.
Çarpıcı bir örnek verelim.

New York Times’ın aktardığına göre, Manhattan’da bir avukat, hakime teslim edilecek bir evrak hazırladığında yapay zekâya başvurmuş. Yapay zekâ, birtakım sahte olayları gerçekmişi yansıtmış ve bu durum da avukatın rezil olmasına sebep olmuş.
Bu yüzden unutmamak gerekir ki yapay zekânın söylediği her şeyi doğru kabul etmeyip, oradan edindiğimiz bilgilerin gerçekliğini kendimiz de güvenilir kaynaklardan teyit etmeliyiz. Bilhassa işimizde kullanıyorsak ya da sıhhatle ilgili bilgi almak istiyorsak.
Yapay zekâ, hâlâ nispeten yeni bir alan olduğu için bu tip halüsinasyonları görebiliyoruz fakat ileride tahminen de palavra bilgiyi bile basitçe tespit edebilen araçları görebiliriz. Biz şimdilik öğrendiklerimizi teyit etmeye devam edelim.
Daha fazla yapay zekâ içeriği: