enflasyonemeklilikötvdövizakpchpmhp
DOLAR
44,8573
EURO
52,8184
ALTIN
6.966,26
BIST
14.587,93
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
İstanbul
Çok Bulutlu
15°C
İstanbul
15°C
Çok Bulutlu
Pazar Az Bulutlu
16°C
Pazartesi Parçalı Bulutlu
18°C
Salı Az Bulutlu
20°C
Çarşamba Yağmurlu
12°C

Yapay Zekâ Bize Ne Kadar Palavra Söylüyor? Karşılığı Öğrenince Artık Bilgileri Teyit Etmeye Üşenmeyeceksiniz…

Yapay zekâ araçlarını kullanırken edindiğiniz bilgilerini kendinizin de teyit etmenizi gösteren çarpıcı araştırmayı içeriğimizde anlattık. Yanlış bilgi düzeyi %27’ye kadar çıkabiliyor.

Yapay Zekâ Bize Ne Kadar Palavra Söylüyor? Karşılığı Öğrenince Artık Bilgileri Teyit Etmeye Üşenmeyeceksiniz…
06.10.2024 04:00
8
A+
A-

ChatGPT gibi yapay zekâ araçları hayatımıza girdiğinden beri elimiz ayağımız oldular. Müzikler yazdırıyoruz, görseller yaptırıyoruz, en kıymetlisi de aklımıza gelebilecek her türlü soruyu soruyoruz.

Peki aldığımız yanıtlara güvenmeli miyiz? Yapılan araştırmaya göre hayır. O denli ki, kimi chat bot’ların palavra söyleme düzeyi azımsanacak gibi değil.

Yapay zekâ palavralarına literatürde “halüsinasyon” deniyor.

Open AI’ın chatbot’u ChatGPT, aralarında en günahsızı kalıyor. ChatGPT’nin söylediklerinin ortalama %3’ünün, Meta’nın Llama bot’unun %5’inin, The Claude’un %8’inin, Google’ın Palm bot’unun ise %27’sinin yalan olduğu ortaya çıktı. 

Özellikle Google’ınki hiç de azımsanacak gibi değil. Hatta yapay zekâyı işinizde kullanıyorsanız küçük görünen bu olaylar kötü sonuçlara yol açabilir.

Çarpıcı bir örnek verelim.

New York Times’ın aktardığına göre, Manhattan’da bir avukat, hakime teslim edilecek bir evrak hazırladığında yapay zekâya başvurmuş. Yapay zekâ, birtakım sahte olayları gerçekmişi yansıtmış ve bu durum da avukatın rezil olmasına sebep olmuş.

Bu yüzden unutmamak gerekir ki yapay zekânın söylediği her şeyi doğru kabul etmeyip, oradan edindiğimiz bilgilerin gerçekliğini kendimiz de güvenilir kaynaklardan teyit etmeliyiz. Bilhassa işimizde kullanıyorsak ya da sıhhatle ilgili bilgi almak istiyorsak.

Yapay zekâ, hâlâ nispeten yeni bir alan olduğu için bu tip halüsinasyonları görebiliyoruz fakat ileride tahminen de palavra bilgiyi bile basitçe tespit edebilen araçları görebiliriz. Biz şimdilik öğrendiklerimizi teyit etmeye devam edelim.

Daha fazla yapay zekâ içeriği:

ETİKETLER: ,
Yorumlar

Henüz yorum yapılmamış. İlk yorumu yukarıdaki form aracılığıyla siz yapabilirsiniz.