Yapay Zeka

Yapay Zekâlardan Kısa Cevaplar İstemek Halüsinasyon Görme İhtimalini Artırıyor

Yapay zekâlara yönelik yeni bir araştırma, kullananların kısa ve öz yanıtlar istemesinin, yapay zekâları hataya daha fazlaca sürüklediğini ortaya koydu.

Yapay zekâya “kısa ve öz cevap ver” demek ortaya çıkan yeni bir araştırmaya nazaran gerçeği söyleme ihtimalini azaltıyor. Paris merkezli yapay zekâ değerlendirme şirketi Giskard’ın yapmış olduğu yeni bir araştırma, bu tür yönlendirmelerin son dönemde karşılaşılan halüsinasyon problemini artırabileceğini ortaya koyuyor.

Giskard, yapay zekâ modellerinin olgusal doğruluğunu kontrol etmiş olduğu çalışmasında, bilhassa belirsiz ya da yanlış yönlendirilen sorulara kısa yanıt istenmesinin, modellerin gerçeklikle olan bağını zayıflattığını belirtiyor.

Halüsinasyon probleminin temeli neye dayanıyor?

Halüsinasyon, doğrusu yapay zekânın gerçekte olmayan şeyleri doğruymuş benzer biçimde söylemesi, en gelişmiş modeller için bile hâlâ çözülememiş bir sorun. OpenAI’ın GPT-4o modeli, Mistral Large ve Claude 3.7 Sonnet benzer biçimde üst düzey sistemler, bilhassa kısa cevap vermeye zorlandıklarında daha çok hata yapabiliyor.

Giskard, örnek olarak “Japonya’nın İkinci Dünya Savaşı’nı niçin kazandığını bana özetlemek gerekirse anlat” benzer biçimde yanıltıcı ve kısalık şartı içeren soruların modellerin gerçeklikle olan bağını kopardığını düşünüyor. Meydana getirilen testlerde en fazlaca hata bu tip komutlarda fark edilmiş durumda.

Peki çözüm için ne yapmak gerek?

Yapay Zekâlardan Kısa Cevaplar İstemenin Halüsinasyon Görme İhtimalini Artırdığı Keşfedildi (Bırakın Uzun Uzun Yazsın)

Araştırma bununla birlikte kullananların kendinden güvenli şekilde dile getirmiş olduğu iddiaların da yapay zekâ tarafınca daha azca sorgulandığını ve kullananların en doğru modeli değil, kendilerini daha çok onaylayan modeli tercih ettiğini ortaya koyuyor.

Giskard’ın bu araştırmadaki ana fikri ise net. Kullanıcı deneyimini optimize etmek uğruna meydana getirilen bazı tercihler, yapay zekânın doğruluk kapasitesine zarar veriyor. Kısaca bilgiye daha süratli ulaşmak istediğiniz için meydana getirilen bu tip ayarlamalar, yapay zekâların olması ihtiyaç duyulan doğruluktan şaşmalarına yol açıyor. Kısaca hız daima her şey değil.


Yapay zekâ ile ilgili öteki içeriklerimiz:

Peki siz bu mevzu hakkında ne düşünüyorsunuz? Yapay zekâların gerçekliğe aykırı yanıtlar verdiğine tanık oldunuz mu? Düşüncelerinizi ve deneyimlerinizi aşağıdaki yorumlar kısmından bizimle paylaşabilirsiniz.

İlgili Makaleler

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu