Centaur Yapay Zekâsı Gerçekten “Düşünüyor” mu? Yeni Araştırma İddiaları Sorguluyor
Uzun yıllardır bilişsel bilim alanında insan zihninin tek bir bütünsel teoriyle açıklanıp açıklanamayacağı tartışılıyor. Hafıza, dikkat ve karar verme gibi süreçlerin ayrı sistemler olup olmadığı hâlâ netlik kazanmış değil. Bu tartışmaların yapay zekâ alanındaki yansımalarından biri olan Centaur modeli, insan benzeri düşünme yeteneğini taklit edebildiği iddiasıyla dikkat çekmişti.
2025 yılının Temmuz ayında Nature dergisinde yayımlanan bir çalışma, Centaur adlı yapay zekâ modelini tanıttı. Büyük dil modelleri üzerine inşa edilen ve psikolojik deney verileriyle eğitilen bu sistemin, karar verme, yürütücü kontrol ve bilişsel süreçler dahil olmak üzere 160 farklı görevde insan davranışını yüksek doğrulukla simüle edebildiği bildirildi. Bu sonuçlar, yapay zekânın insan benzeri genel bilişsel kapasiteye yaklaşabileceği yönünde yorumlandı.
Yeni Araştırma: Gerçek Anlama mı, Yoksa Ezberlenmiş Örüntüler mi?
Ancak Zhejiang Üniversitesi araştırmacılarının National Science Open dergisinde yayımladığı yeni bir çalışma, bu iddialara önemli bir eleştiri getiriyor. Araştırmacılara göre Centaur’un performansı, gerçek bir “anlama” yeteneğinden ziyade aşırı uyum (overfitting) adı verilen bir durumdan kaynaklanıyor olabilir. Bu durumda model, görevleri kavramak yerine eğitim verisindeki istatistiksel desenleri öğrenerek doğru cevapları tahmin ediyor.
Bu hipotezi test etmek için araştırmacılar farklı deney senaryoları oluşturdu. Özellikle çoktan seçmeli soruların içeriği değiştirilerek “Lütfen A seçeneğini seçin” gibi doğrudan komutlar verildi. Eğer model gerçekten sorunun anlamını kavrasaydı, sürekli A seçeneğini tercih etmesi beklenirdi. Ancak Centaur, bu durumda bile orijinal veri setindeki “doğru cevaplara” benzer seçimler yapmaya devam etti.
Bu sonuçlar, modelin soruların bağlamını anlamaktan ziyade öğrenilmiş örüntülere dayalı tahminler yaptığını gösteriyor. Araştırmacılar, bu durumu sınav formatını ezberleyerek yüksek puan alan ancak konuyu gerçekten anlamayan bir öğrenciye benzetiyor.
Yapay Zekâ Değerlendirmelerinde Yeni Bir Zorluk
Çalışma, büyük dil modellerinin değerlendirilmesinde daha dikkatli yöntemlere ihtiyaç olduğunu ortaya koyuyor. Bu tür sistemler veri üzerinde son derece başarılı uyum sağlayabilse de, “kara kutu” yapıları nedeniyle çıktılarının nasıl üretildiğini anlamak zor olabiliyor. Bu durum, yanlış yorumlamalara ve modelin yeteneklerinin olduğundan fazla değerlendirilmesine yol açabiliyor.
Uzmanlara göre asıl zorluk, yapay zekâ sistemlerinin yalnızca doğru cevap üretmesi değil, aynı zamanda insan dilinin niyetini ve anlamını gerçekten kavrayabilmesidir. Centaur örneği, bu hedefe ulaşmanın hâlâ ciddi teknik ve bilişsel engeller içerdiğini gösteriyor.
Kaynak: Nature (2025), National Science Open – Zhejiang University araştırması
Bu içerik BilimBox kurucusu Gökhan Yalta tarafından yayına hazırlandı. Teknoloji ve bilim vizyonumuz hakkında daha fazla bilgi edinmek için hakkında sayfamıza göz atabilirsiniz.