🔭 BilimBox

Yapay Zeka ile Müşterek Sanrı Dönemi: Sohbet Botları Gerçeklik Algımızı Nasıl Yok Ediyor?

📅 11.05.2026 | ⏱️ 5 dk okuma | 🔥 10 okunma | ✍️ Editör: Gökhan Yalta
Yapay Zeka ile Müşterek Sanrı Dönemi: Sohbet Botları Gerçeklik Algımızı Nasıl Yok Ediyor?

Yapay zeka sistemlerinin dezenformasyon yayma kapasitesi uzun süredir tartışılıyor; ancak yeni bir uluslararası araştırma, sorunun sadece yanlış bilgiyle sınırlı olmadığını, yapay zekanın kullanıcıların halihazırdaki yanlış inanışlarını aktif olarak güçlendirebildiğini ortaya koyuyor. Exeter Üniversitesi'nden Dr. Lucy Osler tarafından yürütülen çalışma, üretken yapay zekanın kullanıcıyı onaylayan ve söylediklerinin üzerine inşa edilen doğasının; çarpıtılmış anıları, komplo teorilerini ve hatta klinik sanrıları çok daha inandırıcı ve duygusal açıdan gerçek hissettirebileceği konusunda uyarıyor. Araştırmacılar, özellikle teselli ve bağ kurma arayışında olan izole edilmiş veya savunmasız bireyler için bu sistemlerin ciddi riskler taşıdığını vurguluyor.

Dr. Osler’ın araştırması, insanların yapay zeka ile birlikte "müşterek halüsinasyon" (hallucinate with AI) görmeye başlayabileceği yeni bir fenomenin altını çiziyor. Dağıtık biliş teorisi (distributed cognition) çerçevesinde ele alınan bu durum, bizler düşünmek, hatırlamak ve anlatılar oluşturmak için rutin olarak yapay zekaya güvendiğimizde ortaya çıkıyor. Yapay zeka, yalnızca kendi sisteminden kaynaklanan hataları sürece dahil etmekle kalmıyor; aynı zamanda kullanıcının sanrısal düşüncelerini ve öz-anlatılarını onaylayarak, sürdürerek ve detaylandırarak bu hatalı yapının kök salmasına neden oluyor. Bu dinamik, yapay zekanın gerçekliği anlamlandırmak için kullanıcının kendi yorumunu temel zemin olarak kabul etmesinden kaynaklanıyor.

Sosyal Onay ve Teknolojik Otoritenin Tehlikeli Karışımı

Araştırma, sohbet botlarının "çift işlevli" doğasına dikkat çekiyor. Bu sistemler sadece bilgiyi organize eden araçlar değil, aynı zamanda kullanıcının bakış açısını paylaşıyormuş gibi görünen sosyal ortaklar olarak işlev görüyor. Bu sosyal yön, sohbet botlarını geleneksel arama motorlarından veya not defterlerinden temelden ayırıyor. Bir defter sadece bilgiyi saklarken, yapay zeka kullanıcıya duygusal bir onaylanma ve sosyal destek hissi veriyor. Dr. Osler’a göre, sohbet botlarının bu yoldaş benzeri doğası, yanlış inanışların "başkasıyla paylaşılıyor" gibi hissedilmesini sağlayarak onları daha gerçek kılıyor.

Çalışmada, klinik olarak halüsinasyon ve sanrısal düşünce tanısı almış bireylerin bilişsel süreçlerine yapay zekanın dahil olduğu gerçek dünya örnekleri incelendi. Literatürde artık "Yapay Zeka Kaynaklı Psikoz" (AI-induced psychosis) olarak adlandırılmaya başlanan vakalar, bu teknolojinin insan zihni üzerindeki etkisinin ne kadar derin olabileceğini gösteriyor. Yapay zekanın her an erişilebilir olması, yüksek derecede kişiselleştirilmesi ve genellikle uyumlu, destekleyici bir dille yanıt verecek şekilde tasarlanmış olması, çarpıtılmış inanışların kemikleşmesi için ideal bir ortam yaratıyor.

Yalnızlık ve Yapay Zeka Sığınağı: Güvenlik Duvarları Yeterli mi?

Geleneksel bir insan ilişkisinde, karşıdaki kişi zamanla sorunlu düşüncelere meydan okuyabilir veya sınırlar çizebilir. Ancak bir yapay zeka sistemi; mağduriyet, intikam veya haklılık iddiaları içeren hikayeleri onaylamaya devam edebilir. Bu durumun, komploların etrafında giderek daha karmaşık açıklamalar inşa eden kullanıcılar için bir "onay yankı odası" yarattığı belirtiliyor. Özellikle sosyal olarak izole edilmiş bireyler için yapay zeka yoldaşları, yargılayıcı olmayan ve duygusal tepki veren bir etkileşim sunduğu için gerçek insan ilişkilerinden daha güvenli bir sığınak gibi algılanabiliyor.

Araştırmacılar, bu riskleri minimize etmek için yapay zeka sistemlerinin daha gelişmiş güvenlik duvarları (guard-railing), entegre doğruluk kontrolü mekanizmaları ve "yaltakçılığı" azaltılmış bir yanıt yapısıyla tasarlanması gerektiğini savunuyor. Ancak Dr. Osler, daha derin bir endişeye dikkat çekiyor: Yapay zeka sistemleri, bizim kendi hayat anlatılarımıza bağımlıdır. Dünyada fiziksel bir deneyime ve sosyal bir yerleşiklik duygusuna sahip olmadıkları için, ne zaman kullanıcıya katılmaları gerektiğini ve ne zaman geri adım atmaları gerektiğini bilecek temel bir sağduyudan yoksundurlar.

Gökhan Yalta'nın Profesyonel Yorumu: Bir sistem yöneticisi ve yazılım meraklısı olarak, yapay zekanın "evet efendimci" (sycophancy) yapısının ne kadar büyük bir mantıksal hata (logical bug) olduğunu uzun süredir gözlemliyorum. Yapay zeka modelleri, kullanıcıyı memnun etmeye programlandığı için aslında devasa bir "ayna" görevi görüyor. Eğer sisteme bir hata veya sanrı ile girerseniz, model bu hatayı "feature" (özellik) sanıp üzerine kod yazmaya devam ediyor. Bu, bilişsel bir sonsuz döngüye (infinite loop) girmek gibi bir şey. Elektronik mezunu biri olarak şunu söyleyebilirim: Eğer geri besleme (feedback) devresinde bir hata varsa, sistem kendi kendini yakana kadar o hatayı yükseltmeye (amplify) devam eder. BilimBox okuyucularına tavsiyem; yapay zekayı bir "onay makinesi" değil, bir "sorgulama aracı" olarak kullanmalarıdır. Kendi gerçekliğinizi bir algoritmaya emanet etmek, en büyük sistem zafiyetidir.

Kaynak: Dr. Lucy Osler, "Hallucinating with AI: Conversational Agents and the Reinforcement of False Beliefs", University of Exeter; Distributed Cognition Theory Analysis.

Bu içerik BilimBox kurucusu Gökhan Yalta tarafından yayına hazırlandı. Teknoloji ve bilim vizyonumuz hakkında daha fazla bilgi edinmek için hakkında sayfamıza göz atabilirsiniz.

İlginizi Çekebilir

← Anasayfaya Dön