🔭 BilimBox

Yapay Zekaya Kaynakça Konusunda Güvenmeyin: "Hayalet Referanslar" Bilim Dünyasını Tehdit Ediyor

📅 08.05.2026 | ⏱️ 3 dk okuma | 🔥 15 okunma | ✍️ Editör: Gökhan Yalta
Yapay Zekaya Kaynakça Konusunda Güvenmeyin: "Hayalet Referanslar" Bilim Dünyasını Tehdit Ediyor

Jenna DeLuca, 2025 baharında derin bir hayal kırıklığı yaşıyordu. Bilim dünyasının olimpiyatları olarak kabul edilen Regeneron Uluslararası Bilim ve Mühendislik Fuarı'nda (ISEF) bir öğrenci projesini daha diskalifiye etmek zorunda kalmıştı. Sebep yine aynıydı: Kaynakça kısmında yer alan ve aslında var olmayan, tamamen uydurma araştırma makaleleri. DeLuca, "Başlık doğru görünüyordu, dergi adı gerçekti ama yazarlar yanlıştı ya da dergi hiç var olmamıştı," diyerek durumu özetliyor. Bu sahte atıfların tek bir suçlusu vardı: ChatGPT veya Gemini gibi yapay zeka sohbet botlarının "halüsinasyon" olarak bilinen uydurma yanıtları.

Bilim Fuarlarından Akademik Dergilere Sıçrayan Tehlike

Bu sorun sadece lise öğrencileriyle sınırlı değil. Yapay zeka tarafından üretilen "hayalet referanslar" artık profesyonel bilimsel dergilerin sayfalarına da sızmaya başladı. Yapılan yeni araştırmalar, 2024 ve 2025 yıllarında sunulan binlerce bilgisayar bilimi makalesinin yüzlercesinde en az bir hayali kaynak bulunduğunu gösteriyor. Hatta Nature'da yayımlanan bir analiz, 2025 yılında yayımlanan on binlerce bilimsel çalışmanın bu tür sahte referanslar içeriyor olabileceği konusunda uyarıda bulunuyor. Dijital eğitim uzmanı Ben Williamson, bu durumu "hortlak gibi bizi takip eden, var olmayan ama varmış gibi görünen çalışmalar" olarak tanımlıyor.

Yapay Zekanın Sinsi Tuzağı: Formatlama Bile Riskli

Pek çok araştırmacı, yapay zekayı sadece kaynakçayı belirli bir formata sokmak (yazar adı, tarih, dergi sırasını düzenlemek) için kullanıyor. Ancak DeLuca'nın yaptığı deneyler, botların gerçek verileri formatlarken bile araya sahte detaylar sokuşturabildiğini kanıtladı. Daha da kötüsü, Google'ın yapay zeka özetleri bazen bu sahte kaynakları "gerçek makale" olarak onaylayabiliyor. Bu durum, merakını yitirip doğruluğu kontrol etmeden "kopyala-yapıştır" yöntemine başvuran araştırmacılar için geri dönülemez akademik ve yasal riskler doğuruyor. Amerika Birleşik Devletleri hukukuna göre, bu tür halüsinasyon kaynaklar "bilimsel usulsüzlük" ve dolandırıcılık kapsamında değerlendirilerek federal fonların kesilmesine kadar gidebilecek sonuçlar doğurabiliyor.

Gökhan Yalta'nın Yorumu

Yapay zeka, günümüzde araştırmacının en güçlü asistanı olma potansiyeline sahip olsa da, "doğruluk" konusunda henüz ergenlik sancıları çekiyor. Bu haberde gördüğümüz 'hayalet referanslar', teknolojinin veriyi anlamlandırmak yerine sadece 'istatistiksel olarak en olası kelimeyi seçme' mantığıyla çalışmasının tehlikeli bir sonucudur. Bilimsel üretimde hız, hiçbir zaman doğruluğun ve etik dürüstlüğün önüne geçmemelidir. Genç araştırmacıların yapay zekayı bir 'pusula' gibi yön bulmak için kullanmaları kabul edilebilir, ancak gemiyi tamamen otopilota bırakmak akademik intihardır. Unutmayın; yapay zeka hata yaptığında sorumluluğu üstlenmez, ancak o hatanın altına imza atan kişi tüm kariyerini riske atar.

Kaynak: Science News Explores, Kathryn Hulick, May 2026; Nature; Accountability in Research.

Bu içerik BilimBox kurucusu Gökhan Yalta tarafından yayına hazırlandı. Teknoloji ve bilim vizyonumuz hakkında daha fazla bilgi edinmek için hakkında sayfamıza göz atabilirsiniz.

İlginizi Çekebilir

← Anasayfaya Dön