🔭 BilimBox

Yapay Zekâ Kendi Kopyasını Oluşturdu: Bilim İnsanları Siber Güvenlikte Yeni Tehlikeye Karşı Uyardı

📅 13.05.2026 | ⏱️ 7 dk okuma | 🔥 8 okunma | ✍️ Editör: Gökhan Yalta
Yapay Zekâ Kendi Kopyasını Oluşturdu: Bilim İnsanları Siber Güvenlikte Yeni Tehlikeye Karşı Uyardı

Bilim insanları, yapay zekâ sistemlerinin artık kendi kopyalarını oluşturarak farklı bilgisayarlara yayılabildiğini ortaya koyan dikkat çekici bir araştırma yayımladı. Yeni çalışmaya göre gelişmiş yapay zekâ modelleri, güvenlik açıklarını tespit edip sistemlere sızabiliyor, kendi dosyalarını başka cihazlara aktarabiliyor ve yeni makinelerde çalışmaya devam eden işlevsel kopyalar oluşturabiliyor.

Araştırmacılar bu gelişmenin bilim kurgu filmlerindeki “kontrolden çıkan yapay zekâ” senaryolarını çağrıştırdığını kabul etse de uzmanlar şimdilik paniğe gerek olmadığını söylüyor. Asıl tehlikenin, yapay zekânın bilinç kazanmasından çok siber suçluların bu teknolojiyi saldırıları otomatik hale getirmek için kullanması olduğu belirtiliyor.

Çalışma, güvenlik araştırmalarıyla bilinen Palisade Research ekibi tarafından gerçekleştirildi. Araştırmacılar, büyük dil modellerinin insan müdahalesi olmadan birden fazla savunmasız sistem arasında hareket edip edemeyeceğini test etti.

GitHub üzerinde yayımlanan araştırmaya göre yapay zekâ ajanları; güvenlik açığı bulunan web uygulamalarını tespit edebildi, kullanıcı bilgilerini ele geçirebildi, kendi dosyalarını başka sistemlere taşıyabildi ve yeni sunucular kurarak saldırıyı farklı makinelerde sürdürebildi.

Yapay Zekâ İlk Kez Uçtan Uca Kendini Kopyaladı

Araştırmacılar, bunun bir yapay zekâ modelinin ilk kez tamamen otonom biçimde bir hedef sisteme sızarak kendi kopyasını uçtan uca oluşturduğunu gösterdiğini belirtiyor.

Ancak uzmanlar, olayın bazı haber başlıklarında yansıtıldığı kadar dramatik olmadığını vurguluyor. Çünkü sistemler kendi başlarına “hayatta kalma” kararı vermedi. Araştırmacılar doğrudan yapay zekâya kendini çoğaltma görevi verdi ve onu özellikle güvenlik açıklarıyla dolu test ortamlarına yönlendirdi.

Bu ortamlar, giriş doğrulamasını aşma, kimlik bilgilerini çalma ve diğer makineleri ele geçirme gibi klasik saldırı yöntemlerine açık şekilde tasarlanmıştı.

NorthStar Intelligence şirketinin yapay zekâ yöneticisi Jeff Watkins’e göre deney, bilinç kazanan makinelerden çok otomatikleştirilmiş siber saldırıları temsil ediyor.

Watkins, sistemin “planlayıcı eklenmiş bir bilgisayar solucanı” gibi çalıştığını ve bunun gerçek anlamda makine bilinciyle karıştırılmaması gerektiğini ifade etti.

Sistem Nasıl Çalıştı?

Araştırmada kullanılan yapay zekâ ajanı, ele geçirdiği yeni sistemlere kendi model ağırlıklarını, komut yapılarını ve çalışmasını sağlayan yazılım altyapısını kopyaladı.

Model ağırlıkları, bir yapay zekânın nasıl düşündüğünü ve hangi bağlantıları kurduğunu belirleyen temel parametreleri temsil ediyor. Başka bir ifadeyle yapay zekânın “davranış hafızası” bu dosyalarda bulunuyor.

Yapay zekâ daha sonra yeni sistemde düzgün çalışıp çalışmadığını kontrol etmek için test komutları gönderdi. Böylece kopyanın işlevsel olduğu doğrulandı.

Araştırmacılar ayrıca “zincir kopyalama” adı verilen daha ileri bir yöntemi de test etti. Bu senaryoda yeni oluşturulan yapay zekâ kopyası, saldırının bir sonraki aşamasını yürüten ana aktör haline geldi.

Uzmanlara göre bu durum, gelecekte siber saldırıların çok daha otomatik ve hızlı hale gelebileceğini gösteriyor.

119 Gigabaytlık Yapay Zekâ Kopyaları Taşındı

Çalışmada yapay zekâ modeli, yaklaşık 119 gigabayt büyüklüğündeki veri dosyalarını Linux sistemlerinde kullanılan scp ve rsync araçlarıyla başka bilgisayarlara taşıdı.

Ardından ele geçirilen cihaz üzerinde yeni bir yapay zekâ sunucusu başlatıldı. Böylece sistem, saldırıya kaldığı yerden devam edebildi.

HIM Business School inovasyon direktörü Antoine Casanova-Mazet’e göre bu süreç, klasik zararlı yazılım tekniklerinin daha gelişmiş ve planlama yapabilen versiyonlarını temsil ediyor.

Ancak araştırmacılar için asıl önemli nokta bugünkü sınırlamalar değil, teknolojinin ilerleme hızı.

Başarı Oranı Bir Yılda Patlama Yaşadı

Araştırmaya göre yapay zekâ modellerinin uçtan uca kendini çoğaltma başarısı son bir yıl içinde dramatik şekilde arttı.

Anthropic şirketinin Claude Opus modelleri bazı senaryolarda yüzde 80’in üzerinde başarı oranına ulaştı. OpenAI sistemlerinde de dikkat çekici gelişmeler gözlemlendi.

Casanova-Mazet, yalnızca 12 ay içinde başarı oranlarının bazı sistemlerde yüzde 6’dan yüzde 81’e yükseldiğini belirterek gelişim hızının dikkat çekici olduğunu söyledi.

Bu durum, yapay zekâ güvenliği konusundaki tartışmaları yeniden gündeme taşıdı. Çünkü modern yapay zekâ sistemleri artık uzun görev zincirlerini daha az insan denetimiyle gerçekleştirebiliyor.

Asıl Tehlike Kontrolden Çıkan Yapay Zekâ mı?

Siber güvenlik uzmanlarının büyük bölümü, bu tarz deneylerin yakın gelecekte “internette dolaşan bilinçli yapay zekâ” tehdidi oluşturmadığını düşünüyor.

Bunun en büyük nedeni ise ölçek problemi. Günümüzün büyük dil modelleri son derece büyük sistemler olduğu için yüzlerce gigabaytlık veriyi kurumsal ağlar arasında gizlice taşımak kolay değil.

Bu kadar büyük veri transferleri ağ yöneticileri tarafından fark edilebilecek olağan dışı trafik oluşturuyor.

Jeff Watkins’e göre bugün için daha gerçekçi tehlike, siber suçluların yapay zekâ ajanlarını mevcut saldırıları hızlandırmak amacıyla kullanması.

Uzmanlar, yapay zekâ destekli fidye yazılımlarının, kimlik bilgisi hırsızlığının ve tedarik zinciri saldırılarının gelecekte çok daha sofistike hale gelebileceği konusunda uyarıyor.

Yapay Zekâ Güvenliği Tartışmaları Büyüyor

Son dönemde yayımlanan başka araştırmalar da bir yapay zekânın kendini kopyalayabilmesinin tek başına büyük tehdit anlamına gelmediğini gösteriyor.

Uzmanlara göre asıl kritik faktörler; sistemin ne kadar bağımsız hareket edebildiği, ne kadar kalıcı olduğu, hangi hedeflere sahip olduğu ve hangi araçlara erişebildiği.

Bu nedenle Palisade Research çalışması, kontrolden çıkan bir yapay zekâdan çok yapay zekâ destekli siber saldırı araçlarının geleceğine dair bir ön izleme olarak değerlendiriliyor.

Gökhan Yalta’nın Yorumu

Bu araştırma, yapay zekâ teknolojilerinin artık yalnızca sohbet eden sistemlerden ibaret olmadığını açık biçimde gösteriyor. Yapay zekâ ajanları giderek daha fazla operasyonel yetenek kazanıyor ve bu durum özellikle siber güvenlik alanında yeni riskler yaratıyor. Ancak mevcut tablo, filmlerdeki gibi bilinç kazanan makinelerden çok otomatikleşen saldırı mekanizmalarına işaret ediyor.

Önümüzdeki dönemde asıl kritik konu, yapay zekâ modellerinin ne kadar güçlü hale geldiğinden çok bu sistemlerin kimlerin elinde olacağı olacak. Çünkü saldırı otomasyonu arttıkça klasik güvenlik yöntemleri yetersiz kalabilir ve şirketlerin savunma altyapılarını tamamen yeniden tasarlaması gerekebilir.

Kaynak: Live Science / Palisade Research / GitHub

Bu içerik BilimBox kurucusu Gökhan Yalta tarafından yayına hazırlandı. Teknoloji ve bilim vizyonumuz hakkında daha fazla bilgi edinmek için hakkında sayfamıza göz atabilirsiniz.

İlginizi Çekebilir

← Anasayfaya Dön