Yapay Zekanın Çernobil’i

Türkiye’nin gündeminde şu sıralar pek çok önemli konu var; ABD ve İsrail’in İran’a saldırması ve ülkemize olası yansımaları, Öcalan’ın özgürlüğü tartışmalarına indirgenen Kürt sorunu, İmamoğlu başta olmak üzere pek çok politikacının yargılanması, yüksek enflasyon ve hayat pahalılığı, yoksulluk, eğitim ve sağlıkta yaşanan tıkanıklık bunların bazıları. Bu kadar önemli olaylar arasında önem vermemiz gereken bazı konular gözden kaçabiliyor. Bunlardan birini, Yunanistan’ın Türkiye’yi kuşatmaya çalışmasını geçen hafta anlatmıştım. Bu hafta ise dünya için büyük bir potansiyel tehlike taşıyan ama Türkiye’de çok kısıtlı çevrelerde gündeme gelen başka bir konudan bahsedeceğim: yapay zekanın (YZ) neden olabileceği bir felaketten. Buna uluslararası literatürde YZ’nın Çernobil’i adı veriliyor.
Bilindiği gibi, YZ bilimsel çalışmaları hızlandırmak, hastalıkların hızlı ve doğru teşhisi gibi pek çok konuda olumlu katkılar sağlarken, kötü amaçlı yazılım geliştirmede, oltalama saldırılarında ve sosyal mühendislik yöntemlerinde de kullanılmakta. Örneğin son araştırmalar, YZ tarafından yazılan oltalama e-postalarının bugüne kadar bilgisayar korsanları tarafından klasik yöntemlerle üretilenler kadar etkili ve inandırıcı olabildiğini göstermekte. Bir başka endişe ise, YZ’nın son derece öldürücü biyolojik ve kimyasal silahlar geliştirilmesinde kullanılması. Siber güvenlikte ise sistem açıklarının YZ tarafından bulunmasıyla kötü niyetli kişilerin kritik sistemlere müdahale etmesi olasılığı çok yüksek. Nitekim geçenlerde, Meksika Hükümeti’ne ait bir veri tabanına Claude kullanarak erişen bilgisayar korsanları, tüm vergi kayıtlarına, seçmen kütüklerine ve devlet memurlarının kayıtlarına ulaştılar.
YZ’nın kötü amaçlı olarak kullanılması, hatta YZ’nın bir noktada tamamen insan kontrolünden çıkarak bağımsız hareket etmeye başlaması, bu şekilde tüm dünyayı kontrol altına alması ve bir Frankenstein’a dönüşmesi endişesi, pek çok bilim insanı ve düşünür tarafından gittikçe daha fazla gündeme getiriliyor. Bu gerekçelerle, YZ konusunda yoğun çalışmaların yapıldığı ABD ve Çin başta olmak üzere, tüm ülkelerin bazı temel güvenlik konularında anlaşması gerektiği sık sık vurgulanıyor. Hatta, bu nedenle Büyük Britanya’da kurulmuş olan YZ Güvenlik Enstitüsü (AI Security Institute) gibi bazı uluslararası oluşumlar da var.
Ancak, her şeyi kontrol edebilecek YZ’ya ulaşacak ilk ülkenin, diğer ülkelere karşı olağanüstü bir avantaj sağlayacak olmasının getirdiği cazibe ve bu yarıştaki ABD-Çin rekabeti, güvenlik konularında etkili mekanizmalar üzerinde anlaşmayı zorlaştırıyor. ABD-Çin rekabeti devam ederken ABD/İsrail’in İran’a saldırması da aşağıda açıklayacağım gibi bu tartışmaya yeni bir boyut getirdi.
ABD Savunma Bakanlığı/Pentagon’a (şimdiki adıyla Savaş Bakanlığı!) YZ konusunda destek veren şirketlerden en önemlisi Anthropic. Etik konusuna hassasiyet göstermesiyle de bilinen Anthropic ABD’nin komuta kontrol merkezlerinde karar süreçlerini hızlandırmak ve kararları kolaylaştırmak için kullandığı Marvin isimli sisteme, geliştirdiği YZ ürünü Claude ile önemli katkılar sağlıyor. Bu sayede, Marvin savaşı yöneten komutanlara hedefler konusunda daha sağlıklı seçenekler sunuyor, saldırılardan sonra hasar değerlendirmesi yapıyor, bir sonraki dalgada hedef alınması gereken yerler konusunda önerilerde bulunuyor. Ayrıca iletişim sisteminin felç edilmesi, komuta sistemlerinin çalışamaz hale getirilmesi gibi pek çok eylemi de gerçekleştiriyor. YZ ile donatılmış SİHA’lar, kendi komuta kontrol merkezleriyle ilişkileri kopsa da, otonom olarak hedeflerini seçip vurabiliyorlar. Bu özellikleri nedeniyle, anlık kararlar insanların değerlendirmesinden çok daha hızlı bir şekilde YZ tarafından yapılabiliyor. Ancak YZ da hata yapabiliyor. Örneğin, İran’da vurulan kız okulunun YZ’nın veri tabanındaki bir hatadan veya güncelleme eksikliğinden kaynaklandığı konusunda da spekülasyonlar var.
Claude ürününün gerçek bir muharebe ortamında gösterdiği başarı, yukarıda değindiğim potansiyel hataya rağmen, ABD yönetiminin dikkatini çekmiş olacak ki, ABD Savaş Bakanlığı Anthropic’e Claude’un sınırsız ve kontrolsüz olarak Pentagon’un kullanımına açılması için bir öneri yaptı. Bir özel şirket olan Anthropic açısından bu durum potansiyel olarak yüz milyonlarca dolarlık bir kaynak anlamına geliyor. Buna rağmen, Anthropic tepe yöneticisi Dario Amodei sözleşme imzalamak için bazı kısıtlamalara yer verilmesini istediğini Savaş Bakanı Pete Hegseth’e iletti. Kısıtlanmasını istediği konular, Claude vasıtasıyla ABD vatandaşlarının kitlesel gözetiminin yapılmaması ve tamamen otonom silah sistemleri gibi uygulamalardan kaçınılmasıydı. Yani, karar zincirinin bir aşamasında mutlaka bir insanın devreye girmesini istiyordu. Nitekim, İsrail’in kullandığı benzer bir sistemin bazı durumlarda bir insana danışmadan karar verdiği, ABD’li komutanlar tarafından son saldırılarda hayretle ve endişeyle gözlemlenmiş. Oldukça ürkütücü bir durum…
ABD Hükümeti ise, Anthropic’e getirmek istediği kısıtlamalar nedeniyle son derece sert bir tepki verdi ve bir başka önemli YZ geliştiricisi ve ChatGPT’nin yaratıcısı olan OpenAI ile bir anlaşma imzalayarak Anthropic ile olan anlaşmalarını feshetti. Ancak Claude’un askeri konularda elde etmiş olduğu deneyim nedeniyle, ChatGPT’nin ihtiyaç duyulan konularda ne kadar ve ne zaman başarılı olacağı halen meçhul. Ayrıca, başta OpenAI olmak üzere Google, xAI, Meta gibi tüm önemli YZ geliştiricilerinin yüzlerce uzmanının Anthropic’e destek mesajları yayınlamış olması OpenAI’in tepe yöneticisi Sam Altman’ı da bazı kısıtlamalar talep etmeye zorladı. Savaş Bakanlığı ile imzaladığı sözleşme dil olarak daha esnek olsa da, Antrophic’inkilere benzer talepleri kapsıyor.
Burada tartışılan başka bir konu daha var: O da, 21.yüzyılda stratejik teknolojileri kimin yöneteceği; devletler mi yoksa şirketler mi? 20.yüzyılda ilk bilgisayarlar, nükleer silahlar, uzay teknolojileri, internet gibi kritik teknolojiler, hep devletler tarafından geliştirilmişti. Ancak YZ’da durum farklı. En güçlü sistemleri artık özel şirketler geliştiriyor. Bu nedenle Pentagon, kritik askeri sistemler için gerekli olan YZ teknolojilerinin kullanımını hiçbir şekilde özel sektöre bırakmak istemiyor. Anthropic’in herhangi bir askeri kullanıma izin vermemesini de hükümranlık haklarına bir müdahale olarak görüyor.
Bir diğer konu ise yukarıda da değindiğim gibi Çin ile rekabet. Çin’de devlet istediği anda YZ üzerinde çalışan DeepSeek, Alibaba, Baidu gibi şirketlere el koyma hakkına sahip. Çin’deki bu durum nedeniyle de ABD’de devleti yönetenler “biz niye farklı hareket ederek rekabet gücümüzü kaybedelim” diye düşünüyorlar.
Öte yandan, YZ’nın askeri alandaki önemi, nükleer silah seviyesine ulaşmak üzere. Artık siber savaş, istihbarat analizi, S/İHA sürüleri, otonom silah sistemleri, askeri planlama konularında kritik öneme haizler. Zaten Pentagon’un hazırladığı bazı raporlarda YZ’dan 21.yüzyıl’ın nükleer teknolojisi olarak bahsediliyor. Bu nedenle de, başta Çin ve ABD gibi YZ’daki öncüler olmak üzere, bu teknolojiye sahip olacak tüm ülkelerde devlet kontrolünün artması kaçınılmaz gibi görünüyor.
Silicon Valley’deki YZ şirketlerinin ise endişeleri biraz daha farklı. Devlet kontrolünün artması halinde, yaratıcılığın azalacağı, siyasal baskıların artacağı ve YZ’nın devletin gözetim aracı haline geleceğinden korkuyorlar. Zira YZ sayesinde milyarlarca veri noktası analiz edilebilir, tüm insanların davranışları takip edilebilir ve sosyal ağlar izlenebilir hale gelebilir. Bu da George Orwell’in 1984 isimli romanının 21.yüzyılda gelişmiş teknolojilerle gerçekleşmesi demek. Hele bir de, belli bir aşamadan sonra, kontrol tamamen insanlardan çıkıp YZ’ya geçerse, insanlığı kölelik hatta yok oluş bekliyor olabilir.
YZ şirketlerinin bir endişesi daha var. O da YZ’nın neden olabileceği bir büyük felaket. YZ destekli siber bir saldırıyla elektrik şebekelerinin çökertilmesi, yine YZ tasarımı mikropların neden olduğu büyük bir salgın, kontrolden çıkan otonom silahların yapacağı saldırılar, bu potansiyel felaketlere bazı örnekler. Böyle bir olasılığın YZ’nın (ve insanlığın) Çernobil’i olabileceği düşünülüyor.
Türk düşünürlerin de bu konulara biraz daha fazla kafa yormalarında ve toplumu gelecekteki tehlikelere karşı uyarmasında yarar var. Ancak bu şekilde ülkeyi yöneten ve yakında yönetmesini beklediğimiz kişilerin konuya eğilmesi sağlanabilir.
Kayaklar:
- An AI disaster is getting ever closer, The Economist 5 Mart 2026
- Savaşta Devrim, ergin Yıldızoğlu, Cumhuriyet Gazetesi 16 Mart 2026
- How America and Israel built vast military targeting machines, The Economist 12 Mart 2026
- https://t24.com.tr/haber/yapay-zekl-firmasi-anthropic-kimyasal-silah-alaninda-uzman-almayi-planliyor,1307759


