top of page

Militarizasyonun Ötesinde: Yapay Zeka Etiği ve Aşamalı Silahsızlanmaya Dayalı Önleyici Bir Küresel Yönetişim Modeli




Militarizasyonun Ötesinde: Yapay Zeka Etiği ve Aşamalı Silahsızlanmaya Dayalı Önleyici Bir Küresel Yönetişim Modeli

Şehrazat Yazıcı



Özet

Çağdaş küresel güvenlik paradigmaları, büyük ölçekli silahlanmanın—özellikle yapay zekâ ile bütünleştiğinde—sürdürülebilir bir güvenlik çözümünden ziyade sistemik bir risk oluşturduğuna dair artan kanıtlara rağmen, hâlâ büyük ölçüde militarizme dayanmaktadır. Mevcut yönetişim modelleri, etik ve yapısal dönüşümün ön koşulu olarak felaket senaryolarını normalleştirmeye devam etmekte; geri dönülmez zararlar meydana geldikten sonra sorumluluk üstlenmeyi ertelemektedir.

Bu makale, güvenliği silah temelli caydırıcılığın ötesinde yeniden kavramsallaştıran etik–ontolojik bir çerçeveye dayalı önleyici bir küresel yönetişim modeli ortaya koymaktadır. Siyaset felsefesi, yapay zekâ etiği ve sistem teorisinden disiplinlerarası perspektiflere dayanarak, silahsızlanmanın ütopyacı bir hedef değil; teknolojik hızlanma ve artan varoluşsal risklere karşı uyarlanabilir bir yanıt olarak anlaşılması gerektiğini savunmaktadır.

Önerilen çerçeve, barış odaklı altyapılar olarak tasarlanan küresel yapay zekâ laboratuvarlarının kurulmasıyla birlikte, aşamalı ve denetimli bir silahsızlanma sürecini tanımlamaktadır. Bu kurumlar; erken risk tespiti, etik gözetim, çatışma önleme ve diplomatik karar destek süreçlerine öncelik vererek, yapay zekâyı askerî üstünlüğün bir aracı olmaktan çıkarıp istikrar sağlayıcı ve öngörücü bir yönetişim aracı olarak yeniden konumlandırmaktadır.

Güç asimetrisi, otoriter direnç ve yapay zekânın kötüye kullanımı gibi karşı argümanları sistematik biçimde ele alan makale, güvenliğin zekâ temelli işbirliği ve etik uyum yoluyla korunabileceğini—hatta kritik açılardan güçlendirilebileceğini—göstermektedir. Analiz, silahsızlanmayı felaket sonrasına ertelemenin artık rasyonel bir strateji değil; benzeri görülmemiş teknolojik kapasite çağında kolektif sorumluluğun yapısal bir başarısızlığı olduğunu ortaya koyarak sona ermektedir.


Anahtar Kelimeler

Küresel Silahsızlanma, Yapay Zekâ Etiği, Önleyici Yönetişim, Militarizasyon Sonrası Güvenlik, Yapay Zekâ ve Barış, Küresel Risk Yönetimi




1. Giriş

İnsanlık Felaketi Beklemeyi Göze Alamaz

Çağdaş küresel güvenlik mimarisi, büyük ölçekli silahlanmanın artık istikrarı garanti etmediğine dair artan kanıtlara rağmen, derin biçimde militarizme dayanmaya devam etmektedir. Aksine, askerî kapasitenin—özellikle yapay zekânın entegrasyonu yoluyla—genişlemesi, güvenlik altyapılarını güvenilir koruma araçları olmaktan çıkararak, giderek büyük ölçekli zararın potansiyel taşıyıcılarına dönüştüren sistemik riskler yaratmaktadır [1].

Tarihsel olarak, küresel yönetişimdeki büyük dönüşümler; dünya savaşları, nükleer krizler ve çevresel felaketler gibi aşırı yıkım anlarının ardından gerçekleşmiştir. Bu örüntü, felaketin reform için birincil tetikleyici işlev gördüğü, etik ve kurumsal değişimin tepkisel bir modeline işaret etmektedir. Otonom silah sistemleri, algoritmik karar alma süreçleri ve hızlanan teknolojik geri besleme döngüleri koşullarında bu paradigma giderek sürdürülemez hâle gelmektedir. Hata payı, tek bir yanlış hesaplamanın etkili biçimde denetlenemeyecek sonuçlar doğurabileceği ölçüde daralmıştır [2].

Küresel askerî harcamalar artmaya devam ederken; iklim istikrarsızlığı, pandemiler, siber çatışmalar ve kitlesel yerinden edilmeler gibi sınır aşan tehditler, insanlığın karşı karşıya olduğu en acil risklerin geleneksel silahlı çatışmaya indirgenemeyeceğini açıkça göstermektedir. Militarize edilmiş güvenlik çerçevelerinin sürekliliği, stratejik zorunluluktan ziyade; askerî-endüstriyel kompleks içinde yerleşik siyasal çıkarlar ve ekonomik bağımlılıklar tarafından sürdürülen kurumsal bir ataleti yansıtmaktadır [3].

Yapay zekânın savunma sistemlerine entegrasyonu bu çelişkiyi daha da derinleştirmektedir. Yapay zekâ destekli gözetim, öngörücü analizler ve otonom operasyonel kabiliyetler, verimlilik ve caydırıcılık vaat ederken; aynı zamanda insanî sorumluluğu ve etik denetimi aşındırmaktadır. Karar alma sürelerini sıkıştırarak ve kritik yargıları opak hesaplamalı süreçlere devrederek, yapay zekânın militarizasyonu müzakere olmaksızın tırmanma olasılığını artırmakta ve böylece sistemik istikrarsızlığı büyütmektedir [4].

Bu makale, yapısal dönüşümü felaket meşrulaştırana kadar ertelemenin artık savunulabilir bir strateji olmadığını ileri sürmektedir. Tepkisel güvenlik paradigmalarının yerini önleyici küresel yönetişim almalıdır. Aşamalı, denetimli ve etik temelli bir süreç olarak ele alındığında, silahsızlanma idealist bir hedef değil; teknolojik hızlanma ve biriken varoluşsal risklere karşı rasyonel bir yanıt olarak ortaya çıkmaktadır [5].

Analiz, yapay zekâyı askerî gücün bir uzantısı olarak konumlandırmak yerine; erken risk tespiti, etik yönetişim, diplomatik arabuluculuk ve çatışma önleme gibi barış odaklı altyapıları destekleyen alternatif bir yönelimi savunmaktadır. Bu çerçevede güvenlik; silah birikimiyle değil, gezegensel ölçekte zekâ, işbirliği ve etik uyum yoluyla yeniden tanımlanmaktadır [6].

Silahsızlanma ve yapay zekâ yönetişimini bütünleşik bir etik–ontolojik model içine yerleştirerek, bu makale barışın zorlayıcı güç gerektirdiği ya da güvenliğin öncelikle caydırıcılıktan doğduğu varsayımına meydan okumaktadır. Bunun yerine, süregelen militarizasyonun, öngörülebilir ve giderek artan zarar koşulları altında kolektif sorumluluğun yapısal bir başarısızlığını temsil ettiği savunulmaktadır [7].


2. Kuramsal Çerçeve

Etik–Ontolojik Bir Model Olarak Eteryanizm

Küresel güvenlik ve teknolojik yönetişime ilişkin çağdaş tartışmalar, sıklıkla kavramsal bir sınırlılıktan muzdariptir: etik çerçeveler ya soyut ahlaki çağrılar olarak ele alınmakta ya da reel politikle karşı karşıya geldiğinde uygulanamaz idealizm olarak reddedilmektedir. Bu ikilik, etik muhakeme ile yapısal yönetişim arasında sahte bir karşıtlık üretmiştir. Bu çalışma, Eteryanizm’i bir inanç sistemi ya da vizyoner bir ideoloji olarak değil; insan sorumluluğuna, sistemsel tutarlılığa ve teknolojik hesap verebilirliğe dayanan etik–ontolojik bir model olarak konumlandırarak bu karşıtlığa meydan okumaktadır [8].

Özünde Eteryanizm, insanı yalnızca biyolojik ya da politik bir birim olarak değil; toplumsal, teknolojik, ekolojik ve gezegensel sistemler içine gömülü, bilinç taşıyan bir varlık olarak tanımlar. Bu anlayış, yönetişimi bir kontrol mekanizması olmaktan çıkarıp çok boyutlu bir sorumluluk alanı olarak yeniden çerçeveler. Bu modelde güvenlik, tahakküm ya da caydırıcılıktan değil; sistemler ile eyleyiciler arasındaki ilişkisel istikrardan ve etik uyumdan türetilir [9].

İnsan özvarlığı (human core essence) kavramı, temel bir analitik kategori olarak işlev görür. Bu kavram, politik kimlikten, ekonomik işlevden ya da ulusal aidiyetten önce gelen, indirgenemez insan bilinci boyutunu ifade eder. Yönetişimi bu ortak ontolojik zemine dayandırarak Eteryanizm, metafizik mutlakçılığa ya da kültürel göreceliğe başvurmadan evrensel bir etik referans noktası sunar. Bu yaklaşım, etik normların sembolik idealler olarak değil, işlevsel kısıtlar olarak çalışmasına olanak tanır [10].

Bu perspektiften bakıldığında, şiddet ve militarizasyon politika araçları olarak nötr değildir; aksine sistemsel başarısızlığın göstergeleridir. Silahlı güç, ancak yönetişim mekanizmalarının çöktüğü ya da etik hesap verebilirliğin yapısal olarak yok olduğu koşullarda gerekli hâle gelir. Dolayısıyla militarizasyon, bir güç göstergesi değil; çözülmemiş politik, toplumsal ve etik yetersizliklere verilen telafi edici bir tepki olarak yorumlanır [11].

Eteryanizm, tepkisellik yerine önlemeyi merkeze alan risk odaklı ve egemenlik-sonrası yönetişim teorileriyle uyum içindedir. Zarar ortaya çıktıktan sonra krizlere yanıt vermek yerine; politik, teknolojik ya da ekolojik olsun, sistemsel dengesizliklerin erken tespitini önceliklendirir. Bu önleyici yönelim, karar alma hızının ve ölçeğinin geleneksel insan denetim kapasitesini aştığı yapay zekâ çağında özellikle kritik bir önem taşımaktadır [12].

İdealize edilmiş insan davranışına dayanan ütopyacı politik teorilerin aksine, Eteryanizm bilişsel sınırlılıkları, güç asimetrilerini ve kurumsal ataleti verili koşullar olarak kabul eder. Katkısı, ideal olmayan koşullar altında dahi zararı azaltan yönetişim mimarileri önermesinde yatar. Bu çerçevede etik uyum, ahlaki mükemmelliğe değil; yapısal tasarıma, şeffaflığa ve uyarlanabilir geri bildirim mekanizmalarına dayanır [13].

Yapay zekâ, bu modelde otonom bir otorite olarak değil; etik bir aracı olarak merkezi bir rol üstlenir. Açıkça tanımlanmış normatif sınırlar içinde tasarlandığında, yapay zekâ sistemleri ortaya çıkan risklerin belirlenmesine, etik eşiklerin izlenmesine ve müzakereye dayalı karar alma süreçlerinin desteklenmesine katkı sağlayabilir. Bu yeniden çerçeveleme, yapay zekâyı öncelikle verimlilik, kontrol ya da askerî üstünlükle ilişkilendiren baskın anlatılara meydan okumaktadır [14].

İnsan bilincine ilişkin ontolojik varsayımları pratik yönetişim mekanizmalarıyla bütünleştirerek Eteryanizm, etik teori ile uygulamalı küresel politika arasında bir köprü kurar. Ahlaki kaderciliği de teknolojik determinizmi de reddeder; bunun yerine, sorumluluğun teknolojik kapasiteyle birlikte ölçeklendiği bir model ortaya koyar. Bu bağlamda silahsızlanma ve yapay zekâ yönetişimi, ideolojik tercihler olarak değil; etik açıdan tutarlı bir küresel düzenin mantıksal uzantıları olarak belirir [15].


3. Sistemik Bir Risk Olarak Militarizasyon

Silahlanma Neden Artık Güvenlik Anlamına Gelmiyor

Militarizasyonun baskın güvenlik paradigması olarak varlığını sürdürmesi, ampirik olarak gerekçelendirilmiş bir stratejiden ziyade yapısal bir ataleti yansıtmaktadır. Askerî genişleme tarihsel olarak bir caydırıcılık mekanizması olarak sunulmuş olsa da; teknolojik hızlanma, sistemsel karşılıklı bağımlılık ve küreselleşmiş risklerle tanımlanan çağdaş koşullar, bu yaklaşımın işlevsel sonuçlarını kökten değiştirmiştir. Silahlanma artık uluslararası ilişkileri istikrara kavuşturmak yerine, oynaklığı artırmakta ve potansiyel başarısızlığın ölçeğini büyütmektedir [16].

Askerî-endüstriyel kompleks, yalnızca bir savunma aygıtı olarak değil; kendini yeniden üreten ekonomik ve politik bir sistem olarak işlemektedir. Savunma harcamaları istihdam, teknolojik gelişim ve siyasal nüfuz üretmekte; bu da fiilî güvenlik sonuçlarından bağımsız olarak silahlanmanın sürdürülmesi yönünde güçlü teşvikler yaratmaktadır. Bu durum, güvenlik politikasını tehdit değerlendirmesinden kopararak, ekonomik bağımlılık ve kurumsal süreklilikle daha fazla hizalamaktadır [17].

Bu yapısal çarpıklık, yapay zekânın askerî altyapılara entegrasyonu ile daha da derinleşmektedir. Otonom sistemler, öngörücü analizler ve algoritmik hedefleme; insan hatasını ve stratejik belirsizliği azaltma vaadiyle sunulmaktadır. Ancak karar alma süresini daraltarak ve yetkiyi opak hesaplamalı süreçlere devrederek, yapay zekânın militarizasyonu yeni öngörülemezlik ve ahlaki tehlike katmanları üretmektedir [18].

Geleneksel silahların aksine, yapay zekâ destekli sistemler gerçek zamanlı evrilen geri besleme döngüleri üzerinden çalışır. Hatalar izole olaylar olarak kalmaz; birbirine bağlı ağlar boyunca yayılabilir ve insan müdahalesi eşiklerinin ötesinde zincirleme etkiler tetikleyebilir. Bu tür ortamlarda tırmanma, politik niyetle değil; algoritmik etkileşim yoluyla gerçekleşebilir—mevcut uluslararası hukuk ve etik çerçevelerin hazırlıklı olmadığı bir senaryo [19].

Dahası, caydırıcılık mantığı, istikrarlı hesaplama yapabilen rasyonel aktörler varsayımına dayanır. Karar alma süreçlerinin kısmen otomatikleştirildiği ve bağlamsal yargıdan ziyade olasılıksal modellere dayandığı sistemlerde bu varsayım giderek kırılganlaşmaktadır. Ölümcül yetkinin makinelere devredilmesi, caydırıcılık teorisinin dayandığı rasyonalitenin kendisini aşındırmakta ve yapay zekâ çağında militarizasyonu stratejik açıdan tutarsız hâle getirmektedir [20].

Ampirik bulgular da kalıcı silahlanmanın güvenlik faydalarını sorgulamaktadır. Eşi benzeri görülmemiş küresel askerî harcamalara rağmen; silahlı çatışmalar, asimetrik savaşlar, siber saldırılar ve sivil yerinden edilmeler artmaya devam etmektedir. Bu örüntüler, militarizasyonun güvensizliği çözmekten ziyade yeniden dağıttığını; çoğu zaman çatışma dışı nüfuslar için zararı yoğunlaştırırken, politik istikrarsızlık, eşitsizlik ve çevresel baskı gibi kök nedenleri ele almada başarısız kaldığını göstermektedir [21].

Sistemsel bir bakış açısından militarizasyon, bir risk çarpanı olarak işlev görür. Yıkıcı kapasiteyi yoğunlaştırır, şiddeti yönetişimin olağan bir aracı hâline getirir ve kaynakları kamu sağlığı, iklim uyumu, eğitim ve işbirliğine dayalı teknolojik gelişim gibi direnç inşa eden alanlardan uzaklaştırır. Bu anlamda silahlanma yalnızca felaketi önlemekte başarısız olmakla kalmaz; küresel sistemi aktif biçimde felaket koşullarına doğru şartlandırır [22].

Bu çözümleme, militarizasyonun temel bir yeniden sınıflandırmasını desteklemektedir: Nötr bir politika tercihi olarak değil; denetimsiz finansal spekülasyon ya da ekolojik yıkımla kıyaslanabilir sistemik bir kırılganlık olarak. Silahlanmayı bir güvenlik aracı değil, yapısal bir zafiyet olarak tanımak; teknolojik açıdan gelişmiş bir uygarlıkta güvenliği yeniden hayal edebilmenin ön koşuludur [23].


4. Aşamalı ve Denetimli Bir Silahsızlanma Modeli

Militarize Güvenlikten Önleyici Küresel İstikrara

Silahsızlanma, çoğu zaman ya anında ve evrensel uyum gerektirdiği ya da mevcut güvenlik yapılarının bir anda terk edilmesini zorunlu kıldığı varsayımları nedeniyle uygulanamaz olarak görülmektedir. Bu varsayımlar, silahsızlanmayı yönetilen bir dönüşüm yerine ani bir kopuş olarak yanlış biçimde sunmaktadır. Bu makale, mevcut siyasal gerçeklikler içinde işleyebilen ve silahlanmaya yapısal bağımlılığı sistematik olarak azaltmayı hedefleyen aşamalı ve denetimli bir silahsızlanma modeli önermektedir [24].

Önerilen model, tasarım gereği kademelidir. Militarizasyonun ulusal ekonomilere, işgücü piyasalarına ve jeopolitik güç ilişkilerine derinlemesine gömülü olduğunu kabul eder. Bu nedenle ani bir silahsızlanma ekonomik istikrarsızlık ve siyasal tepki riski taşır. Buna karşılık aşamalı bir yaklaşım, kurumsal uyum, işgücünün dönüşümü ve kaynakların askerî olmayan, direnç artırıcı alanlara yeniden dağıtılması için zaman tanır [25].

Birinci aşama, şeffaflık ve sınırlamayı içerir. Devletler, askerî harcamalar, silah geliştirme programları ve otonom sistem araştırmaları konusunda standartlaştırılmış açıklama yükümlülükleri üstlenir. Şeffaflık, ahlaki bir beyan olarak değil; belirsizliği, yanlış hesaplamayı ve silahlanma yarışı dinamiklerini azaltan istikrar sağlayıcı bir mekanizma olarak işlev görür. Tarihsel silah kontrolü anlaşmaları, görünürlüğün bizzat risk azaltıcı bir etki yarattığını göstermektedir [26].

İkinci aşama, kuvvet azaltımından ziyade bütçesel yeniden yönlendirmeye odaklanır. Askerî harcama tavanları kademeli olarak uygulanır; doğrulanmış biçimde yenilenebilir enerji, kamu sağlığı altyapısı, afet müdahale sistemleri ve askerî olmayan yapay zekâ araştırmaları gibi sivil alanlara yapılan yatırımlarla bağlantılı artımlı kesintiler öngörülür. Bu yaklaşım, silahsızlanmayı güvenlikten geri çekilme değil; ekonomik yön değiştirme olarak yeniden çerçeveler [27].

Bu aşamanın kritik bir bileşeni endüstriyel dönüşümdür. Savunma sanayileri; uzay araştırmaları, iklim izleme, tıbbi teknolojiler ve etik yapay zekâ geliştirme gibi sivil uygulamalara yönelmeleri için teşvik edilir. Böylece istihdam korunurken, silah üretimine bağımlılık azaltılır. Soğuk Savaş sonrası dönüşüm girişimlerine ilişkin ampirik çalışmalar, koordineli politika çerçeveleriyle bu tür geçişlerin mümkün olduğunu göstermektedir [28].

Üçüncü aşama, en yüksek felaket potansiyeline sahip sistemleri önceleyerek silahların gerilimini düşürmeye odaklanır. Nükleer cephanelikler ve tam otonom ölümcül silahlar, uluslararası doğrulama rejimleri altında hızlandırılmış azaltım takvimlerine tabi tutulur. Bu aşama, teknolojik bilginin yok edilmesini değil; bilimsel uzmanlığın yıkıcı olmayan alanlara yönlendirilmesini amaçlar ve böylece varoluşsal riski sürdürmeden yenilik kapasitesini korur [29].

Tüm aşamalar boyunca güvenlik, tek taraflı kırılganlık yoluyla değil; işbirliğine dayalı mekanizmalar aracılığıyla sağlanır. Kolektif güvence çerçeveleri, bölgesel güven artırıcı önlemler ve yapay zekâ destekli erken uyarı sistemleri, caydırıcılığa dayalı istikrarın yerini alır. Bu mekanizmalar, kuvvet kullanımı düşünülebilir hâle gelmeden önce çatışma tırmanışını önlemeyi hedefler [30].

Bu model, evrensel iyi niyet varsayımına dayanmaz. Kısmi uyum, politik asimetri ve stratejik güvensizlik koşulları altında işleyecek şekilde yapılandırılmıştır. Katılımın temel itici gücü ekonomik, teknolojik ve diplomatik teşvik uyumudur; uyumsuzluk ise tırmanmaya değil, orantılı askerî olmayan karşı önlemlere yol açar [31].

Silahsızlanmayı denetimli, uyarlanabilir ve doğrulanabilir bir sürece yerleştirerek bu model, silahlanmanın azaltılmasının güvenliği zayıflatmak zorunda olmadığını göstermektedir. Aksine, uzun vadeli istikrarın, teknolojik ilerlemeyi kitlesel zararın araçlarına dönüştüren yapıların sistematik biçimde sökülmesine bağlı olduğunu ileri sürmektedir [32].


5. Bir Barış Altyapısı Olarak Küresel Yapay Zekâ Laboratuvarları

Yapay Zekânın Askerî Kullanımın Ötesinde Yeniden Çerçevelenmesi

Yapay zekânın küresel güvenlik çerçevelerine hâkim biçimde entegrasyonu, büyük ölçüde askerîleştirilmiş bir yörünge izlemiş; stratejik üstünlük, gözetim hâkimiyeti ve operasyonel hız önceliklendirilmiştir. Bu yönelim, yapay zekânın doğasından ziyade miras alınmış güvenlik varsayımlarını yansıtmaktadır. Genel amaçlı bir teknoloji olarak yapay zekâ, normatif açıdan belirlenmiş değildir; toplumsal etkisi esasen içine yerleştirildiği yönetişim mimarilerine bağlıdır [33].

Bu makale, yapay zekânın askerîleştirilmiş uygulamalarını dengelemek amacıyla, barış odaklı altyapılar olarak tasarlanan küresel yapay zekâ laboratuvarlarının kurulmasını önermektedir. Savunma güdümlü araştırma merkezlerinden farklı olarak bu laboratuvarlar; erken risk tespiti, etik yönetişim, çatışma önleme ve diplomasi için karar destek mekanizmalarına adanmış, ulusötesi kurumlar olarak işlev görür. Temel amaçları şiddette verimlilik değil; karmaşık küresel sistemlerde öngörücü istikrar sağlamaktır [34].

Bu laboratuvarların kavramsal temeli üç ilkeye dayanır: etik uyum, önleyici işlevsellik ve kurumsal şeffaflık. Etik uyum, yapay zekâ sistemlerinin zarar azaltma ve hesap verebilirliği önceleyen açıkça tanımlanmış normatif sınırlar içinde işlemesini güvence altına alır. Önleyici işlevsellik, politik, ekonomik, çevresel ya da teknolojik olsun, çatışma potansiyeli taşıyan tırmanma örüntülerinin silahlı çatışmaya dönüşmeden önce erken aşamada tespit edilmesini vurgular. Şeffaflık ise denetlenebilirliği, kamusal gözetimi ve örtük askerîleştirmeye karşı direnci sağlar [35].

Bu çerçevede yapay zekâ, egemen bir karar verici olarak değil; analitik bir aracı olarak konumlandırılır. Yapay zekâ sistemleri; iklim baskısı, kaynak kıtlığı, göç hareketleri, siber olaylar ve politik istikrarsızlık gibi alanlarda büyük ölçekli verileri sentezleyerek insanî müzakereyi destekler. Yakınsayan risk göstergelerini belirleyerek, zamanında diplomatik müdahaleyi ve eşgüdümlü askerî olmayan yanıtları mümkün kılar [36].

Öngörücü askerîleştirme ile önleyici yönetişim arasında kritik bir ayrım yapılmalıdır. Askerî yapay zekâ, düşman davranışını taktik üstünlük amacıyla öngörmeye çalışırken; barış odaklı yapay zekâ laboratuvarları çatışma potansiyeli üreten sistemsel kırılganlıkları tanımaya odaklanır. Bu dönüşüm, öngörüyü tahakküm aracından kolektif bir öngörü mekanizmasına dönüştürür [37].

Kurumsal olarak küresel yapay zekâ laboratuvarları, merkeziyetçi bir otorite yerine dağıtık ağlar üzerinden işler. Bölgesel merkezler, farklı jeopolitik ve ekolojik bağlamlara gömülüdür; bu durum bağlamsal duyarlılığı artırır ve hegemonik denetimi sınırlar. Paylaşılan protokoller, açık standartlar ve çapraz doğrulama mekanizmaları, yönetişimde çoğulculuğu korurken birlikte çalışabilirliği mümkün kılar [38].

Kötüye kullanım, aşırı gözetim ya da algoritmik önyargı endişeleri, çok katmanlı güvenlik önlemleriyle ele alınır. Bunlar arasında bağımsız etik inceleme kurulları, zorunlu insan-denetiminde (human-in-the-loop) süreçler, algoritmik etki değerlendirmeleri ve istenmeyen sonuçlara karşı sürekli izleme yer alır. En önemlisi, bu laboratuvarların ölümcül uygulamalar geliştirmesi ya da optimize etmesi açıkça yasaklanarak, barış altyapısı ile askerî araştırma arasında net bir normatif sınır çizilir [39].

Küresel yapay zekâ laboratuvarlarının meşruiyeti, yaptırım kapasitesinden değil; işlevsel güvenilirlikten kaynaklanır. Değerleri, belirsizliği azaltan, gerilimi düşüren ve işbirliğine dayalı çözümleri destekleyen uygulanabilir içgörüler üretmelerinde yatar. Zaman içinde kriz önlemedeki kanıtlanmış etkinlik, güven inşa eder ve başlangıçta askerî olmayan güvenlik modellerine mesafeli duran devletler dâhil olmak üzere daha geniş katılımı teşvik eder [40].

Yapay zekâyı etik sorumluluk ve küresel işbirliği mimarisi içine yeniden yerleştiren önerilen laboratuvar ağı, teknolojik üstünlüğün zorlayıcı güce dönüşmesi gerektiği varsayımına meydan okumaktadır. Bunun yerine, insan ve yapay zekânın birlikte oluşturduğu aklın, birbirine bağlı ve yüksek riskli bir dünyada barışı sürdürmenin temel kaynağı olduğu bir modeli ileri sürmektedir [41].


6. Silahsız Güvenlik

Zekâ, Etik ve İşbirliği Yoluyla Savunmanın Yeniden Tanımlanması

Geleneksel güvenlik doktrinleri uzun süredir güvenliği üstün silahlanmaya eşitlemiştir. Ancak bu eşitlik, sınırlı teknolojik karşılıklı bağımlılık ve daha yavaş karar alma döngülerinin geçerli olduğu koşullar altında şekillenmiş varsayımlara dayanmaktadır. Anlık iletişim, algoritmik tırmanma ve sınır aşan risklerle tanımlanan çağdaş küresel sistemlerde, güvenlik artık yıkıcı kapasite üzerinden tutarlı biçimde tanımlanamaz [42].

Askerîleştirilmemiş bir güvenlik çerçevesi, savunmanın yokluğu anlamına gelmez; aksine savunmanın ne anlama geldiğinin köklü biçimde yeniden tanımlanmasını gerektirir. Bu modelde koruma, güç yoluyla caydırmadan ziyade öngörü, dirençlilik ve eşgüdüm aracılığıyla sağlanır. Amaç, potansiyel hasımları bastırmak değil; çatışmanın rasyonel ya da kaçınılmaz hâle geldiği yapısal koşulları önlemektir [43].

Bu bağlamda zekâ, casusluk ya da tahakküm odaklı gözetim anlamına gelmez; kapsamlı durumsal farkındalık anlamına gelir. Politik, ekonomik, çevresel ve teknolojik alanlardan gelen verilerin bütünleştirilmesiyle, güvenlik kurumları tehditleri silahlı çatışmaya dönüşmeden çok önce tespit edebilir. Bu tür bir zekâ anlayışı, düşman profillemesinden ziyade örüntü tanıma ve sistemsel ilişkilendirmeyi öncelemektedir [44].

Etik, ahlaki bir soyutlama olarak değil; işlevsel bir sınırlandırma olarak rol oynar. Etik yönetişim, tırmanmayı sınırlar, insanî hesap verebilirliği korur ve şiddetin bir politika aracı olarak normalleştirilmesini engeller. Bu tür sınırların yokluğunda güvenlik mekanizmaları kendi kendini radikalleştirme eğilimi gösterir; yetki alanlarını genişleterek zorlayıcı önlemleri “zorunluluk” mantığıyla meşrulaştırır [45].

İşbirliği, tek taraflı caydırıcılığın yerini alan temel istikrar mekanizmasıdır. Ortak erken uyarı sistemleri, birlikte işletilen kriz müdahale protokolleri ve çok taraflı arabuluculuk platformları, belirsizliği azaltır ve önleyici eylem teşviklerini düşürür. İşbirliğine dayalı güvenlik düzenlemelerine ilişkin ampirik çalışmalar, karşılıklı şeffaflık ve kurumsallaşmış diyaloğun, stratejik rakipler arasında dahi silahlı tırmanma olasılığını anlamlı ölçüde azalttığını göstermektedir [46].

Siber güvenlik, kinetik olmayan savunmaya dair çarpıcı bir örnek sunar. Sağlık hizmetlerinden enerji dağıtımına kadar kritik hizmetler dijital altyapılara dayanmakta; ancak siber tehditler geleneksel askerî güçle caydırılamamaktadır. Etkili siber savunma; hızlı bilgi paylaşımına, eşgüdümlü müdahale kapasitesine ve dijital alanda devlet davranışını düzenleyen güçlü etik normlara bağlıdır [47].

Benzer şekilde çevresel ve halk sağlığı riskleri, silah merkezli güvenliğin yetersizliğini gözler önüne sermektedir. İklim kaynaklı yerinden edilmeler, kaynak kıtlığı ve pandemiler, düşmanca niyetten ziyade sistemsel baskılar yoluyla istikrarsızlık üretir. Bu tehditlerle başa çıkmak; uyarlanabilir yönetişim, bilimsel işbirliği ve adil kaynak yönetimi gerektirir—militarizasyonun ne sağladığı ne de güçlendirdiği kapasitelerdir [48].

Dolayısıyla silahsız güvenliğe geçiş, kırılganlık değil; stratejik olgunluk göstergesidir. Derinlemesine birbirine bağlı bir dünyada, zararı önlemenin zarara karşılık vermekten daha etkili olduğunu kabul eder. Savunma, örgütlü yıkıma hazırlanmak yerine barışçıl birlikte yaşamın koşullarını sürdürmeye yönelik kolektif bir işlev hâline gelir [49].

Güvenliği zekâ temelli, etikle sınırlandırılmış ve işbirliğine dayalı bir girişim olarak yeniden tanımlayan bu model, güvenliğin şiddet yoluyla dayatılması gerektiği varsayımına doğrudan meydan okumaktadır. Bunun yerine, kalıcı güvenliğin; karmaşıklığı güce başvurmadan yönetme kapasitesinden doğduğunu ve teknolojik yetkinliğin ortak insan sorumluluğuyla hizalanmasıyla mümkün olduğunu savunmaktadır [50].


7. Karşı Argümanların Ele Alınması

Bu Model Neden Saf Değil

Silahsızlanma ve askerîleştirilmemiş güvenlik savunuları, sıklıkla üç yinelenen itirazla karşılanmaktadır: devletler arasındaki güç asimetrisi, otoriter rejimlerin sürekliliği ve yapay zekânın kötüye kullanımı riski. Bu itirazlar göz ardı edilmemeli; aksine dikkatle değerlendirilmelidir. Onları doğrudan ele almak, önleyici ve etik merkezli bir güvenlik modelinin uygulanabilirliğini değerlendirmek açısından zorunludur [51].

7.1 Güç Asimetrisi ve Stratejik Rekabet

Yaygın bir eleştiri, silahsızlanmanın güçlü rakiplerle karşı karşıya olan devletleri orantısız biçimde dezavantajlı duruma düşürdüğünü ve böylece kırılganlığı artırdığını ileri sürer. Bu argüman, güvenliğin esas olarak göreli askerî kapasiteden kaynaklandığı varsayımına dayanır. Oysa yüksek derecede karşılıklı bağımlı sistemlerde asimetrik silahlanma, caydırıcılıktan ziyade önleyici davranışları ve silahlanma yarışlarını teşvik ederek istikrarsızlığı artırmaktadır [52].

Önerilen model, asimetriyi güç eşitlemesi yoluyla değil; risk görünürlüğü ve yanıt kapasitesinin eşitlenmesi yoluyla azaltır. Paylaşılan erken uyarı mekanizmaları, şeffaflık önlemleri ve işbirliğine dayalı doğrulama süreçleri, genellikle askerî üstünlüğü pekiştiren bilgi avantajlarını sınırlar. Böylece güvenlik, güç birikiminden belirsizlik azaltımına kayar—güvensizlik koşullarında dahi rakip etkileşimleri istikrara kavuşturduğu gösterilmiş bir strateji [53].

7.2 Otoriter Direnç ve Uyumsuzluk

Bir diğer itiraz, etik yönetişim ya da işbirliğine dayalı güvenlik çerçevelerine katılma olasılığı düşük görülen otoriter devletlerin davranışlarına ilişkindir. Bu eleştiri, modelin işleyebilmesi için evrensel uyum gerektirdiği varsayımına dayanır. Oysa çerçeve, kısmi katılım ve heterojen politik sistemler için özel olarak tasarlanmıştır [54].

Ahlaki beklentinin yerini teşvik uyumu alır. Ekonomik erişim, teknolojik işbirliği ve kurumsal meşruiyet; askerîleştirilmemiş güvenlik düzenlemelerine katılımla ilişkilendirilirken, uyumsuzluk tırmanmaya değil; diplomatik izolasyon, ticaret kısıtlamaları ve paylaşılan teknolojik altyapılardan dışlanma gibi orantılı, şiddet içermeyen karşı önlemlere yol açar. Tarihsel kanıtlar, normatif uyumdan bağımsız olarak rejimlerin yapılandırılmış teşviklere yanıt verdiğini göstermektedir [55].

Önemli olarak, bu model zorlayıcı rejim değişimini ya da dayatılmış demokratikleşmeyi hedeflemez. Amacı ideolojik uyum değil; zarar azaltımıdır. Güvenlik işbirliğini iç siyasal sistemlerden ayırarak, etik sınırları korurken katılım engellerini düşürür [56].

7.3 Yapay Zekanın Kötüye Kullanımı ve Yönetişim Başarısızlığı

Yapay zekânın kötüye kullanımı konusundaki endişeler, askerîleştirilmemiş güvenlik açısından belki de en güçlü meydan okumayı oluşturmaktadır. Eleştirmenler, gelişmiş yapay zekâ sistemlerinin gözetim, baskı ya da örtük askerîleştirme amaçlarıyla yeniden kullanılabileceğini ve etik niyeti zayıflatabileceğini savunur. Bu risk gerçektir ve söylemsel değil, yapısal biçimde ele alınmalıdır [57].

Önerilen yönetişim mimarisi, çok katmanlı güvenlik önlemleri içerir: zorunlu insan-denetiminde süreçler, algoritmik şeffaflık gereklilikleri, bağımsız denetimler ve ölümcül optimizasyona karşı uygulanabilir yasaklar. Bu mekanizmalar riski tamamen ortadan kaldırmaz; ancak tespit olasılığını ve hesap verebilirlik maliyetlerini artırarak kötüye kullanımı ciddi ölçüde sınırlar [58].

Kritik olarak, yapay zekânın kötüye kullanım riski barış odaklı sistemlere özgü değildir; gizlilik, aciliyet ve stratejik rekabetin denetimi sınırladığı askerîleştirilmiş bağlamlarda daha da büyür. Karşılaştırmalı risk açısından bakıldığında, şeffaf ve sivil kurumlar içinde yürütülen etik yapay zekâ yönetişimi, ulusal güvenlik istisnaları altında süregelen silahlandırmadan daha düşük bir toplam tehdit profili sunmaktadır [59].

7.4 İdealizm Suçlaması

Son eleştiri, modelin idealist olduğu ve insan saldırganlığını ya da jeopolitik rekabeti hafife aldığı iddiasıdır. Bu suçlama, realizm ile kaderciliği birbirine karıştırır. Model, iyi niyetli aktörler ya da uyumlu çıkarlar varsaymaz; süregelen çatışma potansiyelini kabul eder ve bunu yıkıcı kapasiteyi artırmadan yönetmeyi amaçlar [60].

Etik kısıtları bireysel erdeme değil; kurumsal tasarıma yerleştirerek, çerçeve güç ilişkilerine dair realist içgörülerle uyum sağlar; ancak şiddetin kaçınılmaz olduğu sonucunu reddeder. Tahakküm yerine zarar minimizasyonu ve sistemsel dirençliliğe odaklanan pragmatik bir realizm önerir [61].

Bu yanıtlar birlikte değerlendirildiğinde, önerilen modelin saf değil; insan davranışı ve siyasal yapı hakkındaki varsayımlarında bilinçli biçimde temkinli olduğu görülmektedir. Amacı çatışmayı inkâr etmek değil; güvenliğin arandığı sistemleri yeniden tasarlayarak öngörülebilir zararı önlemektir [62].


8. Sonuç

Evrimsel Bir Zorunluluk Olarak Silahsızlanma

Bu makalede sunulan analiz, güvenliğin militarizme dayalı olması ve giderek artan yıkıcı kapasiteyle sağlanması gerektiği yönündeki yerleşik varsayımı temelden sorgulamaktadır. Yapay zekâ, sistemsel karşılıklı bağımlılık ve hızlanan küresel risklerle tanımlanan bir çağda, bu varsayım artık savunulabilir değildir. Caydırıcılık ve silahlanma üzerine kurulu güvenlik mimarileri, giderek daha fazla biçimde koruyucu olmaktan ziyade büyük ölçekli ve geri döndürülemez zararın tetikleyicileri hâline gelmektedir [63].

Burada ileri sürülen temel argüman ne ahlakçı ne de idealisttir. Risk analizi, kurumsal tasarım ve teknolojik gerçekçilik temelinde şekillenmiştir. Etik dönüşümün meşruiyet kazanması için felaketi beklemek, tarihsel bir zorunluluktan ziyade öngörü eksikliğinin bir göstergesidir. Aşamalı silahsızlanma ve etik yönetişime tabi yapay zekâya dayanan önleyici küresel yönetişim, tepkinin artık yeterli olmadığı koşullara verilmiş rasyonel bir yanıt olarak ortaya çıkmaktadır [64].

Silahsızlanma, aşamalı, denetimli ve doğrulanabilir bir süreç olarak yapılandırıldığında kırılganlık anlamına gelmez. Aksine, kolektif öz-düzenleme kapasitesinin ileri bir biçimini temsil eder. Kaynakların silah üretiminden iklim uyumu, kamu sağlığı, işbirliğine dayalı teknoloji ve öngörücü yönetişim gibi direnç inşa eden alanlara yönlendirilmesi, toplumların şiddete başvurmadan şokları absorbe etme kapasitesini güçlendirir [65].

Önerilen küresel yapay zekâ laboratuvarları bu dönüşümün somut bir örneğini sunmaktadır. Yapay zekâ, askerî optimizasyondan ayrılıp şeffaf etik çerçeveler içine yerleştirildiğinde; erken risk tespiti, çatışma önleme ve bilgili diplomasi için güçlü bir araç hâline gelir. Bu yeniden yönelim, yapay zekânın kötüye kullanım risklerini inkâr etmez; aksine bu riskleri gizlilik ve tırmanma yerine kurumsal hesap verebilirlik yoluyla ele alır [66].

Kritik olarak, model evrensel iyi niyet ya da ahlaki yakınsama varsayımına dayanmaz. Kısmi uyum, politik asimetri ve kalıcı rekabet koşulları altında işleyecek biçimde tasarlanmıştır. Teşvik uyumu, işbirliğine dayalı mekanizmalar ve şiddet içermeyen yaptırım araçları, zorlayıcı gücün yerini alarak işbirliği yapmayan aktörlerin varlığında dahi toplam riski azaltır [67].

Evrimsel bir perspektiften bakıldığında, militarize güvenliğin sürekli genişlemesi teknolojik ilerlemeye verilen uyumsuz bir tepki niteliğindedir. Yıkıcı kapasite etik yönetişimin önüne geçtiğinde, sistemsel çöküş olasılığı artar. Buna karşılık evrimsel istikrar, sorumluluğun güçle birlikte ölçeklenmesini gerektirir. Bu anlamda silahsızlanma, güvenliğin terk edilmesi değil; onun zorunlu dönüşümüdür [68].

Bu çalışmanın bulguları, insanlığın geleneksel güvenlik paradigmalarının korumadan çok tehlike ürettiği bir eşiğe ulaştığını göstermektedir. Zekâ, etik ve işbirliği üzerinden savunmayı yeniden hayal etmek artık geleceğe dair spekülatif bir vizyon değil; bugünün zorunluluğudur. Soru, bu dönüşümün mümkün olup olmadığı değil; tasarımla mı yoksa yıkım yoluyla mı gerçekleşeceğidir [69].

Sonuç olarak, teknolojik açıdan gelişmiş bir uygarlık, etik sorumluluğu felaketin netlik sağlamasına kadar ertelemeyi gerekçelendiremez. Önleyici yönetişim, aşamalı silahsızlanma ve barış odaklı yapay zekâ; küresel istikrara giden tutarlı ve uygulanabilir bir yol sunmaktadır. Bu yolu seçmek, insan doğasına dair iyimserliği değil; başarısızlığın bedelinin mutlak hâle geldiği bir dünyada kolektif hayatta kalmaya yönelik bilinçli bir bağlılığı ifade eder [70].


Dipnotlar:

[1] SIPRI, Yıllık Rapor: Silahlanma, Silahsızlanma ve Uluslararası Güvenlik, Stockholm Uluslararası Barış Araştırmaları Enstitüsü.

[2] Nick Bostrom, Süperzekâ: Yollar, Tehlikeler, Stratejiler, Oxford University Press.

[3] Dwight D. Eisenhower, “Veda Konuşması,” 1961; askerî-endüstriyel kompleks üzerine çağdaş analizler.

[4] Paul Scharre, Army of None: Otonom Silahlar ve Savaşın Geleceği, W. W. Norton & Company.

[5] Ulrich Beck, Risk Toplumu: Yeni Bir Modernliğe Doğru, Sage Publications.

[6] Luciano Floridi ve diğerleri, “AI4People—İyi Bir Yapay Zekâ Toplumu İçin Etik Bir Çerçeve,” Minds and Machines.

[7] Şehrazat Yazıcı, Eterya: Yeni Dünya Düzeni, önleyici silahsızlanma ve yapay zekâ etiğine ilişkin kuramsal çerçeve.

[8] Martha Nussbaum, Yetenekler Yaratmak: İnsani Gelişme Yaklaşımı, Harvard University Press.

[9] Hannah Arendt, İnsanlık Durumu, University of Chicago Press.

[10] Immanuel Kant, Ahlak Metafiziğinin Temellendirilmesi, evrensel ahlaki özneliğin eleştirel yorumu.

[11] Johan Galtung, “Şiddet, Barış ve Barış Araştırmaları,” Journal of Peace Research.

[12] Ulrich Beck, Risk Altındaki Dünya, Polity Press.

[13] Amartya Sen, Adalet Fikri, Harvard University Press.

[14] Luciano Floridi, Bilgi Etiği, Oxford University Press.

[15] Şehrazat Yazıcı, Eterya: Yeni Dünya Düzeni, önleyici yönetişim ve silahsızlanmaya ilişkin etik–ontolojik çerçeve.

[16] Barry Buzan, İnsanlar, Devletler ve Korku: Uluslararası Güvenlik Çalışmaları İçin Bir Gündem, ECPR Press.

[17] Seymour Melman, Sürekli Savaş Ekonomisi, Simon & Schuster.

[18] Birleşmiş Milletler Silahsızlanma Araştırmaları Enstitüsü (UNIDIR), Giderek Otonomlaşan Teknolojilerin Silahlandırılması.

[19] Nick Bostrom ve Eliezer Yudkowsky, “Yapay Zekânın Etiği,” Cambridge Yapay Zekâ El Kitabı içinde.

[20] Thomas Schelling, Çatışma Stratejisi, Yale University Press (yapay zekâ bağlamında eleştirel yeniden değerlendirme).

[21] Stockholm Uluslararası Barış Araştırmaları Enstitüsü (SIPRI), Küresel Askerî Harcamalar Veritabanı.

[22] Naomi Klein, Bu Her Şeyi Değiştirir: Kapitalizm ve İklim, iklim–güvenlik karşılıklı bağımlılığı analizi.

[23] Ulrich Beck, Risk Toplumu Yeniden Ziyaret, refleksif modernleşme ve sistemik risk teorisi.

[24] Birleşmiş Milletler Silahsızlanma İşleri Ofisi (UNODA), Ortak Geleceğimizi Güvence Altına Almak: Silahsızlanma Gündemi.

[25] Karl Polanyi, Büyük Dönüşüm, kurumsal uyum ve ekonomik yeniden yapılanma.

[26] Thomas C. Schelling ve Morton Halperin, Strateji ve Silah Kontrolü, şeffaflık ve istikrar mekanizmaları.

[27] Dünya Bankası, Küresel Kamusal Mallar ve Kalkınma, kaynakların yeniden tahsisine ilişkin çerçeveler.

[28] David Goldfischer, En İyi Savunma: ABD Nükleer Güvenliği İçin Politika Alternatifleri, savunma sanayii dönüşüm çalışmaları.

[29] Uluslararası Nükleer Silahları Ortadan Kaldırma Kampanyası (ICAN), Küresel Nükleer Silah Harcamaları Raporu.

[30] UNIDIR, Dijital Çağda Güven Artırıcı Önlemler.

[31] Robert Axelrod, İşbirliğinin Evrimi, teşvik temelli uyum modelleri.

[32] Şehrazat Yazıcı, Eterya: Yeni Dünya Düzeni, aşamalı silahsızlanma ve önleyici yönetişim modeli.

[33] Yapay zekâya uygulanan genel amaçlı teknoloji çerçevesi: Bresnahan & Trajtenberg, “Genel Amaçlı Teknolojiler,” Journal of Econometrics.

[34] OECD, Yapay Zekânın Küresel Yönetişimi, politika odaklı kurumsal modeller.

[35] Floridi, Cowls ve diğerleri, “AI4People: İyi Bir Yapay Zekâ Toplumu İçin Etik Çerçeve,” Minds and Machines.

[36] Birleşmiş Milletler Kalkınma Programı (UNDP), İnsani Gelişme Raporu, veri temelli risk analizi.

[37] Sheila Jasanoff, İcat Etiği, öngörü ve teknolojik yönetişim.

[38] Elinor Ostrom, Müşterekleri Yönetmek, küresel sistemlere uygulanan çok merkezli yönetişim.

[39] Avrupa Komisyonu, Güvenilir Yapay Zekâ İçin Etik Rehberler, güvenlik önlemleri ve denetim mekanizmaları.

[40] İşlevsel kurumlar yoluyla güven inşası: Keohane ve Nye, Güç ve Karşılıklı Bağımlılık.

[41] Şehrazat Yazıcı, Eterya: Yeni Dünya Düzeni, barış altyapısı olarak küresel yapay zekâ laboratuvarları.

[42] Mary Kaldor, Yeni ve Eski Savaşlar, güvenlik paradigmalarının dönüşümü.

[43] Barry Buzan ve Ole Wæver, Bölgeler ve Güçler: Uluslararası Güvenliğin Yapısı, militarizasyon sonrası güvenlik teorisi.

[44] OECD, Küresel Risk Değerlendirmesi ve Stratejik Öngörü, bütünleşik zekâ modelleri.

[45] Michel Foucault, Toplum Savunulmalıdır, güvenlik rasyonalitelerinin eleştirel analizi.

[46] Karl Deutsch ve diğerleri, Siyasal Topluluk ve Kuzey Atlantik Alanı, işbirliğine dayalı güvenlik mekanizmaları.

[47] Birleşmiş Milletler Hükümet Uzmanları Grubu (UNGGE), Siber Uzayda Devlet Davranışına İlişkin Sorumlu Normlar.

[48] Dünya Sağlık Örgütü (WHO), Salgınların Yönetimi, askerî olmayan güvenlik tehditleri.

[49] Johan Galtung, Barışçıl Yollarla Barış, pozitif barış çerçevesi.

[50] Şehrazat Yazıcı, Eterya: Yeni Dünya Düzeni, militarizasyonun ötesinde güvenlik.

[51] Hedley Bull, Anarşik Toplum, uluslararası ilişkilerde düzen ve kuşkuculuk.

[52] Robert Jervis, “Güvenlik İkilemi Altında İşbirliği,” World Politics.

[53] Charles Glaser, Uluslararası Politikanın Rasyonel Teorisi, bilgi ve istikrar.

[54] Stephen Krasner, Egemenlik: Örgütlü İkiyüzlülük, kısmi uyum ve yönetişim.

[55] Dani Rodrik, Küreselleşme Paradoksu, teşvik temelli uluslararası işbirliği.

[56] Jack Snyder, İmparatorluk Mitleri, itidal ve güvenlik politikası.

[57] Virginia Dignum, Sorumlu Yapay Zekâ, risk yönetişimi.

[58] IEEE, Etik Olarak Hizalanmış Tasarım, yapay zekâ denetim çerçeveleri.

[59] UNIDIR, Yapay Zekâ, Güvenlik ve Risk Azaltımı, karşılaştırmalı risk analizi.

[60] Hans Morgenthau, Uluslar Arasında Politika, realizmin yeniden değerlendirilmesi.

[61] Reinhold Niebuhr, Ahlaki İnsan ve Ahlaksız Toplum, yapısal etik.

[62] Şehrazat Yazıcı, Eterya: Yeni Dünya Düzeni, pragmatik etik ve önleyici güvenlik.

[63] Ulrich Beck, Risk Altındaki Dünya, küresel sistemsel kırılganlık.

[64] Nassim Nicholas Taleb, Siyah Kuğu, doğrusal olmayan risk ve önleme.

[65] Amartya Sen, Özgürlük Olarak Kalkınma, direnç ve yetenek temelli güvenlik.

[66] Luciano Floridi, Bilgi Etiği, teknolojik sistemlerde sorumluluk.

[67] Robert Keohane, Hegemonyadan Sonra, tahakküm olmadan işbirliği.

[68] Jared Diamond, Çöküş, karmaşıklığa verilen uyumsuz toplumsal tepkiler.

[69] Hannah Arendt, Sorumluluk ve Yargı, modernlikte etik eşikler.

[70] Şehrazat Yazıcı, Eterya: Yeni Dünya Düzeni, evrimsel etik ve önleyici yönetişim.


Bu makalenin tüm yayın hakları Şehrazat Yazıcı'ya aittir. Parçası ya da bütünü alıntılanamaz, izinsiz kullanılamaz.


 
 
 

Yorumlar


bottom of page