İnsansız Ordular

Her teknoloji aşığı gibi ben de yapay zekayı tüm yönleriyle anlamaya çabalıyorum. Tıpta, pazarlamada, ev eşyalarında, otomobillerde, kamu hizmetlerinde, siber savunmada ve telekomünikasyon alanında sınırları net olmasa da yapay zekanın sağlayacağı faydalar belirginleşmeye başladı. Hizmet iyileştirmesi, maliyet etkin çözümler üretme, çaprazlama fonksiyon iyileştirmesi, yeni ürün ve fiyat teklifleri gibi fayda fonksiyonları üzerinden değerlendirilen yapay zekayı daha iyi anlamak için biraz da sınırlarda dolaşmaya ve araştırmaya başladım. Bu süreçte rastladığım Paul Scharre’nin, “İnsansız Ordular, Katil Robotlar, Otonom Silahlar ve Makine Savaşları” kitabı merakımın ötesinde bilgiler içeriyordu.

Alıntı: Teknoloji gurusu Kevin Kelly yapay zekayı elektrikle kıyaslayarak şöyle söylüyor “elektrik nasıl etrafımızdaki eşyalara enerji ile hayat veriyorsa yapay zeka da onlara zeka ile hayat verecek.”

Paul Scharre, New American Security Center’ın (Yeni Amerikan Güvenlik Merkezi) kıdemli üyesi, Teknoloji ve Ulusal Güvenlik Programı’nın direktörü olmakla birlikte Kara Kuvvetleri’nin hava indirme, ranger ve keskin nişancı okulundan mezun eski bir muharip askerdir. Yazar ayrıca Pentagon’da “İnsansız, otonom sistemler ve yeni silah teknolojileri” (2008-2013) departmanında çalışmış ve kitaba konu olan silah sistemlerinde otonomiye ilişkin politikaları belirleyen 3000.9 nolu yönergenin hazırlanmasında çalışma grubuna liderlik etmiş. Özetle sahayı en doğru şekilde tahlil ederek okuyucuya aktaracak en nitelikli kaynaklardan biri diyebiliriz.

Hemen can alıcı soruyu soralım: Hisse senetlerimizi, kampanya kurgumuzu, siber güvenliğimizi ve arabamızın direksiyonunu teslim ettiğimiz yapay zekaya, insan öldürme yetkisini de teslim edecek miyiz?

Görünen o ki ülkemiz de dahil olmak üzere savunma sanayi konusunda söz sahibi olmak isteyen ülkeler yapay zekayı kullanarak silah sistemlerine 3 önemli fonksiyonu kazandırma konusunda birbiriyle yarışıyor.

1. Operatörle yönetilebilen insansız hava, kara ve deniz araçları, yani sistemlerin insansızlaştırılması.
2. İnsana ihtiyaç duymadan karar alabilen otonom silah ve mühimmatlar, yani otonomi.
3. İnsansız, otonom ve birbiriyle haberleşebilen, sürü halinde operasyon icra edebilen silah sistemleri.

İnsansız Sistemler

Ülkemizdeki hem kamu hem de özel müteşebbislere ait savunma sanayi şirketlerinin insansız sistemler konusunda parmak ısırtacak derecede başarılı ürünleri ve oldukça geniş bir envanterleri bulunuyor. Sadece bir çırpıda saymak istersek muharebe sahalarında da aktif olarak başarısını ispat etmiş kendi sınıfında dünyanın en iyi silahlı insansız hava aracı (SİHA) Bayraktar TB2, yüksek faydalı yük kapasitesi sunan Aksungur, 24 saatten daha fazla gökyüzünde süzülebilen Anka, otonom sistemler bağlamında da ülkemizin yüz akı olan Kargu, denizlerimizin kurtları ULAQ ve Marlin silahlı insansız deniz araçları (SİDA), Alpan, Ukap, Kaplan, Aslan ve Alkar da insansız kara araçları (İKA) olarak akla gelen ilk ürünler diyebiliriz.

İnsansız sistemler, muharip unsurlar tarafından imha edildiğinde insan kaybı yaşanmayacak sistemler olarak özetlenebilir. Amerikan Hava Kuvvetleri insan kaybı olmasa bile bu ürünlerin insan operatör olmadan kullanılamayacağını belirterek insansız sistemler olarak değerlendirilmelerini istemiyor, yazar şu şekilde belirtmiş:

Alıntı: Predator ve Reaper drone operasyonlarında belli bir yörüngede 7/24 bir kesintisiz alan taraması yapacak tek bir drone için 7 ila 10 pilotluk bir mürettebat gerekir. Drone üzerindeki sensörleri çalıştırmak için yörünge başı 20 kişi daha gerekir ve sensör verilerinin incelenmesi için de çok sayıda istihbarat analisti gerekir. Hatta ABD hava kuvvetleri böyle yüksek personel gereksiniminden dolayı bu hava araçlarına insansız dememek için diretiyor. Araçta kimse olmayabilir ancak hala komuta eden ve destekleyen insanlar var.

Bu açıdan bakıldığında çok da mantıksız durmuyor fakat insan kaybı açısından değerlendirildiğine bu sistemlere insansız demek daha doğru olacaktır.

Otonom Sistemler

Otonom sistemler çeşitli kamera, mikrofon ve sensörler (ısı, basınç, irtifa, konum vb.gibi) vasıtasıyla çevrelerini algılayabilen yapılardır. Yapay zeka bilgisayarı tüm bu verileri, aynı insan beyninin organlardan gelen verileri derleyerek dünyamızı anlamamızı sağladığı gibi makinenin kendi dijital dünyasını oluşturmasını sağlar. Sistemler gerçek dünyadaki tüm nesneleri yapay zeka ile değerlendirir ve hedef mi yoksa ilgisiz bir nesne mi kararını verir. Bu karara göre de angajman uygular, saldırır veya pas geçer.

Otonom silah sistemlerinde perde önünde ciddi bir muhalefet olduğu görülse de perde gerisinde aşağı yukarı teknoloji kültürü olan her ülkenin yatırım yaptığı da bir gerçeklik. Askeri anlamda otonomi, herhangi bir silah sisteminin düşman tespitini kendisi yaparak angajmana yani saldırıya karar vermesi olarak tanımlanabilir. Öldürme kararını insan operatörden alıp yapay zekaya veren bu sistemlere, dost ateşi riski taşıması nedeniyle olsa gerek henüz pek sıcak bakılmıyor. Sivil teknolojiler söz konusu olduğunda ise belirli seviyelerde de olsa otonomiyi hayatımıza çoktan dahil ettik. Yeni nesil arabalarda artık temel paketler arasında olması gerektiği kanunla da zorunlu kılınan şerit takip, çarpışma önleme sistemleri ve otomatik park sistemleri en basit haliyle otonomiye örnektir. Benzer özellikler uçaklarda da oto pilot olarak karşımızı çıkıyor ve bunlara güven o kadar yüksektir ki uçuş esnasında insanı devre dışı bırakarak karar alma yetkisini devralacak şekilde programlanmaktadırlar. Özellikle F16 uçaklarında kullanılan Auto-GCAS sistemi buna örnektir, uçağın kabul edilir yüksekliğin altında bir irtifa kaybı yaşadığına karar verdiğinde sistem görevi insandan devralmaktadır.

Alıntı: ABD ordusunun içinde insansız sistemlere saldırı görevlerinin verilmesine karşı çok güçlü bir gelenekçi itiraz var. Robotik sistemler çoğunlukla, çarpışmadan ziyade keşif ve lojistik gibi destek görevleri için uygun görülüyor. Ordu lojistik robotlarına yatırım yapıyor ancak cephede savaşacak silahlı savaş robotlarına yapmıyor!

Sivil teknolojilerde tamamen otonom sistemlere geçme konusu yakın bir gelecekte mümkün görünüyor. Geçtiğimiz gün Elon Musk tarafından lanse Tesla‘nın yeni Robotaxi ve Robovan‘ı buna en güzel örnek olarak gösterilebilir. Direksiyon, vites ve sürüş kontrol pedalları olmadan üretilen araç insan kontrolünü tamamen devre dışı bırakacak şekilde tasarlanmış.

Askeri otonomide 3 seviye bulunmaktadır: Yarı otonom sistemler sez, karar ver, uygula döngüsünü (ortamın farkında ol, tehdidi algıla ve sınıflandır, saldırı veya pas geçme kararı ver) uygulamak amacıyla bütün hazırlıkları yapar fakat son kararı insana bırakır, emir olmadan aldığı kararı opere etmez. Denetimli otonom sistemlerde ise sez, karar ver, uygula döngüsü makineler tarafından yapılır, bu süreci insan operatör takip eder, istediği an akışı kesebilir, eylemi durdurabilir. Tam otonom sistemlerde ise insan müdahalesi olmaksızın makineler sez, karar ver ve uygula döngüsünü tamamlar.

Ülkemizde tam otonom sistemler üzerine muhtelif projeler yürütülse de Birleşmiş Milletler raporuna girmesi nedeniyle tüm dünyada bilinir hale gelen araç STM tarafından üretilen Kargu-2 silahlı insansız hava aracı (SİHA) olmuştur. Araç tam otonom sistemlerin anlaşılması için harika bir örnektir. Tek kişi tarafından operasyona hazır hale getirilebilen Kargu 2, uzaktan kumanda ile operatör kontrolünde herhangi bir hedefe angaje edilebildiği gibi teknolojik olarak tam otonom hale getirilebilecek durumda olduğu dönemin Cumhurbaşkanlığı Savunma Sanayii Başkanı Prof. Dr. İsmail Demir tarafından dile getirilmişti. Demir’in, bu imkana sahip olunduğunun fakat hedef tayinin ve angajman kararının insan operatör tarafından yapıldığının altını çizmesinin en önemli nedeni, uluslararası hukukta angajman kararının insandan makineye devir edilmesi konusunda henüz bir konsensüs oluşmaması olduğunu tahmin edebiliyoruz.

Alıntı: Derin öğrenmeli sinir ağı gibi yeni yapay zeka tipleri görsel nesne tanımada, yüz tanımada ve insan duygularını algılamada şaşırtıcı gelişmeler gösterdi. Gelecek silahların tüfek tutan bir insanla tırmık tutan bir insan arasındaki ayrımı yapabileceğini görmek çok zor değil. Buna rağmen bilgisayarlar bağlamı kavrama ve anlam yorumlama bakımından insanların oldukça gerisinde kalıyor. Bugün yapay zeka programlar görsellerdeki nesneleri tanımlayabiliyor, fakat münferit parçaları bir araya getirerek büyük resmi anlayamıyorlar.

Otonom Sürü Sistemler

İnsansız, uzaktan kumanda edilebilir sistemlerin yapay zeka desteğiyle kademeli olarak otonom hale getirilmesinin ardından bir sonraki aşamanın tamamen otonom ve sürü halinde operasyon icra edebilen sistemler olduğu neredeyse son 10 yılın en önemli askeri teknolojisi olarak değerlendiriliyor. Bu teknolojinin de yine iki farklı kullanım senaryosuna hizmet etmesi planlanıyor.

İlk aşamada homojen sürüler oluşturmak ve bu araçların tanımlı bir görevi icra etmesini sağlamak. Yani tamamı İHA, İKA veya İDAlardan oluşan sürüler oluşturmak ve sürünün minimum kayıp maksimum etki (hasar) yaratacak şekilde hedef üzerine operasyon icra etmesini sağlamak. İkinci seviye ise heterojen sürüler oluşturmak ve çok daha geniş bir harp sahasında çok çeşitli silah sistemlerinin birbiriyle haberleşmesini sağlayarak otonom operasyon icra etmek. Örneğin Bayraktar Kızılelma‘nın havadan, Gölge Süvari karadan ve ULAQ‘ın denizden ortak bir şekilde operasyon icra etmesine imkan sağlamak. Konvoy güvenliğini sağlayan bir Kızılelma yeterince uzun bir menzilden düşman tankını tespit eder ve işaretler, bu veri ULAQ’a aktarılır ve ULAQ, UMTAS tanksavar füzesini ateşler ve tankı etkisiz hale getirir, Gölge Süvari tanka yaklaşarak bölgeyi emniyet altına alır, varsa düşman unsurlarını etkisiz hale getirir, konvoy güvenle hedefine doğru yoluna devam eder. Senaryoları çeşitlendirmek mümkün.

Bu yapıyı daha da karmaşık hale getiren şey ise farklı sistemlerin bir de insan kontrolü altında çalışmasını sağlamaktır. Daha önce bahsettiğimiz otonomi seviyelerini tek bir sistem üzerinde değerlendirmiştik, otonom sürülerde ise farklı sistemlerin farklı otonomi seviyelerinde insan kontrolüne verilmesi veya tam otonom olarak hareket etmesini sağlamak söz konusudur ve bu da çok ciddi bir teknoloji gerektirmektedir.

Sivil teknolojiler söz konusu olduğunda otonomiden şimdilik perde önünde gösteri sektöründe büyük ölçüde yararlanılıyor. Geçtiğimiz ay Shenzhen Bay Park’ta 10 bin 197 drone yer alan gösteri ile iki Guinness Dünya Rekoru kırılmıştı. “Tek bir bilgisayarın kontrolünde aynı anda havada bulunan en fazla drone” ve “havada görüntü oluşturan en fazla drone” rekorlarını kırılırken bu sahneler aynı miktarda döner kanatlının askeri amaçla kullanıldığında ne gibi bir etki üreteceği hepimizi düşündürmeli. Özellikle Ukrayna – Rusya savaşında sahada kullanılan FPV droneların ürettiği etki görüldüğünde sürü halinde saldıran sistemlerin verdireceği zayiat korkutucu düzeyde olacaktır.

Alıntı: Makineli silahlar savaşı kalıcı bir biçimde değiştirdiler. 1800’lerin sonlarına doğru Britanya Ordusu, Maxim (dünyanın ilk makineli tüfeği) silahını Afrika’daki koloni faaliyetlerini desteklemek için kullandı. Bu, onlara çok daha kalabalık orduları yenebilme fırsatını verdi. Kısa bir süreliğine, en azından Britanyalılara göre, makineli tüfekler savaşın maliyetini azaltan bir silaha benziyordu. Ancak I. Dünya Savaşı’nda her iki tarafta da makineli tüfekler vardı. Sonuç eşi görülmemiş bir kıyım oldu. Britanya, Somme Muharebesi‘nde, tek bir günde 20.000 zayiat verdi. Bu askerler otomatik silahlarla biçildi. I. Dünya Savaşı’nın siperlerinde milyonlarca genç erkek, koca bir nesil öldü.

Makineli tüfek çok basit bir mekanizmaya sahipti ve insan kontrolündeydi. İnsan kontrolünü kaldıran otonomi ve sürü sistemlerin verdirebileceği zayiat ise düşünmek dahi istemeyeceğimiz düzeyde yüksek olacaktır.

Sürü Otonom SİHA sistemleri hakkında daha geniş bilgiye ve kullanım senaryolarına ulaşmak için Savunma Bilimleri Dergisi‘nde yayımlanan, İmren Kalınbacak‘ın kaleme aldığı “Sürü Otonom İHA Sistemlerinin Muharebe Sahasında Uygulama Taktikleri ve Geliştirilen Yeni Teknolojiler” makalesini öneririm.

Otonom Sistemler ve Dost Ateşi Riski

Otonom sistemlerin de aslında %100 güvenli olmadığını bu sistemleri harp sahasında ilk kullanan ülkelerden biri olan ABD acı bir şekilde öğrenmişti. Hem de birkaç kez.

Körfez Savaş’ında müttefik kuvvetlere ait Britanyalı havacı teğmen Kevin Main’in uçurduğu bir Tornado GR4A ile Kuveyt’teki üstüne geri dönerken Dost Düşman Tanıma Sistemi’nin kapalı olduğunu fark etmedi. Kuveyt’teki Ali El Salim üssüne iniş yaparken üssü korumakla görevli Patriot bataryasının radarına girdiler. Radar alçalan konumundan dolayı uçağı bir anti-radyasyon füzesi olarak tanımladı. Patriot füzesini ateşleyerek dost ateşi ile bir Tornado uçağını düşürdü ve pilotu öldürdü.

Bir diğer olay da Necef’te yaşanmıştı. F16 pilotu Patriot bataryalarını anti-radar AGM-88 yüksek hızlı anti radyasyon füzesi ile vurdu. Mürettebat yara almadan kurtuldu fakat Patriot bataryası tamamen imha edildi.

Irak’ın işgali sırasında bir diğer kazada da Patriot bataryası ile ABD Deniz kuvvetlerine ait bir F/A-18C Hornet Avcı uçağı vurularak düşürüldü. Patriot radarlarının dost düşman tanıma sistemi antrasyon füzeleri ile dost uçakları karıştırıyordu.

Balistik füzelerin çarpışma öncesi tepki süreleri çok kısıtlı olduğu için Patriot bataryaları taktik balistik füzelere karşı genellikle otomatik ateş modunda çalışırlar. Bu olayların ardından Patriot bataryalarının otomatik modda kullanımı yasaklandı ve manuel modda kullanılmasına karar verildi. Ayrıca ek bir güvenlik tedbiri olarak sistem artık bekler konumda tutuluyor. Böylece hedefleri izleyebiliyor ancak sistem bir insan tarafından çalışır konuma getirilmediği sürece ateşleme yapamıyor. Dolayısıyla bir anti-radyasyon füzesine karşı ateşleme yapabilmek için iki adımdan geçilmesi gerekiyor. Fırlatıcıların çalışır konuma getirilmesi ve sisteme hedefi vurmak üzere yetki verilmesi. Bu sayede benzeri hadiselerin önüne geçilmiş oldu.

Yapay Zeka İnsanlığın Sonu mu?

Nice araç gereç farklı amaçlarla da olsa insanlığın günlük hayatında yerini aldı ve hayatını kolaylaştırdı. Fakat bu araçların ne amaçla icat edildiğine bakılmaksızın ne yazık ki neredeyse hepsi, binlerce yıllık insanın birbirini öldürme hastalığına hizmet edecek bir amaç için kullanılır hale getirildi. Taş, ateş, tahta, demir, çelik derken şimdi ise önümüzde karmaşık teknolojiler ve yapay zeka hem büyük bir fırsat hem de büyük bir tehlike olarak duruyor. Yapay zekada ulaşılması amaçlanan son nokta, insan zekasını da alt eden, belki binlerce belki de sınırsız sayıda yapay zekaya hükmederek insanın bilişsel yeteneklerini de aşabilecek Yapay Genel Zeka’ya ulaşmak.

Dünyaca ünlü fizikçi ve kozmolog Stephen Hawking, yapay zeka için insanlığın son icadı derken belki de Yapay Genel Zeka‘yı işaret ediyordu. Aynı tehlikeye yapay zekanın seyrine yön veren Bill Gates ve Elon Musk da işaret ediyor ve yapay zekayı “şeytanı çağırmak” olarak niteliyor.

Bir diğer değerlendirme ise; yapay zekanın tanrılaşma histerisine kapılan insanın sonunu getirecek lanet olduğu yönünde.

Alıntı: “Robot” kelimesi 1920 tarihli bir Çek oyunu RUR’den, yani Rossumovi Univerzdlni Robotiden (Rossum’un Ev rensel Robotları) gelmektedir. Oyunda roboti (robot) denilen sentetik insanlar, insan efendilerine karşı ayaklanırlar. Yapay insanların yaratıcılarına karşı ayaklandığı bilim kurgu teması öyle yaygındır ki, “Frankenstein kompleksi” olarak bilinir, İsmini, Mary Shelley’ nin 19. yüzyıl tarihli korku roman Frankenstein’dan almıştır. Romanda, Dr. Frankenstein bilimin mucizeleri sayesinde “otopsi odasından ve mezbahadan” kalan parçaları bir araya getirerek insansı bir mahluk yaratır. Yaratık, Dr. Frankenstein’a ihanet eder, onu takip eder ve yeni evlendiği eşini öldürür. Kibrin, kontrol edilemeyen mahlûklar yaratma korkusunun, Frankenstein’dan da eskiye giden kadim kökleri vardır. Yahudi mitleri Golem adında bir yaratıktan bahseder. Golem, kilden yapılmıştır ve Tanrı’nın isimlerinden birinin İbranice yazılı olduğu bir şemin (kağıt) üstüne konulmasıyla hayat verilir. Mitlerden birinde Praglı Haham Yahuda Loew ben Bezalel, 16. yüzyılda Prag’ın Yahudi cemaatini anti-semitik saldırılara karşı korumak için nehir kenarındaki çamurdan bir Golem yaratır. Daha sonra gelen zeki yaratıkların aksine Golemler, köle gibi itaat eden ve genellikle yaratıcılara zararı dokunan güçlü ama aptal varlıklardı. Golem anlatıları çoğunlukla Golemin yaratıcısını öldürmesiyle biter. Bu, Tanrı’yı oynama kibrine karşı bir uyardır. İnsana denk ya da ondan üstün bir yapay zeka, aynı yapay varlık korkusu kuyusuna düşmektedir. Yapay zeka, biliş ve zihin kuramı gibi konular üzerine çalışan Florida İnsan ve Makine Bilişim Enstitüsü nden araştırmacı-bilim insanı Micah Clark bana şunu söyledi: “Oldukça kişisel ve felsefi bir düzeyde, yapay zekâ birey yaratmakla ilgilidir, satranç oynamak ya da araba sürmekle değil.'”

Öldürme Kararını İnsandan Alacak mıyız?

Binlerce yıldır türlü zalimlikler yapan insanlara söz konusu öldürme kararı olduğunda neden daha fazla güveniriz sorusu zihnimi meşgul etmiyor da değil. Fakat biraz örnek olay araştırdığınızda rahatlıkla görülebiliyor ki, insan denen canlının fabrika ayarları, kendisine doğrudan bir saldırı olmadığına, öldürme yerine yaşatmayı tercih edecek şekilde kodlanmış. Kitap da buna yönelik uzunca bir pasaj bulunuyor, çarpıcı olması nedeniyle aynen paylaşmak istedim.

Alıntı: İnsanı hedef tayini ve öldürme kararlarından çıkarmanın, bu merhamet anlarının dışında daha geniş çaplı başka sonuçları da olabilir. Otonom silahları fırlatan insanlar eğer ölümler için kendilerini sorumlu hissetmiyorlarsa, sonuç daha fazla ölüm ve genel olarak daha fazla acı olabilir. ABD Ordusu psikologu Yarbay Dave Grossman, On Killing [Öldürmek Üzerine] adlı kitabında, insanların birçoğunun neden öldürme konusunda tereddüt ettiğini açıklıyor. I. Dünya Savaşı’nda, ABD ordusu tarihçisi S. L. A. Marshall, doğrudan cepheden dönen askerlerle söyleşi yapmış ve askerlerin çoğunun düşmana ateş etmediğini fark etmiş. Buna Marshall da şaşırmış. Askerlerin sadece %15 ile %20’si gerçekten düşmana ateş ediyormuş. Askerlerin çoğu ya düşmanın kafa hizasının üzerinde bir yere ateş ediyormuş ya da hiç ateş etmiyormuş.”

Poz veriyorlardı diye açıklıyor Grossman, savaşıyor gibi yapıyorlardı fakat aslında düşmanı öldürmek için uğraşmıyorlardı. Grossman birçok savaştan kanıt sunarak bu poz verme davranışının tarih boyunca gerçekleştiğine dikkat çekiyor. İnsanların öldürmeye karşı doğuştan gelen biyolojik bir direnci olduğunu iddia ediyor. Hayvanlar âleminde, öldürücü yeteneklere sahip hayvanlar, türler arası mücadeleleri öldürücü olmayan şekillerde çözmeye çalışır. Bu mücadelelerde ölümler gerçekleşiyor, ancak genelde önce hayvanlardan biri boyun eğiyor. Çünkü asıl nokta öldürmek değil, hâkimiyet. Bununla birlikte, insanların doğuştan gelen öldürme karşıtı dirençleri psikolojik şartlanmalarla, otorite baskısıyla, öldürme sorumluluğunun dağılımıyla, düşmanı insandışlaştırmayla ya da öldürme eylemine yönelik artan psikolojik mesafeyle aşılabilir. Grossman’in öne sürdüğü faktörlerden biri, askerlerin eylemlerinin gerçek karşılığını ne kadar yakından gördüğüdür. Askerler, Walzer’in örneklerindeki gibi düşmana onu birey olarak görebilecek kadar yakınlarsa, çoğu öldürmekte tereddüt edecektir. Düşmanla olan psikolojik mesafe arttıkça, direnç de azalacaktır. 10 metre mesafedeki bir kişi baba, kardeş, oğul, kısacası insan olarak görünürken; 300 metreden sadece karanlık bir siluet olarak gözükür. 20. yüzyılın savaş araç ve gereçleri psikolojik mesafeyi daha da artırdı. II. Dünya Savaşı’nda bir bombardıman uçağı, bombardıman vizöründen aşağıdaki köprü, fabrika, üs gibi fiziksel cisimlere bakardı. Bu tür bir mesafeyle savaş, kişinin eylemlerinin korkunç insani sonuçlarından kopuk bir yıkım uygulaması gibi görünebilir. II. Dünya Savaşı’nda ABD ve Birleşik Krallık, stratejik bombardımanlarla koca şehirleri yerle bir ederek yüzbinlerce sivili öldürdü. Askerlerin çoğu, eylemlerinin gerçekliğini yakından görmek zorunda kalsaydı, büyük çoğunluğu sivillere karşı olan bu eylemlerin muadili sayılacak öldürmeleri gerçekleştirmeleri çok daha zor olurdu.”

“Modern bilgi teknolojisi savaşı eşi benzeri görülmemiş fiziksel mesafelerde mümkün kıldı, ancak diğer yandan da psikolojik mesafeyi daralttı. Günümüz drone operatörleri, öldürme eyleminden binlerce kilometre uzakta olabilirler, fakat psikolojik mesafeleri çok yakındır. Drone ekibi, yüksek çözünürlüklü kameralar sayesinde hedefin hayatına yakından bakabiliyor. Drone’lar uzun süre gezebilirler. Operatörler de hedefi günlerce ya da haftalarca izleyerek saldırıdan önce ‘yaşam modeli’ oluşturabilirler. Saldırıdan sonra drone operatörleri, eylemlerinin insani bedelini görürler, çünkü acı çeken yaralılara ya da ölüleri toplamaya gelen arkadaşlara veya akrabalara tanık olurlar. Drone ekipleri arasındaki travma sonrası stres bozukluğu raporları, öldürme ile onun psikolojik bedelleri arasındaki yakın ilişkiyi gözler önüne serer.

Sınırda taş atan ilk insandan bu yana yapılan tüm askeri inovasyonlar, kendini tehlikeye sokmadan düşmana saldırmak üzerine olmuştur. Askerin zarar görmemesi, askeri müdahale önündeki engeli azaltabilir. Bununla birlikte, insansız sistemler otonom olmak zorunda değiller. Ordular, fiziksel tehlikeyi azaltmak için robotik sistemler kullanırken bir yandan da döngü içinde insan tutmayı sürdürebilirler.”

“Ancak öldürme yetkisi vermek, öldürmeye yönelik psikolojik mesafeyi artırır. Bu da sorun yaratabilir. İnsan, artık bilgisayar ekranında belirli hedefleri seçmek zorunda kalmayarak, öldürme eyleminden daha da uzaklaştırılır. Grossman’ın öldürme psikolojisi üzerine yaptığı çalışma, sonucun daha az baskıcı olabileceğini gösteriyor. Otonom silahlar ayrıca öldürme konusunda ahlaki sorumluluğun azalmasına yol açabilir. Grossman, öldürme sorumluluğu dağıldığı takdirde askerlerin öldürmeye daha istekli olduğunu saptadı. I. Dünya Savaşı’ndan dönen piyade erlerinin sadece %15-20’sinin düşmana ateş ettiği bildirilirken, bu oran makineli tüfek timlerinde %100’dü. Grossman, timin her bir üyesinin, yalnızca ekibin ortak eylemleri nedeniyle gerçekleştiğini öne sürdükleri öldürme sorumluluğunu üstlenmeden eylemlerini haklı çıkarabileceklerini savunuyordu. Mermi dolduran asker kimseyi öldürmüyordu, sadece mermi dolduruyordu. Atış gözleyicisi tetiği çekmiyordu, sadece nişancıya nereye nişan alması gerektiğini söylüyordu. Nişancı bile kendini bu sorumluluktan aklayabilirdi, o da sadece atış gözleyicisinin gösterdiği yere nişan alıyordu. Grossman şöyle açıklıyor: ‘Eğer öldürme sürecini diğerleriyle paylaşabilirse (böylece her birine kendi suçundan pay vererek kendini sorumluluktan arındırmış olur), öldürmek daha kolay olur.’ Grossman, tarih boyunca savaşlardaki ölümlerin büyük kısmının mürettebatlı silahlarca yapıldığını öne sürüyor. Bunların arasında makineli tüfekler, top ve hatta iki tekerlekli savaş arabaları var. Eğer otonom silahı fırlatan kişi öldürmeyi silahın yapacağını düşünüyorsa, azalan ahlaki sorumluluk daha fazla ölüme yol açacaktır.

Mary ‘Missy’ Cummings, Duke Üniversitesi İnsan ve Otonomi Laboratuvarı’nın (HAL) yöneticisi. Cummings, sistem mühendisliğinde doktora yapmış, fakat odaklandığı konu sadece otomasyon değil, insanların otomasyonla nasıl etkileşime geçtiğinin üzerinde de duruyor.”

“Biraz mühendislik, biraz tasarım, biraz psikoloji. Duke’daki laboratuvarında ziyaretine gittiğimde, bana yayaların sürücüsüz arabalarla nasıl etkileşime geçtiklerini test etmede kullandıkları minibüsü gösterdi. Cummings benimle sırrını paylaştı, araç sürücüsüz falan değildi. Direksiyonun ardından bir insan vardı. Deney, insanların aracın sürücüsüz olduğunu düşündükleri zaman davranışlarının değişip değişmeyeceğiyle ilgiliydi. Nitekim değişiyordu. ‘Gerçekten tehlikeli davranışlar gördük,’ dedi. İnsanlar, nasılsa durur düşüncesiyle dikkatsizce minibüsün önüne çıkıyorlardı. Yayalar, otomasyonun insan bir sürücüden daha güvenli olduğunu düşünüyorlardı ve bunun sonucunda da davranışlarını değiştirerek daha dikkatsiz hareket ediyorlardı.

Cummings, 2004 yılında kaleme aldığı bir makalede, otomasyonun ‘ahlaki bir tampon’ yaratabileceğini ve bireylerin kendi eylemlerine yönelik ahlaki sorumluluk algılarını azaltabileceğini yazdı: Fiziksel ve duygusal mesafe, kullanıcı ile eylemleri arasında bir ayrım yapan herhangi bir otomatik sistem tarafından daha da şiddetlenebilir. Cummings bunu sadece bir araştırmacı olarak değil, aynı zamanda eski bir ABD Donanması F-18 savaş pilotu olarak da anlıyor. Şöyle yazdı: ‘Bu ahlaki tamponlar, aslında insanların ahlaki olarak kendilerini eylemlerinden uzaklaştırmalarına ve hesap verebilirlik ile sorumluluk duygularının azalmasına neden olur.’

Bir binaya lazer güdümlü füze atmak, saniyeler içinde ölecek insanların gerçek zamanlı görüntülerini pilota geri bildiren bir canlı televizyon yayını kullanan Walleye bombasını hedef bölgesine göndermekten daha makbuldür.”

“Otomasyonun getirdiği büyük psikolojik mesafe dışında, insanlar makineleri insanlaştırma ve onların ahlaki sorumlulukları olduğunu düşünme eğilimindedirler. İnsanlar genellikle Roomba’larına isim koyarlar. Cummings, cansız nesneler olmalarına rağmen, insanların bilinçsizce bilgisayarlarına ahlaki sorumluluk yüklemesinin mümkün olduğunu yazmış. İnsanlar, mürettebatlı silahlarda olduğu gibi, öldürmenin sorumluluğunu otomasyona yıkabilir. Cummings şuna dikkat çekiyor: ‘İnsanların, eylemlerinin sonuçları ne olursa olsun, dolaylı da olsa sorumluluğun kendilerinde olmadığını düşünmelerine neden olabilir.’ Cummings, silah sistemlerindeki insan-makine arayüzlerinin, insanları eylemlerinden sorumlu hissettirecek şekilde tasarlanması gerektiğini savunuyor. Bilginin insana aktarılma şekli önemli bir rol oynuyor. ‘Creating Moral Buffers in Weapon Control Interface Design’ [Silah Kontrol Arayüzlerinin Tasarımında Ahlaki Tamponlar Oluşturmak] başlıklı makalesinde, kullanıcısı ile iletişimde Microsoft Excel’deki yavru köpek simgesini kullanan füze saldırı karar destek aracına ait bir arayüzü eleştiriyor: ‘Sevimli, neredeyse komik grafik sadece ahlaki tamponun uygulanmasına yardımcı oluyor.’ Karar almada insan rolü ayrıca önemli. Cummings, ABD Kara Kuvvetlerinin Patriot’ları denetimli otonomi modunda çalıştırma kararını da eleştirerek, F-18 dost ateşi hadisesinde rolü olabileceğini ileri sürmüştü.”

ABD Kara Kuvvetleri, II. Dünya Savaşı’ndan sonra nişan eğitimini değiştirdi, artık insan biçimindeki hedefleri kullanıyor. Vietnam Savaşı itibarıyla ateş etme oranları %90-95’lere yükseldi. Buna rağmen otomasyon, öldürme eşiğini daha da aşağılara çekebilir. Ahlaki sorumluluğun uzak ucunda kalan savaş korkunç olabilir, bilhassa mekanize kıyım çağında. ‘100 Yılın İtirafları’ adlı belgeselde, eski ABD Savunma Bakanı Robert McNamara, II. Dünya Savaşı’nda Japon şehirlerine yapılan bombardıman harekâtlarından örnekler veriyordu. Birleşik Devletler, Hiroşima ve Nagasaki’ye nükleer bomba atmadan önce bile, ABD hava bombardımanı 67 Japon şehrindeki sivil nüfusun %50-90’ını öldürmüştü.”

“ABD bombardıman uçaklarına komuta eden ABD Hava Kuvvetleri Generali Curtis LeMay’in, savaşı kısaltacak bütün eylemleri mubah gördüğünü anlattı. Diğer yandan McNamara bu eylemlerden rahatsızdı, hem kendisinin hem de LeMay’in savaş suçlusu gibi davrandığını ileri sürüyordu. Bu tarz endişeler bazen stratejik düzeyde kısıtlamalara yol açabiliyor. 1991 yılında, ABD uçaklarının geri çekilen Irak askerlerini bombaladığı ‘Ölüm Otobanı’na ait fotoğraflar, Başkan George H. W. Bush’un savaşı erken bitirme çağrısı yapmasına neden olmuştu. O zamanki Genelkurmay Başkanı Colin Powell daha sonra anılarında şöyle yazacaktı: ‘Televizyondaki görüntüler, sanki sırf katliam yapmak için yapılmış gibi bir görüntü sergilemeye başlamıştı.’ Otonom silahın taşıdığı risk sadece çıplak askeri öldürüp Ölüm Otobanı’nı bombalamaya devam etme ihtimali değil. Risk, hiçbir insanın onu durduracak kadar rahatsızlık duymamasıdır.”

Kararların Ahlaki Değerlendirmesi Bağlamında Tramvay İkilemi

İlk kez 1967’de İngiliz filozof Philippa Foot tarafından ileri sürülen ve sonrasında Amerikalı filozof Judith Jarvis Thomson tarafından geliştirilen senaryo şu şekildedir: Bir tramvay hızla geliyor ve ilerlediği istikamette ise rayların üzerinde çalışma yapan 5 işçi bulunuyor. Bu durumu takip eden kişinin önünde tramvayın makas değiştirmesini olanak sağlayacak bir kol bulunuyor. Fakat tramvay makas değiştirirse gideceği raylarda da 1 kişi bulunuyor. Bu durumda kolu çekerek 5 kişiyi kurtarmak için 1 kişiyi feda eder misiniz?

Aynı senaryoyu bir de şu şekilde düşünelim. Bir tramvay hızla geliyor ve ilerlediği istikamette ise rayların üzerinde çalışma yapan 5 işçi bulunuyor. Bu durumu takip eden kişinin önünde rayların üstüne itse tramvayı durduracak kadar şişman biri bulunuyor. 5 kişinin ölümüne engel olmak için şişman kişiyi raylara itip ölümünü göze alarak tramvayı durdurur muydunuz?

Bu soru Harvard Üniversitesi’nden Marc Hauser tarafından 300 binden fazla kişiye soruldu. Araştırmaya yanıt veren insanların kolu çekerek tramvayı ikinci hatta çevirip 1 kişiyi öldürme pahasına 5 kişiyi kurtarmaya sıcak baktığı fakat şişman kişiyi raylara iterek ölümüne sebep olup, 5 kişinin hayatını kurtarmaya sıcak bakmadığı görülmüş. Bu davranışın sebebini de bize nörobilim veriyor: Kolu çekmek mantıklı ve rasyonel bir karar, kişiyi itmek ise kişisel ve duygusal bir karar.

Bu araştırmanın sonucunu konumuza uyarlamak gerekirse şu sonuca ulaşabiliriz. Cephe muharebelerinde iki düşmanın birbirini öldürmek için ateş açması duygusal, füze ve SİHA gibi uzun menzilli silahlarla düşmanı ateş altına almak tamamen rasyonel bir karar. Birinde kanlı canlı bir insanı tüm dramatik yönüyle hayattan kopartmanın yükü omuzlardayken diğer seçenekte radar ekranında görünen bir izin / ışığın söndürülmesi söz konusu. Sizce hangisini yapmak daha zor olurdu?

Sonuç Olarak

Yüzlerce yıllık gelişim, binlerce yıllık ilerlemenin, kıtalara yayılan bilimsel ve toplumsal sistemlerin ardından ne yazık ki insanoğlu Kabil ve Habil’den bu yana insan olma vasfı açısından milimetre mesabesinde dahi olsa mesafe kat edemediğini görmek her sıradan insan için oldukça ızdırap verici bir durum olsa gerek. Zira Stockholm Uluslararası Barış Araştırmaları Enstitüsü’nün (SIPRI) 2023 yılına dair küresel askeri harcamalara ilişkin raporuna göre tüm dünyada yapılan askeri harcamaların toplamı 2 trilyon 443 milyar dolara ulaştı. Bu meblağ sadece 1 yıllığına küresel açlıkla mücadele için harcanmış olsa büyük ihtimalle milyarlarca insanın hayatı kurtulacaktı. Fakat ne yazık ki medeniyetin zirvesi olarak kabul edilen günümüz dünyası bu parayı insanları ülkelerinden sürmek, katletmek ve haklarını gaspetmek için kullanmayı tercih ederek dünyayı cehenneme çevirmeyi tercih etti. Gazze’den Libya’ya, Etiyopya’dan Myanmara, Yemen’den Bosna’ya kadar milyonlarca insan yüksek teknoloji ürünü silahlarla katledildi ve katledilmeye de devam ediliyor.

“Bir insanın ölümü trajiktir, on insanın ölümü dramatiktir, bir milyon insanın ölümü ise sadece bir istatistiktir.” sözünün altın çağını yaşadığı günümüzde ne yazık ki bu kadere maruz kalmamanın tek yolu da “Hazır ol cenge eğer ister isen sulh-ü salâh” (Sulh ve barış içinde yaşamak istiyorsan, her zaman savaşa hazır ve güçlü ol.) Zira bugünden baktığımızda öyle görünüyor ki, yeni orta çağı yaşadığımız günümüz dünyasında işgal edilebilir durumda olan bütün ülkeler işgal edilecek.

Dünyayı ne felsefe, ne sanat, ne demokrasi ne de iyilik düşüncesi dengede ve stabil tutmaya yeterli olmadı. Binlerce yıllık insanlık mirası kalbi kaplumbağa kabuğundan daha katı halde gelen “modern” insan için hiçbir şey ifade etmiyor. Ne yazık ki dünyayı stabil tutmaya yarayan tek şey, Soğuk Savaş döneminde ABD ve Sovyetler Birliği arasındaki yaşanabilecek bir nükleer savaş endişesi nedeniyle ortaya çıkan defakto saldırmazlık durumunu ifade eden Dehşet Dengesi olmuştu. Bu denge yapay zeka destekli otonom insansız savaş araçları nedeniyle yüksek teknoloji üretme kapasitesine sahip ülkeler lehine bir kez daha bozulacak. Bu etki nedeniyle çatışmalar, savaşlar ve muharebeler düşük yoğunluklu olarak çok daha uzun bir zamana yayılacak gibi görünüyor.

Savunma sanayi bağlamından teknoloji kullanımına meraklı olanlar için oldukça zengin içeriği sahip olan kitap en nihayetinde distopik bir gelecekten çok kurallarla örülür bir teknoloji kullanımı olacağını ön görüyor. Size inandırıcı geldi mi?

Leave a Reply

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

77 − = 74