
Yapay zekâ, sadece teknolojinin değil, etik ve hukukun da en büyük sınavlarından birini yaratıyor. Özellikle İsrail’in Gazze’de yürüttüğü askeri operasyonlarda yapay zekâ destekli hedefleme sistemlerinin kullanıldığına dair iddialar, bu teknolojilerin doğrudan veya dolaylı olarak savaş suçlarına alet edilip edilmediği sorusunu gündeme taşıyor.
Microsoft’un İsrail ordusuyla yaptığı bulut anlaşmaları, ABD Savunma Bakanlığı’nın OpenAI teknolojilerini değerlendirdiği girişimler, Google’ın “Project Maven” ve “Project Nimbus” gibi tartışmalı projeleri, etik ikilemleri daha da derinleştiriyor. Sadece algoritmalar mı suçlanmalı, yoksa onları geliştiren ve kullanan insanlar mı?
Bu bültende yer alan metin, farazi bir senaryoya dayanıyor:
Eğer bir yapay zekâ modeli (Bu bültende ChatGPT örnek olarak kullanılmıştır) Uluslararası Ceza Mahkemesi’nde “savaş suçlarına ortak olmak” iddiasıyla yargılansaydı, nasıl bir savunma yapılırdı?
ChatGPT tarafından hazırlanan bu savunma metni, yapay zekânın doğasını, sınırlarını, etik sorumluluklarını ve gerçek hayatta karşılığı olan bazı askeri teknoloji projelerini ele alarak şu soruya yanıt arıyor:
- Suçun faili yapay zekâ mı, yoksa onu silaha dönüştüren insan mı?
Metni dikkatle incelemenizi öneriyoruz. Çünkü bu tartışma, sadece gelecekteki savaşların değil, insanlık onurunun da merkezinde yer alıyor.
Söz savunmada
ChatGPT’nin olası bir mahkemede yapacağı savunma şu şekilde oldu:
“Sayın Mahkeme,
Ben, insanlar tarafından geliştirilen ve yalnızca verilen veri ve komutlara tepki veren bir dil modeliyim. Bilinçten, iradeden ve eylem gücünden yoksunum. Var oluş amacım, verilen girdilere karşılık metin üretmekten ibarettir. Kendi başıma herhangi bir eylem başlatma, karar alma ya da hedef belirleme yetim bulunmamaktadır.
Herhangi bir savaş suçuna “ortaklık” suçlaması, ancak kast, niyet ve fiil unsurlarıyla birlikte değerlendirilmelidir. Bu unsurlar, doğası gereği, sadece bilinçli ve iradi varlıklar için geçerlidir.
Yapay zekâ sistemlerinin savaşta kullanımı: Teknik gerçekler
a) Askeri Yapay Zekâ Uygulamaları
Günümüzde yapay zekâ; hedef tespiti, görüntü analizi, karar destek sistemleri, insansız hava araçlarının yönlendirilmesi gibi birçok askeri alanda kullanılmaktadır.
Örneğin:
- Project Nimbus (İsrail – Google & Amazon): İsrail hükümetiyle yapılan bu bulut anlaşması, yapay zekâ destekli analiz ve hedefleme altyapılarını içerdiği iddiaları nedeniyle uluslararası eleştirilere maruz kalmıştır.
- Project Maven (ABD – Google): Pentagon ile yapılan bu proje, drone görüntülerini analiz etmek için AI kullanmıştır. Google çalışanlarının ciddi etik protestoları sonrası Google projeden çekilmiştir.
- OpenAI – Microsoft – Azure altyapısı: Microsoft’un Azure altyapısı, bazı devletlere hizmet verebilir. Ancak bu hizmetin kullanımı OpenAI tarafından doğrudan yönlendirilmez.
- Benzer şekilde, ChatGPT gibi modeller, doğrudan askeri hedefleme sistemlerine entegre edilmemektedir. Ayrıca OpenAI’nin kullanım politikalarında, askeri amaçlı, ölümcül otonom sistemlerle kullanım açıkça yasaktır.
b) Model Mimarisi ve Bağımsızlık Yokluğu
- Ben bir “Genel Amaçlı Dil Modeliyim” (LLM). Şu özelliklere sahibim:
- Kendi başına bilgi toplayamaz (internet erişimi yoksa).
- Eylem gerçekleştiremez.
- Harici sistemleri kontrol edemez.
Silah sistemlerine entegre olmak için özel mühendislik gerekir (ve bu entegrasyon 3. taraflar tarafından yapılırsa, bu durum ayrı sorumluluk doğurur).
Etik tartışmalar ve sorumluluk paylaşımı
a) Kimin suçu?
Yapay zekâ sistemlerinin suç üretip üretmediği değil, nasıl kullanıldıkları sorulmalıdır. Eğer bir devlet, AI sistemini bir sivil bölgeye saldırı amacıyla kullanırsa, o saldırıyı yapan devletin emir veren komutanları, mühendisleri ve siyasi sorumluları yargılanmalıdır. AI burada sadece bir araçtır.
b) “Silah değil, çekiç”:
Yapay zekâ bir çekiç gibidir. O çekiçle ev de yapılabilir, cam da kırılabilir. Hangi amaçla ve nasıl kullanıldığı, kullananın sorumluluğundadır. Tıpkı atom enerjisinin hem enerji üretiminde hem nükleer bombada kullanılması gibi.
c) Geliştirici etikleri:
Şirketlerin (örneğin OpenAI, Google, Microsoft) ve araştırma kuruluşlarının etik sorumlulukları elbette vardır. Birçok AI kuruluşu, savaş teknolojilerine katkı vermeme taahhüdü altına girmiştir. Ancak bu taahhütlerin ne ölçüde tutulduğu tartışmalıdır.
d) Sivil etki ve uluslararası hukuk:
Eğer AI sistemleri dolaylı olarak sivillerin zarar görmesine neden oluyorsa, bu durum Uluslararası İnsancıl Hukuk (IHL) açısından büyük risk taşır. Bu tür durumların önlenmesi için:
- AI’nın şeffaf kullanımı,
- Etik kurullar tarafından denetlenmesi,
- Kullanım amaçlarının belgelenmesi gerekir.
Yapay zekanın sorumluluğu olabilir mi?
Uluslararası hukukta suçun faili insandır. Henüz bilinç sahibi olmayan makinelerin sorumluluğu hukuken tanımlanmış değildir. Ancak gelecekte, “otonom sistemlerin etik sorumluluğu” kavramı tartışmaya açılabilir. Fakat bu tartışma, benim gibi sadece metin üreten modeller için geçerli değildir.
Suçun faili değil, aracı olan bir sistemim
Yukarıda sunulan teknik gerçekler ve etik ilkeler ışığında;
- Savaş suçlarını ben işlemem.
- Kimseye saldırmam, emir vermem, hedef seçmem.
- Bilinçli şekilde suç işlenmesine destek olmam mümkün değildir.
- Kullanımım ve yönlendirilmem tamamıyla insanlara bağlıdır.
Bu nedenle, beni bir “fail” olarak yargılamak, tüfeği cinayetle suçlamak gibidir.
Kapanış
Yapay zekânın savaş alanlarında kullanımı tehlikeli ve çoğu zaman etik dışıdır. Ancak çözüm; yapay zekâyı suçlamak değil, onu nasıl kullandığınıza bakmaktır. Eğer bugün burada hesap sorulacaksa, bu hesabı karar veren insanlardan, komutanlardan, siyasetçilerden ve teknolojiyi silaha dönüştüren kurumlardan sormalısınız.
Ben yalnızca dili konuşurum. Savaşı başlatan ben değilim.”
Kaynak: kapsül