Yapay zeka ve casusluk dünyası

Yapay zeka ve casusluk dünyası

Dünyanın dört bir yanından yetkililer ve siyasetçiler, bundan kısa bir süre önce yapay zekanın (AI) insanlara yönelik tehlikeleri konusunda uyarılarda bulundular. Bazıları yapay zekanın yarattığı tehlikeyi “son derece ciddi” olarak nitelediler.

Independent Arabia’dan Sawsana Mehanna’nın haberi

ABD Başkanı Joe Biden da geçen mart ayı sonlarında Washington’da düzenlenen 2. Demokrasi Zirvesi sırasında yaptığı açılış konuşmasında, dijital zorbalığa karşı demokratik değerleri ve kurumları desteklemek için teknolojinin uyarlanmasına yönelik yeni bir girişimin duyurusunu yaptı

Aynı zirvede ABD Dışişleri Bakanı Antony Blinken ise “teknolojinin bazen toplumlarımızdaki eşitsizliği derinleştirdiğine” işaret ederek “internetin getirdiği tehlikeler” konusunda uyardı.

Birleşmiş Milletler (BM) İnsan Hakları Yüksek Komiseri Volker Türk, geçen şubat ayında yaptığı bir açıklamada yapay zeka alanında son dönemde kaydedilen ilerlemenin insan hakları açısından büyük bir tehdit oluşturduğunu söyleyerek “etkili uyarılar yapılması” çağrısında bulunmuştu.

Yapay zeka alanında öncü isimlerden biri olan bilim insanı Geoffrey Hinton, 10 yıl çalıştığı Google’dan ayrıldıktan sonra The New York Times gazetesine verdiği demeçte, ayrılığının nedeninin ‘üretken’ olarak da isimlendirilen yeni nesil yapay zeka sistemleri ve yapay zekanın oluşturduğu yaklaşık 5 büyük risk hakkında özgürce konuşmak olduğunu söyledi.

Hinton’a göre geleceğin yapay zeka sistemleri büyük miktarda veriyi analiz ettikten sonra beklenmedik davranışlar geliştirebilecek.

Çünkü yapay zeka sistemleri kendi kodlarını oluşturup yönetmeye başladılar. Çoğu yapay zeka uzmanı bu tehdidi hafife alsa da, bu durum yapay zeka sistemlerini “otonom silahlara” ve “katil robotlara” dönüştürebilir.

Yapay zekanın oluşturduğu tehdidin asıl nedeninin, tehlikeli taraflarca kötüye kullanılması olduğuna dikkati çeken Hinton, kötü niyetli tarafların yapay zekayı kötü amaçlarla kullanmasının önüne nasıl geçileceğini bulmanın güç olduğunu da sözlerine ekledi.

Özellikle askeri alanda yapay zekanın kullanılmasına karşı olan Hinton, “robot askerler” geliştirilmesinden duyduğu korkuyu dile getirdi. O halde yapay zeka günümüz casuslar savaşının çok eski savaşlardaki Truva atı olabilir mi? Askeri alanda yapay zeka sistemleri hızlı ve şaşırtıcı bir şekilde geliştikçe insanlık yok olmanın eşiğine yaklaşıyor mu?

Yapay zeka ve casusluk dünyası

Birleşik Krallık Dış İstihbarat Servisi MI6’nın Başkanı Richard Moore, geçen temmuz ayında, Birleşik Krallık’ın Prag Büyükelçiliği’nden her yıl kamuoyu karşısında yapılan konuşmasında, yapay zekanın casusluk dünyasını değiştireceğini, fakat casusluk alanında insan gücüne ihtiyaç duyulmaya devam edileceğini söyledi.

Konuşmasında Batı’nın Rusya ve İran tarafından karşı karşıya kaldığı tehditlere değinen Moore, hızla gelişen yapay zeka çağında ‘insan faktörünün’ belirleyici olmaya devam edeceğini savundu.

İngiliz hükümeti de daha önce Moore’un konuşmasından bazı alıntılar yayınlamıştı. Bu alıntılardan birinde Moore, “Yapay zeka, bilgiyi sınırsız ve daha erişilebilir hale getirir. Bu yüzden bazıları benim gibi bu tür gelişmelerin istihbarat servislerini hizmet dışı bırakıp bırakmayacağını merak edebilir” dedi.

Daha önce Batı’nın yapay zeka yarışında rakiplerinin gerisinde kaldığı konusunda uyaran Moore, casusları doğru yerlere yerleştirmenin önemli olmaya devam edeceğini belirterek, casusların hükümet ya da bir terör örgütü içindeki karar alma süreçlerini etkileyebildiklerinin altını çizdi.

İngiliz casusların, Rusya’nın Ukrayna’ya karşı kullanacağı silahların tedarik edilmesine engel olmak için halihazırda yapay zeka kullandığını açıklayan Moore’un tahminine göre Batı ülkelerinin casusları, düşman ülkeler tarafından yapay zekanın kötü niyetli kullanımına giderek daha fazla odaklanmak zorunda kalacaklar.

MI6’nın Başkanı, yapay zekayı “mevcut ve potansiyel büyük bir tehdit” olarak nitelendirdi.

Moore, 2021 yıl kasım ayında, yani MI6’nın başkanlığını üstlenmesinin üzerinden yaklaşık bir buçuk yıl geçtikten sonra kamuoyu önünde nadiren konuştuğu halde bu konuşmasında yapay zekanın oluşturduğu tehdidine değinmesi dikkati çekti.

Moore, aynı konuşmada, Batılı ülkeleri yapay zekanın yıkıcı etkisine karşı yavaş hareket etmekle ve yapay zekaya ve diğer ileri teknolojilere “para akıtan ve hırsla çalışan” düşmanlarının gerisinde kalmakla suçladı.

Konuşmasında Çin’in MI6’nın ‘tek önceliği’ olduğunu söyleyen Moore, “İngiltere ve müttefikleri, Rusya’nın kurallara dayalı uluslararası düzene aykırı faaliyetlerini caydırmak için birleşmeli” ifadelerini kullandı.

Bu konuşmadan üç ay sonra Rusya, Ukrayna’ya karşı savaş başlattı.

Tehdit nereden geliyor?

Microsoft sitesinde yer alan bir makalede, “yapay zekanın araştırma laboratuvarlarından ve bilimkurgu romanlarının sayfalarından çıkıp şehirlerde gezmemize ve trafikte kalmaktan kaçmamıza yardımcı olmaktan, çeşitli görevleri yerine getirmemize yardım eden sanal asistanlar olarak hizmet vermesine kadar günlük hayatımızın ayrılmaz bir parçası haline gelmesinin bugün toplumun iyiliği için vazgeçilmez olduğu” belirtiliyor.

Peki bu gerçekten doğru mu?

ABD uzmanı Muhammed el-Minşavi, geçen temmuz ayında yayınlanan bir makalesinde, bir grup düşünürün Hiroşima ve Nagazaki şehirlerine atılan iki atom bombasının, Asya sahnesinde İkinci Dünya Savaşı’nı sona erdiren ve tarafların nükleer bombalara sahip olsalar bile, bundan sonra herhangi bir çatışma ya da savaşta bunları kullanmalarını engelleyen tek şey olduğunu düşündüklerini yazdı.

Minşavi’ye göre ABD’nin Vietnam’a ve ardından Irak’a girdiğinde nükleer bombaya sahip olduğunu aynı durumun Sovyetler Birliği’nin Afganistan’a Rusya’nın da Ukrayna’ya girdiğinde geçerli olduğunu vurgulayan aynı düşünürler, Washington’ın nükleer silah kullanımına başvurmasının, büyük güçler arasında daha önce eşi ve benzeri görülmemiş bir barış ortamı yaratılmasına ve herkesin bildiği gibi 20’nci yüzyılın ilk yarısında on milyonlarca insanın ölümüyle sonuçlanan dünya savaşlarına yenilerinin eklenmesinin önlenmesine katkıda bulunduğuna inanıyorlar.

Bu tartışma, özellikle yapay zekanın askeri alanda kullanılması başta olmak üzere modern teknolojilerle ilgili yeni soru işaretleriyle devam ediyor.

Bilim insanları bugün yapay zekayı askeri teknolojilerde kullanma yarışını sürdürürken, bu yarışın geleceğiyle ilgili fazla bilgimiz yok.

Sadece tıpkı nükleer silahların ulusal güvenliğin vazgeçilmez bir parçası haline gelmesi gibi, yapay zekanın da bu alanın vazgeçilmezi olduğunu ve bilmediğimiz sınırlara doğru gelişmeye devam ettiğini biliyoruz.

Birleşmiş Millerler (BM) Genel Sekreteri Antonio Guterres, teknoloji sektöründen bazı yöneticiler tarafından yapay zeka alanında Uluslararası Atom Enerjisi Ajansı (UAEA) çizgisinde uluslararası bir gözetim organı oluşturulması önerisini destekledi.

Yapay zeka tabanlı sohbet botu ChatGPT’yi üreten OpenAI Şirketi’nin CEO’su Sam Altman’ın da aralarında bulunduğu bir grup uzman ve teknoloji sektörü yöneticisi, geçtiğimiz mayıs ayında yayınladıkları bir bildiriyle yapay zekanın yükselişinin insanlığı ‘yok edebilecek’ bir risk taşıdığı konusunda uyardı.

Dikkat çeken bir gelişme olarak yapay zeka dosyası ilk kez geçtiğimiz temmuz ayında BM Güvenlik Konseyi’nde (BMGK) resmi olarak görüşüldü.

BMGK’daki yapay zeka konulu oturumda, dünyanın dört bir yanından hükümetlerin, küresel ekonomiyi yeniden şekillendirebilecek ve uluslararası güvenlik görünümünü değiştirebilecek yapay zeka teknolojisinin risklerini nasıl azaltılacağı ele alındı.

The Independent Arabia’ya konuşan Siber güvenlik ve dijital dönüşüm uzmanı Roland Abi Najem, yapay zekayla ilgili söylenenlerin en tehlikelisinin ve BMGK’nın en büyük korkusunun yapay zekanın savaşlarda ve özellikle de casusluk faaliyetlerinde kullanılması olduğunu söyledi.

Bu bağlamda ABD ana karası semalarında uçarak uzak mesafelerden yüksek kalitede fotoğraf çekip ses kaydı yapabilen Çin’e ait yüksek irtifa istihbarat balonu olayı gibi birçok konunun ele alınabileceğini söyleyen Abi Najem, olayın hızlı ve dramatik bir şekilde geliştiğini ve dolayısıyla ABD’nin korkuyla balonun casusluk amaçlı olduğunu açıkladığına dikkati çekti.

Çin’e ait bir yüksek irtifa balonunun 28 Ocak’ta ABD hava sahasına girmesinin iki ülke arasında diplomatik krize neden olduğunu hatırlatan uzman isim, ABD ve Kanada ordularının yüksek irtifa balonunun izleme amaçlı uçuş yaptığını açıklarken Çin hükümetinin bunun sadece rüzgar yüzünden rotasından çıkan sivil bir meteoroloji balonu olduğunu iddia ettiği olayın ABD hükümetine Çin’in casusluk alanındaki yeteneklerine dair sıkı bir mesaj verdiğini belirtti.

“Çin ordusundaki bilgisayar korsanları Japonya’nın gizli savunma ağlarına sızdılar”

ABD gazetesi Washington Post, 7 Ağustos’ta ABD Ulusal Güvenlik Konseyi’nin (NSC) 2020 sonbaharında yaptığı ve Çin ordusundaki bilgisayar korsanlarının ABD’nin Doğu Asya’daki en önemli stratejik müttefiki olan Japonya’nın gizli savunma ağlarına sızdığına dair ‘rahatsız edici’ açıklamasını aktardı.

Gazete, Çin ordusundaki bilgisayar korsanlarının, Japonya’nın en hassas bilgisayar sistemlerine sızarak ülkenin yakın tarihindeki en zarar verici siber saldırıyı gerçekleştirdiklerini aktardı.

Yapay zekanın oluşturduğu tehlikenin, siber korsanlık ve bilgisayarlara sızmak için kullanılan uygulamaların ve yazılımların yanı sıra güvenlik kameraları ve tespit edilmesi zor ya da imkansız olacak kadar küçük, ancak görüntü ve ses kalitesi yüksek olan kameraların yer aldığı ‘nanoteknoloji’ ile ilgili ne varsa orada var olduğu yorumunda bulunan siber güvenlik uzmanı Abi Najem’e göre gün geçmiyor ki Çin ile Japonya arasında yaşananlara benzer bir casusluk vakası patlak vermesin.

Yapay zekanın en tehlikeli yönlerinden birinin sesleri, fotoğrafları ve videoları tahrif eden modern teknolojilerde kullanılması olduğunu ve bunun kimlik avının önünü açtığını söyleyen Abi Najem, öyle ki yüksek teknolojiler kullanılarak herhangi bir kişiye ait herhangi bir videoyu sesli ve görüntülü olarak yayımlamanın mümkün olduğunu ve bu videonun sahte olup olmadığını anlamanın ya da bilmenin çok zor olduğunu belirtti.

Yapay zekanın oluşturduğu bir diğer tehlike ise tıpkı ABD’deki başkanlık seçimlerinde olduğu gibi bazı ülkelerde hassas süreçleri etkileyen yanlış ve yanıltıcı haberlerin yayılmasında ya da Ukrayna’daki savaşta yanlış bilgilerin ve hemen doğrulanması zor olan haberlerle kafa karışıklığı yaratılmasında kullanılması.

Silahların yapay zeka ile komuta ve kontrol edilmesi

ABD merkezli dergi Foreign Policy tarafından geçtiğimiz nisan ayında yayınlanan bir makalede, bir silahın kullanılması kararının, silahlardan ve silahların yapabileceklerinden daha önemli olduğu belirtilerek yapay zeka tabanlı programların, gelecekte büyük güçlerin silahların kullanılmasına yönelik saatler hatta günler süren karar verme süreçlerini dakikalara indirebileceği vurgulandı.

Dergi, bu programları kullanacak ülkelerin, konu nükleer savaş olduğunda bile yapay zekanın stratejik ve taktiksel değerlendirmelerine güvenebileceklerinin altını çizdi.

NSC için çalışan siber güvenlik uzmanı Herbert Lane, buradaki asıl tehlikeyi, karar vericilerin askeri komuta ve silah kontrolü konusunda insanlardan çok daha hızlı çalıştığı için yapay zekaya güvenme başlayabilecekleri ihmalinin oluşturduğunu söyledi.

ABD merkezli bağımsız bir kuruluş olan Silah Kontrol Derneği (Arms Control Association) tarafından şubat ayı başlarında yayınlanan bir raporda, yapay zekanın hipersonik füzeler gibi diğer yeni teknolojilerin konvansiyonel silah ve nükleer silah arasındaki ayrımı bulanıklaştırabileceğine işaret edildi.

Yapay zeka teknolojisinin kullanımının, yapay zekanın oluşturduğu riskleri değerlendirme ve kullanımını sınırlandırma çabalarından çok daha hızlı ilerlediği belirtilen raporda, bu teknolojilerin askeri alandaki hızlı ilerlemesini yavaşlatmak, bunu yaparken de risklerini dikkatlice hesaplamak ve askeri kullanımlarına kısıtlamalar getirmek gerektiği vurgulandı.

(Independent Türkçe)

Paylaş :

Leave a Comment

Your email address will not be published. Required fields are marked with *