Amerika’da gerçekleştirilen yapay zeka toplantısında Amerikan hükümeti, özel sektörü, akademisi ve sivil toplumdan teknik uzmanlar, giderek daha güçlü hale gelen yapay zeka sistemlerinin risklerini nasıl yönetebileceklerini tartışmak üzere buluştu. Amerika hem bu alanda liderlik kurmayı hem de Çin’e karşı bir koalisyon oluşturmayı hedefliyor.
Anadolu Ajansı Muhabiri Büşra Begçecanlı, 20-21 Kasım’da ABD’nin San Francisco kentinde gerçekleştirilen yapay zeka toplantısında alınan kararları AA Analiz için kaleme aldı.
***
“Yapay zeka, insanlık tarihindeki diğer hiçbir teknolojiye benzemiyor.” Bu cümle, Amerika Birleşik Devletleri (ABD) Ticaret Bakanı Gina Raimondo’nun 20-21 Kasım’da San Francisco’da gerçekleştirilen yapay zeka toplantısında sarf ettiği en dikkat çekici cümleydi. Bakan Raimondo, “Yapay zekayı geliştirmek doğru bir adım olabilir ancak sadece yapabildiğimiz için sonuçlarını düşünmeden hızla ilerlemek akıllıca değil.” diye devam etti.
Raimondo’nun bu açıklamaları, yapay zeka alanında bir ilk olan Uluslararası Yapay Zeka Güvenlik Enstitüleri Ağı’nın birinci toplantısında dile getirilmesi açısından önemli. ABD Ticaret ve Dışişleri Bakanlıkları tarafından organize edilen bu ağ, 9 ülkeden ve Avrupa Komisyonu’ndan yapay zeka güvenliği enstitülerini bir araya getirdi. Etkinlikte hükümet, özel sektör, akademi ve sivil toplumdan teknik uzmanlar, giderek daha güçlü hale gelen yapay zeka sistemlerinin risklerini nasıl yönetebileceklerini tartışmak üzere buluştu.
Bu toplantı, yapay zekanın yönetimi konusunda uluslararası işbirliğinin güçlendirilmesi adına önemli bir adım olarak görülüyor. Kasım ayında İngiltere’nin ev sahipliğinde düzenlenen Yapay Zeka Güvenlik Zirvesi’nde ilk yapay zeka güvenlik enstitüleri oluşturuldu. Hem İngiltere hem de ABD hükümetleri, yapay zeka modellerinin güvenliğini değerlendirebilmek için bu enstitülerin kurulacağını duyurdu.
Diğer ülkeler de bu yolu izleyerek mayıs ayında Seul’de gerçekleştirilen bir başka yapay zeka zirvesinde bu uluslararası ağı kurduklarını ilan etti. Böylece 20-21 Kasım 2024’te Avustralya, Kanada, Avrupa Komisyonu, Fransa, Japonya, Kenya, Güney Kore, Singapur, Birleşik Krallık ve ABD’den yapay zeka güvenlik enstitüleri ve hükümet yetkilileri, San Francisco’da Uluslararası Yapay Zeka Güvenlik Enstitüleri Ağı’nın ilk toplantısı için bir araya geldi.
Hükümetler ve özel sektör bu girişimle yapay zeka güvenliği araştırmalarını finanse etmek ve işbirliğini güçlendirmek adına harekete geçti. Bu küresel girişim, yapay zekanın geliştirilmesi ve güvenli bir şekilde uygulanması için atılan önemli bir adım niteliğinde. Ağ üyeleri, misyon beyanlarında da vurguladıkları üzere, yapay zekanın güvenliğini, kapsayıcılığını ve güvenilirliğini sağlamak amacıyla uluslararası işbirliğinin önemini vurguluyor. Bu işbirliği, toplantıya katılan ülkeler tarafından sorumlu yenilikçiliğin teşvik edilmesi ve yapay zekanın dünya genelindeki faydalarının genişletilmesi için elzem görülüyor.
En acil 4 konu belirlendi
San Francisco’da düzenlenen yapay zeka toplantısında uluslararası işbirliğinin en acil fayda sağlayabileceği 4 öncelikli konu belirlendi. Bu fayda ile kültürel ve dilsel çeşitliliğin farkında olarak yapay zekanın ortaya çıkardığı güvenlik riskleri ve bu risklerin azaltılmasına yönelik stratejiler konusunda ortak bir anlayış hedefleniyor. Bu kapsamda öncelikli olarak şu 4 alana odaklanılacak:
– Araştırma: İleri düzey yapay zeka sistemlerinin riskleri ve yetenekleri üzerine bilim camiasıyla işbirliği yaparak, yapay zeka güvenliği bilimini ilerletmek ve sentetik içeriği yönetmek.
– Test: Gelişmiş yapay zeka sistemlerinin test edilmesi konusunda en iyi uygulamaları geliştirip paylaşmak, ortak test çalışmaları gerçekleştirmek ve ulusal değerlendirmelerden elde edilen bilgileri uygun şekilde paylaşmak.
– Rehberlik: Yapay zeka sistemlerinin test sonuçlarını yorumlamak için ortak yaklaşımlar geliştirerek tutarlı ve etkili çözümler sunmak.
– Kapsayıcılık: Farklı gelişmişlik seviyelerindeki bölgelerdeki paydaşları yapay zeka güvenliği bilimine dahil etmek amacıyla bilgi ve teknik araçları erişilebilir hale getirmek.
Toplantıda ayrıca, Meta’nın Llama 3.1 modeline yönelik ilk ortak test çalışmasının sonuçları ele alındı. Bu modelin genel bilgi seviyesi, çok dilli yetenekleri ve talimat verilen kapsamın dışında bilgi sunması (halisünasyon) incelendi. Bu çalışma, yapay zeka güvenliği testlerinin diller, kültürler ve bağlamlar arasında nasıl geliştirilebileceği konusunda önemli çıkarımlar sağladı. Bu bağlamda, 2025’te Paris’te düzenlenecek RAISE Zirvesi’nden (Responsible AI for Social Empowerment) önce daha geniş kapsamda ortak test egzersizleri gerçekleştirilmesi planlanıyor.
Yapay zeka güvenlik araştırmalarına 11 milyon doların üzerinde kaynak ayrıldı
Toplantının başlangıcında ABD, Güney Kore ve Avustralya yapay zeka güvenliği araştırmalarına destek amacıyla toplamda 11 milyon dolardan fazla kaynak sağladıklarını açıkladı. Bu fon, özellikle sentetik içeriğin tespiti ve bu içeriğin getirdiği risklerin azaltılması gibi kritik alanlara ayrılacak. Ayrıca ABD Uluslararası Kalkınma Ajansı, partner ülkelerdeki yapay zeka güvenliği çalışmalarını desteklemek için 3,8 milyon dolar tahsis etti. Güney Kore ise önümüzdeki 4 yıl boyunca sentetik içerik risklerine yönelik araştırma ve geliştirme faaliyetlerine 7,2 milyon dolar ayırdı. Avustralya’nın Ulusal Bilim Ajansı ve Google gibi önde gelen yapay zeka şirketleri tarafından desteklenen Yapay Zeka Güvenlik Fonu da bu girişime katkı sağlıyor.
ABD, yapay zeka güvenliği için küresel liderliği hedefliyor
ABD, Yapay Zeka Güvenlik Enstitüsü Ulusal Güvenlik İçin Yapay Zeka Risklerinin Test Edilmesi (TRAINS) Görev Gücü’nü kurduğunu duyurdu. Bu görev gücü, ABD Yapay Zeka Güvenlik Enstitüsü tarafından yönetilecek ve ABD hükümetinin farklı birimlerinden temsilcileri bir araya getirerek yapay zekanın ulusal ve uluslararası güvenlik ve kamu güvenliği üzerindeki etkilerini belirlemek, ölçmek ve yönetmek için çalışmalar yürütecek. Enstitü tarafından yapılan açıklamaya göre bu görev gücü; radyolojik ve nükleer, biyolojik ve siber güvenlik, kritik altyapı ve konvansiyonel askeri yetenekler gibi ulusal ve uluslararası güvenlik alanlarında yapay zeka modellerinin test edilmesi ve bu alanlardaki çalışmaların koordine edilmesini sağlayacak.
ABD ayrıca uluslararası güvenlik işbirliğini artırmak amacıyla müttefik ülkelerle ortak yapay zeka projeleri yürütmeyi hedefliyor. Bu kapsamda, NATO müttefikleriyle yapay zeka tabanlı savunma sistemlerinin entegrasyonu ve ortak simülasyon çalışmaları gerçekleştirilecek. Bu sayede yapay zeka kullanımı sınır ötesi askeri operasyonlarda hızlı karar alma süreçlerini destekleyecek ve tehditlerin önceden tespit edilmesini sağlayacak. Ayrıca siber saldırılara karşı uluslararası savunma mekanizmalarının geliştirilmesi ve ortak bir siber güvenlik ağı kurulması gibi konular da ABD’nin uluslararası güvenlik stratejisinin bir parçası olarak değerlendiriliyor.
Bu çabalar Çin’e karşı bir koalisyonun habercisi mi?
ABD ve Çin arasındaki yapay zeka yarışı, yalnızca bir teknolojik üstünlük arayışı değildir. Bu yarış aynı zamanda küresel düzenin şekillendirilmesinde büyük bir rekabet haline geldi. Her iki ülke de yapay zekayı stratejik bir güç unsuru olarak görerek ekonomik ve askeri alanda avantaj sağlamaya çalışıyor. Bu bağlamda ABD’nin attığı adımlar, Çin’in hızla ilerleyen yapay zeka kapasitesine karşı bir denge oluşturmayı amaçlıyor. Bu durum, uluslararası güvenlik, ekonomik çıkarlar ve etik değerler arasında yoğun bir çekişmeyi de beraberinde getiriyor.
ABD Senato Çoğunluk Lideri Chuck Schumer toplantı için önceden kaydedilmiş mesajında, Çin Komünist Partisi’nin (ÇKP) “yapay zekada kuralları yazmasına” izin verilmemesi gerektiğinin altını çizdi.
ABD, yapay zeka yarışında Çin’i başlıca düşman olarak görmeye devam ediyor ve bu tehdit algısı, stratejik politikalarının merkezinde yer alıyor. Çin’in yapay zeka teknolojilerini hızla geliştirmesi ve küresel alanda etkisini artırma çabaları, ABD’yi bu alanda daha agresif adımlar atmaya itiyor. ABD’nin yalnızca ulusal güvenliği değil, aynı zamanda müttefikleriyle ortak savunma stratejilerini de bu eksende güçlendirme girişimleri, Çin’e karşı geniş bir koalisyon kurma niyetini açıkça gösteriyor. Kısacası, Uluslararası Yapay Zeka Güvenlik Enstitüleri Ağı bu amaç doğrultusunda Çin’in artan yapay zeka gücüne karşı uluslararası bir işbirliği ve savunma hattı oluşturmak için kurulmuş olabilir. İki ülke arasındaki bu rekabet, yapay zeka teknolojilerinin geleceğini ve küresel güç dengesini belirleyecek temel faktörlerden biri olarak ortaya çıkıyor.
Leave a Comment
Your email address will not be published. Required fields are marked with *