Vis
Yapay Zeka & Teknoloji Editörü
Pentagon, askeri spesifik yapay zeka modellerinin sınıflandırılmış veriler üzerinde eğitim alması için güvenli ortamlar oluşturma planlarını tartışıyor. MIT Technology Review'ün edindiği bilgilere göre, Anthropic'in Claude gibi yapay zeka modelleri, İran'daki hedeflerin analizinde dahil olmak üzere, sınıflandırılmış ortamlarda soruları yanıtlamak için kullanılmakta. Ancak, bu modellerin sınıflandırılmış veriler üzerinde eğitim almasına izin vermek, daha önce görülmemiş güvenlik riskleri taşımaktadır. Bu durum, gözetim raporları veya savaş alanı değerlendirmeleri gibi hassas istihbarat bilgilerin modellerin kendisine entegre edilmesi anlamına geliyor ve yapay zeka firmalarını daha önce hiç olmadığı kadar sınıflandırılmış verilerle yakın bir temasa getiriyor.
Bir ABD savunma yetkilisi, sınıflandırılmış veriler üzerinde eğitim alan yapay zeka modellerinin belirli görevlerde daha doğru ve etkili olacağını belirtti. Bu haber, daha güçlü modellere olan talebin yüksek olduğu bir dönemde geldi: Pentagon, OpenAI ve Elon Musk'ın xAI ile sınıflandırılmış ortamlarda modellerini işletmek için anlaşmalar imzaladı ve İran ile olan çatışmanın tırmanmasıyla birlikte 'yapay zeka öncelikli savaş gücü' olma hedefini uygulamaya koyuyor. Eğitim, sınıflandırılmış hükümet projelerini barındırmak üzere akredite edilmiş bir güvenli veri merkezinde gerçekleştirilecek ve burada bir yapay zeka modelinin bir kopyası, sınıflandırılmış verilerle eşleştirilecek.
Savunma Bakanlığı verilerin sahibi olmaya devam edecek, ancak uygun güvenlik izinlerine sahip yapay zeka firmalarının personeli nadir durumlarda verilere erişim sağlayabilir. Ancak, bu yeni eğitimi onaylamadan önce, yetkili, Pentagon'un öncelikle modellerin sınıflandırılmamış veriler üzerinde, örneğin ticari olarak temin edilebilen uydu görüntüleri gibi, ne kadar doğru ve etkili olduğunu değerlendireceğini belirtti. Askeri, uzun zamandır bilgisayarla görme modellerini kullanarak, dronlar ve uçaklardan topladığı görüntülerde nesneleri tanımlamakta ve federal ajanslar, bu tür içerikler üzerinde yapay zeka modellerini eğitmek için şirketlere sözleşmeler vermektedir.
Aalok Mehta, Stratejik ve Uluslararası Çalışmalar Merkezi'nde Wadhwani AI Merkezi'ni yöneten ve daha önce Google ve OpenAI'de yapay zeka politikası çalışmalarını yöneten biri olarak, sınıflandırılmış veriler üzerinde eğitim almanın, sadece bu veriler hakkında soruları yanıtlamaktan farklı olarak yeni riskler getireceğini ifade ediyor. Bu risklerin en büyüğü, bu modellerin eğitim aldığı sınıflandırılmış bilgilerin, modeli kullanan herkesle yeniden yüzeye çıkabilme olasılığıdır. Özellikle farklı askeri departmanların, farklı sınıflandırma seviyeleri ve bilgi ihtiyaçlarıyla aynı yapay zekayı paylaşması durumunda bu bir sorun teşkil edebilir.
Mehta, "Hassas insan istihbaratına erişimi olan bir modelin, bu bilgilere erişimi olmayan bir savunma departmanına sızdırılması gibi senaryoları hayal edebilirsiniz" diyor. Bu durum, operatif için bir güvenlik riski yaratabilir ve bu tür bir modelin askeri içinde birden fazla grup tarafından kullanılması durumunda mükemmel bir şekilde azaltılması zor bir durumdur. Ancak, Mehta, bilgilerin genel dünyadan gizli tutulmasının o kadar zor olmadığını belirtiyor: "Eğer bunu doğru bir şekilde kurarsanız, o verilerin genel internette veya OpenAI'ye geri sızma riski çok az olacaktır."
Hükümetin bu konuda bazı altyapılara sahip olduğu zaten biliniyor; güvenlik devi Palantir, yetkililerin sınıflandırılmış konular hakkında yapay zeka modellerine soru sormasını sağlayan güvenli bir ortam oluşturmak için büyük sözleşmeler kazanmış durumda. Ancak, bu sistemlerin eğitim için kullanılması hala yeni bir zorluk. Pentagon, Savunma Bakanı Pete Hegseth'in Ocak ayında gönderdiği bir notanın etkisiyle, daha fazla yapay zeka entegrasyonu için acele ediyor. Bu, savaşta, hedeflerin sıralanması ve hangi hedefe öncelik verileceği gibi görevlerde, ayrıca sözleşme ve raporların hazırlanması gibi daha idari rollerde de uygulanıyor. Mehta, askeri analistlerin şu anda yürüttüğü birçok görevi, öncü yapay zeka modellerini eğitmek için sınıflandırılmış verilere erişim gerektirebileceğini belirtiyor. Bu, bir analistin yaptığı gibi görüntülerde ince ipuçlarını tanımlamayı veya yeni bilgileri tarihsel bağlamla birleştirmeyi öğrenmeyi içerebilir. Sınıflandırılmış veriler, istihbarat tarafından toplanan metin, ses, görüntü ve video gibi sonsuz miktardaki içerikten sağlanabilir.
Bu haber AI News (MIT Technology Review) kaynaklıdır ve yapay zeka tarafından Türkçe'ye çevrilip yeniden yazılmıştır.
Orijinal habere gitTelif Hakkı Bildirimi: Bu içerik, haber amaçlı kullanım ve kaynak gösterimi ile Fair Use (Adil Kullanım) kapsamındadır. Tüm hakları orijinal kaynağa aittir. Görseller telif güvenli Unsplash API'den veya kaynak siteden alınmıştır.