OpenAI ile ABD Savunma Bakanlığı arasındaki işbirliğinde güvenlik şartları güncellendi. Şirket CEO'su Sam Altman, yapay zeka modellerinin askeri ağlarda kullanımı için yeni kısıtlamalar getirildiğini duyurdu. ChatGPT'nin geliştiricisi OpenAI, geçtiğimiz hafta ABD Savunma Bakanlığı ile kurduğu işbirliğine dair kamuoyunda oluşan tepkilerin ardından güvenlik ve kullanım ilkelerini revize etti. Şirket, tartışma yaratan anlaşmanın detaylarını paylaşarak teknik güvenlik önlemlerinin sözleşmeye dahil edildiğini bildirdi. Güvenlik ilkeleri sözleşmeye dahil edildi OpenAI CEO’su Sam Altman, X platformu üzerinden yaptığı açıklamada, yapay zeka modellerinin Bakanlığın gizli ağlarında kullanılmasına yönelik mutabakata vardıklarını ifade etti. Yapay zeka güvenliğini sağlamanın ve elde edilen faydayı geniş kesimlere yaymanın temel misyonları olduğunu vurgulayan Altman, Savunma Bakanlığı'nın müzakereler süresince güvenlik konularına "büyük saygı" gösterdiğini belirtti. Anlaşmanın temelini oluşturan maddeler şu şekilde sıralandı: • Yurt içinde kitlesel gözetimin yasaklanması, • Otonom silah sistemleri dahil olmak üzere güç kullanımında insan sorumluluğunun sürdürülmesi, • Modellerin öngörüldüğü şekilde çalışmasını sağlayacak teknik güvenlik önlemlerinin uygulanması. Altman, Pentagon'un bu ilkeleri kabul ederek ilgili yasal ve politik çerçeveye dahil ettiğini, OpenAI'nin de aynı maddeleri sözleşme metnine eklediğini dile getirdi. [news_id:810871]