ABD merkezli yapay zeka girişimi Anthropic ile ABD Savunma Bakanlığı (Pentagon), Claude isimli yapay zeka modelinin askeri alandaki kullanım şartlarını belirlemek üzere yeniden masaya oturdu. Financial Times tarafından paylaşılan bilgilere göre, Anthropic CEO’su Dario Amodei ile ABD Savunma Bakanlığı Müsteşarı Emil Michael, sistemin hangi çerçevede ordu hizmetine sunulabileceğini ele almak amacıyla bir görüşme gerçekleştirdi. Pentagon ile Anthropic arasındaki anlaşmazlık, ABD Savunma Bakanı Pete Hegseth’in geçtiğimiz hafta şirkete ilettiği taleplerle görünür hale gelmişti. Savunma Bakanlığı, Claude üzerindeki mevcut güvenlik bariyerlerinin esnetilmesini ve sisteme çok daha geniş kapsamlı bir erişim hakkı tanınmasını istiyordu. Şirket ise yapay zeka modelinin geniş ölçekli gözetleme faaliyetlerinde veya otonom silah sistemlerinin geliştirilme süreçlerinde kullanılmasına onay vermeyi reddediyordu. Anthropic yönetimi, bu tür kullanım senaryolarının ciddi etik ihlaller ve öngörülemez güvenlik riskleri barındırdığını savunarak kısıtlamaları kaldırmaktan kaçınmıştı. Şirketin etik ilkeleri ve ulusal güvenlik dengesi CEO Dario Amodei, hükümetten gelen yoğun baskılara rağmen şirketin temel güvenlik politikasından taviz vermeyeceklerini duyurdu. Yapay zeka teknolojilerinin ulusal güvenlik stratejileri açısından taşıdığı kritik önemi kabul eden Amodei, belirli kullanım alanlarına kapı açmanın kurumun etik değerleriyle çeliştiğini vurguladı. Amodei sürece ilişkin, “ABD’nin güvenliğini koruma çabalarına katkı sunmaya devam edeceğiz ancak mevcut tehditler duruşumuzu değiştirmiyor. Vicdani olarak bu talepleri kabul etmemiz mümkün değil” açıklamasında bulundu. Müzakerelerden sonuç alınamaması üzerine ABD Başkanı Donald Trump, federal kurumlara Anthropic hizmetlerinin kullanımını durdurma talimatı verdi. [news_id:810871]