ABD basınında yer alan haberlere göre, Google’ın yapay zeka alanındaki önemli birimlerinden olan Google DeepMind ve Google Cloud’da çalışan 600’den fazla kişi, Pentagon ile devam eden yapay zeka işbirliği görüşmeleri hakkında CEO Sundar Pichai’ye açık bir mektup gönderdi. Mektupta, Pentagon ile sürdürülmekte olan işbirliğinden duyulan kaygılara vurgu yapılarak, yapay zeka sistemlerinin hata yapma potansiyeline dikkat çekildi. Çalışanlar, bu teknolojinin etik dışı ve tehlikeli bir şekilde kullanılmasının önlenmesi adına sorumluluk hissettiklerini belirttiler.
Mektupta, “Bu nedenle, yapay zeka sistemlerimizin gizli askeri projelerde kullanılmasına izin vermemenizi talep ediyoruz. Yapay zekanın insanlığa fayda sağlamasını istiyoruz; bunun yanında insanlık dışı ve son derece zararlı şekilde kullanıldığını görmek istemiyoruz” ifadeleri kullanıldı. Çalışanlar, zararlı kullanımlar olarak “ölümcül otonom silahlar ve kitlesel gözetim” örneklerini göstererek, işbirliğinin reddedilmemesi durumunda Google’ın, bu tür zararlı uygulamaları durdurmakta etkisiz kalabileceğine dikkat çektiler.
Mektupta ayrıca, “Yanlış bir kararın Google’ın itibarına, küresel rolüne ve iş yapma biçimine geri döndürülemez zararlar verebileceği” vurgulandı. Geliştirdikleri teknolojinin yanlış kullanımı sonucunda dünya genelinde birçok can kaybı yaşandığına işaret edildi.
Yapay zeka şirketi Anthropic ile hükümet arasındaki gerginlikler de dikkat çekiyor. Anthropic, yapay zeka modeli Claude’un “askeri amaçlar için” kullanılmasına izin vermeyi reddetti. Bu durum, Pentagon ile şirket arasında anlaşmazlıklara yol açtı. ABD Savunma Bakanı Pete Hegseth, 24 Şubat’ta Anthropic’e bir ültimatom vererek, Pentagon’un şirketin yapay zekasını istediği şekilde kullanmasına izin verilmediği takdirde, sözleşmelerini kaybetme riskiyle karşı karşıya kalacaklarını ifade etti.
ABD Başkanı Donald Trump, 27 Şubat’ta yaşanan kriz sonrası tüm federal kurumlara Anthropic teknolojisinin kullanımını derhal durdurma talimatı verdi. Pentagon, 6 Mart’ta, ABD vatandaşlarının gözetlenmesi ve tam otonom silahlar için teknolojisini kullanmayı reddeden Anthropic’i “tedarik güvenliği açısından riskli” bir firma olarak ilan etti. Anthropic, 9 Mart’ta ABD hükümetine karşı iki dava açarak, Pentagon yetkililerinin yapay zeka güvenliği konusundaki tutumları nedeniyle şirkete yasa dışı şekilde misilleme yapıldığını iddia etti. Ayrıca, OpenAI ve Google çalışanlarının imzaladığı açık mektupta, Pentagon’un Anthropic’e baskı yaptığı belirtilerek, duruma tepkiler dile getirildi.