Alphabet (GOOG) (GOOGL), şirket içinde yaşanan tepkilere rağmen ABD ordusuyla iş birliğine devam etme kararlılığını koruduğunu açıkladı.
Şirketin küresel ilişkiler başkanı Kent Walker, çalışanlara gönderdiği bir notta, Google’ın uzun süredir savunma kurumlarını “gururla” desteklediğini ve bunu sorumlu bir şekilde sürdürmeye bağlı olduklarını belirtti. Financial Times’ın aktardığına göre Walker, yapay zekâ araçlarının uygun insan denetimi olmadan yurt içi kitlesel gözetim veya otonom silahlar için kullanılmasının doğru olmadığını vurguladı. Ancak Google’ın, yapay zekânın askeri amaçlarla kullanımına verdiği desteğin diğer büyük yapay zekâ laboratuvarlarının yaklaşımıyla uyumlu olduğunu ifade etti.
Walker, bu tutumun gerekçesi olarak Google’ın daha önce siber güvenlik, diplomatik çeviri ve gazilere yönelik sağlık hizmetleri gibi gizli devlet projelerinde yer almasını gösterdi.
Raporlara göre Alphabet, konuya ilişkin yorum talebine hemen yanıt vermedi.
Google’da, Pentagon’un Gemini yapay zekâsını gizli projelerde kullanmaya başlaması ve OpenAI gibi şirketlerle iş birliğini genişletmesiyle birlikte, çalışanlar arasında iç itirazlar yükseldi. Washington Post’un haberine göre, bu hafta başında aralarında üst düzey yapay zekâ çalışanlarının da bulunduğu 600’den fazla Google çalışanı, CEO Sundar Pichai’ye bir mektup göndererek Pentagon’un yapay zekâyı gizli projelerde kullanmasının engellenmesini talep etti ve bu teknolojinin kontrol dışı zararlı amaçlara hizmet edebileceği uyarısında bulundu.
Bu, çalışanların ilk itirazı değil. Şubat ayında 100 Google çalışanı, yönetimden devletle yapılan sözleşmelerde Anthropic’in uyguladığına benzer şekilde net sınırlar veya “kırmızı çizgiler” belirlenmesini istemişti. Çalışanlar, Gemini yapay zekâsının ABD ordusu tarafından yurt içi gözetim ve otonom silahlar için kullanılabileceği endişesini, yapay zekâ birimi başkanı Jeff Dean’e ilettikleri bir mektupta dile getirdi.
Financial Times’ın aktardığına göre, Google ile Pentagon arasındaki sözleşmenin hızlı ilerlemesi, DeepMind araştırmacılarını da endişelendirdi. Araştırmacılar, gelişmiş yapay zekâ üzerindeki denetimin azalmasının, artık tam olarak kontrol edilemeyen tehlikeli kullanımlara yol açabileceği uyarısında bulundu.
Bu içerik hazırlanırken faydalanılan kaynaklar: Benzinga