OpenAI güvenlik önlemlerini artırdı

OpenAI güvenlik önlemlerini artırdı
Google News Icon Takip Et

Yabancı casusluk korkuları ve Çinli rakip DeepSeek’in iddia edilen model hırsızlığı ortamında, ChatGPT’nin ana şirketi OpenAI’ın dahili güvenlik protokollerini artırdığı bildiriliyor.

Financial Times’ın şirkete yakın birkaç kaynağa dayandırdığı habere göre OpenAI, kurumsal casusluk ve temel model teknolojilerinin sızmasını önlemek için güvenliği sıkılaştırdı.

Bu gelişme, Çinli yapay zekâ girişimi DeepSeek’in “damıtma” olarak bilinen bir tekniği kullanarak OpenAI’ın modellerini kopyaladığı ve rakip bir sistem oluşturduğu iddialarının ardından geldi.

Rapora göre şirket, dahili sistemlere internet erişimini açıkça izin verilmedikçe kesen “varsayılan olarak reddet” politikasını benimsedi.

Ayrıca güvenli tesislere biyometrik parmak izi taramaları kurdu ve “çadırlama” olarak bilinen bir sistem altında çalışan erişimini kısıtladı.

Örneğin, dahili olarak “Strawberry” kod adlı model üzerinde çalışan personel, projeyi belirlenen “çadır” dışında tartışmamaları konusunda uyarıldı. Bu, yalnızca yetkili personelin kritik konuşmalara ve koda erişmesini sağladı.

Bir kaynak, yeni protokolleri tarif ederken “Çok sıkı hale geldi – ya her şeye sahiptiniz ya da hiçbir şeye” dedi. Zamanla, daha fazla personele daha geniş projelere görünürlük olmaksızın belirli bileşenlere sınırlı erişim hakkı veriliyor.

Bu dönüşüme öncülük etmek için OpenAI, geçen ekim ayında Palantir Technologies’in (PLTR) eski baş bilgi güvenliği yetkilisi Dane Stuckey’i işe aldı. Stuckey şimdi OpenAI’ın güvenlik ürünleri başkan yardımcısı Matt Knight ile birlikte siber ve veri savunmasını denetliyor.

Şirket ayrıca savunma duruşunu güçlendirmek için emekli ABD Ordusu Generali Paul Nakasone’yi yönetim kuruluna dahil etti.

ABD ile Çin arasında yapay zekâ liderliği konusundaki gerilimler tırmanırken, OpenAI’ın hamleleri temel model verilerinin jeopolitik rakipler tarafından silah haline getirilebileceğine dair daha geniş bir endişeyi yansıtıyor.

ABD yetkilileri, Çin’in gelişmiş modellere ve fikri mülkiyete erişim kazanmak için Amerikan teknoloji firmalarını agresif bir şekilde hedef aldığı konusunda uyarıda bulundu.

OpenAI, bu önlemlerin belirli bir ihlale yanıt olmadığını, güvenliğe olan bağlılığının bir parçası olduğunu ısrarla belirtiyor.

Geçen ay OpenAI ayrıca ulusal güvenlik amaçlı yapay zekâ araçları geliştirmek için 200 milyon dolarlık bir savunma sözleşmesi imzaladı.

Burada yer alan bilgiler yatırım tavsiyesi içermez. Bilgi için: Midas Sorumluluk Beyanı

Bu içerik hazırlanırken faydalanılan kaynak: Benzinga

Görsel kaynak: Svet foto – Shutterstock.com