ChatGPT’nin sahibi OpenAI, güvenlik ve emniyet odaklı bağımsız bir yönetim kurulu gözetim komitesi kurduğunu duyurdu. Bu hamle, devam eden güvenlik süreci tartışmalarına yanıt olarak geldi.
Pazartesi günü yayınlanan bir blog yazısında OpenAI, mayıs ayında oluşturulan Güvenlik ve Emniyet Komitesi’nin artık bağımsız bir yönetim kurulu gözetim komitesi olarak işlev göreceğini açıkladı.
Komiteye Carnegie Mellon Üniversitesi Bilgisayar Bilimleri Okulu’nda makine öğrenimi bölümü direktörü olan Zico Kolter liderlik edecek.
Diğer üyeler arasında OpenAI yönetim kurulu üyesi ve Quora’nın kurucu ortağı Adam D’Angelo, eski NSA şefi ve yönetim kurulu üyesi Paul Nakasone ve Sony’nin eski CEO yardımcısı Nicole Seligman yer alıyor.
Komitenin görevi, “OpenAI’ın model dağıtımı ve geliştirmesine rehberlik eden güvenlik ve emniyet süreçlerini” denetlemek olacak.
Komite, OpenAI’ın süreçleri ve önlemlerinin 90 günlük bir incelemesini tamamladı ve yönetim kuruluna tavsiyelerde bulundu. Bu tavsiyeler arasında:
📍 Güvenlik ve emniyet için bağımsız yönetişim oluşturmak
📍 Güvenlik önlemlerini artırmak
📍 OpenAI’ın çalışmaları hakkında şeffaflığı teşvik etmek
📍 Dış kuruluşlarla işbirliği yapmak
📍 Şirketin güvenlik çerçevelerini birleştirmek
Komite ayrıca model lansmanlarını denetleyecek ve güvenlik endişeleri giderilene kadar bir lansmanı erteleme yetkisine sahip olacak.
🤔 Neden Önemli?
OpenAI, şirketin güvenli bir şekilde çalışamayacak kadar hızlı büyüdüğüne dair endişelerle birlikte tartışmalar ve üst düzey çalışan ayrılıklarıyla karşı karşıya kaldı.
Şu anda OpenAI, şirketi 150 milyar doların üzerinde değerleyebilecek bir finansman turu peşinde. Thrive Capital, 1 milyar dolarlık planlanan yatırımla turu yönetiyor ve Tiger Global’in de katılması bekleniyor. Microsoft (MSFT), Nvidia (NVDA) ve Apple’ın (AAPL) da yatırım yapmak için görüşmelerde olduğu bildiriliyor.
Yapay zekâ girişimi ayrıca “o1” adında yeni bir modeli piyasaya sundu. Bu model, akıl yürütme ve “zor problemleri çözme” üzerine odaklanıyor.
Bu ayın başlarında OpenAI, o1’in potansiyel olarak biyolojik silahlar yaratmak için kötüye kullanılabileceğini kabul etti ve kimyasal, biyolojik, radyolojik ve nükleer (KBRN) silahlarla ilgili sorunlar için “orta risk” olarak değerlendirdi.
Bu gelişmeler ışığında, OpenAI’ın yeni güvenlik komitesi hamlesi, şirketin yapay zekâ teknolojilerinin güvenli ve sorumlu bir şekilde geliştirilmesi ve kullanılması konusundaki taahhüdünü gösteriyor.
Bu içerik, içeriğin yayınlandığı günkü veriler baz alınarak hazırlanmıştır. İçerikte geçen hedef fiyat tahminleri, uzman ve analist yorumları bu içeriğin yayınlandığı tarihte geçerlidir. Bu tahmin ve yorumlar zaman içinde değişkenlik gösterebilmektedir. Bu sayfada yer alan haberler ve haberlerin içerdiği şirketler hakkındaki bilgiler yatırım danışmanlığı kapsamında değildir. Kullanılan hisse işlem görselleri; hisse adı, fiyatı ve grafikleri de dahil temsilidir, yatırım tavsiyesi değildir.
Detaylı bilgi için: Midas Sorumluluk Beyanı
Bu içerik hazırlanırken faydalanılan kaynak: Benzinga