Amazon (AMZN) ve bulut birimi Amazon Web Services (AWS), üretici yapay zekâ alanındaki son gelişmeler doğrultusunda artan hesaplama taleplerini karşılamak üzere P6e-GB200 UltraServers’ı tasarladıklarını duyurdu. Bu sunucular, trilyon parametreli temel modeller, akıl yürütme sistemleri ve ajansal yapay zekâ gibi uygulamaları destekleyecek.
AWS, yapay zekâ iş yüklerinde kullanılan yeni nesil Nvidia (NVDA) GPU’larını soğutmak için özel donanım geliştirdi. Nvidia’nın en yeni çiplerinin yüksek enerji taleplerini göz önünde bulunduran AWS, yeni sıvı soğutmalı veri merkezleri inşa etmek için beklememeye karar verdi.
Bunun yerine AWS mühendisleri, mevcut ve yeni veri merkezleriyle entegre olabilen ve yoğun GPU konfigürasyonlarından kaynaklanan ısıyı yönetebilen In-Row Heat Exchanger (IRHX) çözümünü geliştirdi.
Bu UltraServers’lar, 72 adede kadar Nvidia Blackwell GPU’sunu içeriyor ve tümü beşinci nesil Nvidia NVLink kullanılarak birbirine bağlanıyor. Bu sayede GPU’lar tek bir birleşik hesaplama sistemi olarak çalışabiliyor.
AWS Hesaplama ve Makine Öğrenimi Hizmetleri Başkan Yardımcısı Dave Brown, hazır soğutma seçeneklerinin Nvidia’nın GB200 NVL72 sistemlerinin taleplerini karşılayamadığını açıkladı. Bu sistemler, tek bir rafa 72 Blackwell GPU’su sığdırıyor. Önceki GPU nesillerinde geleneksel hava soğutma yeterliyken, AWS günümüz sistemlerinin artan hesaplama yoğunluğuna ayak uydurabilmek için yenilik yapmak zorunda kaldı.
AWS artık bu altyapıyı P6e örnekleri aracılığıyla sunuyor ve müşterilere gelişmiş termal destekle büyük ölçekli yapay zekâ modellerini eğitmek ve dağıtmak için gereken performansı sağlıyor.
Microsoft (MSFT) ve CoreWeave (CRWV) daha önce Nvidia’nın GB200 NVL72 mimarisine dayalı hesaplama kümeleri sunmuştu.
Mart ayında Intel (INTC), SuperFluid soğutma teknolojisini Nvidia’nın yüksek güçlü GB300 yapay zekâ çiplerinin ürettiği ısıyı yönetmek için güçlü bir aday olarak konumlandırdı.
2023’te piyasaya sürülen SuperFluid’in, 1.500 watt’a kadar termal yükleri işleyebildiğini gösteren doğrulama testlerini geçtiği bildirildi. Bu, Nvidia’nın Blackwell Ultra GB300 çiplerinden beklenen 1.400 watt’lık tüketimi aşıyor.
Haziran ayında yapay zekâ sunucusu şirketi Super Micro Computer (SMCI), Nvidia’nın Blackwell mimarisi için sıvı soğutmalı yapay zekâ sunucusu çözümlerini Avrupa pazarına genişletti.
Şirket, Nvidia HGX B200, GB200 NVL72 ve RTX PRO 6000 Blackwell dağıtımları için 30’dan fazla çözüm yığını tanıttı ve işletmelerin yapay zekâ fabrikası kurulumlarını hızlandırmasına yardımcı oldu.
Supermicro, DLC-2 teknolojisiyle çalışan 4U ön G/Ç HGX B200 sunucusu da dahil olmak üzere yeni sıvı soğutmalı sistemlerle portföyünü genişletiyor. Bu sistemler, müşterilerin termal açıdan verimli sistemleri korurken yüksek yoğunluklu yapay zekâ iş yüklerini çalıştırmasını sağlıyor.
Supermicro, Nvidia ile yakın çalışarak bu yılın ilerleyen dönemlerinde GB300 NVL72 ve HGX B300 gibi yeni nesil Blackwell Ultra çiplerini desteklemeye de hazırlanıyor.
Burada yer alan bilgiler yatırım tavsiyesi içermez. Bilgi için: Midas Sorumluluk Beyanı
Bu içerik hazırlanırken faydalanılan kaynak: Benzinga
Görsel kaynak: Shutterstock