Amazon Web Services (AWS), üretken yapay zeka çalışmalarını ölçeklenebilir şekilde desteklemek amacıyla altyapısını optimize etmeye devam ettiğini duyurdu. Ağ oluşturma yeniliklerinden veri merkezi tasarım değişikliklerine kadar geniş bir yelpazede altyapı optimizasyonu yapan AWS, bu sayede müşterilerinin yeni teknolojileri kullanarak karar verme süreçlerini iyileştirmelerini, müşteri deneyimlerini dönüştürmelerini ve yaratıcılık ile inovasyonu artırmalarını hedefliyor.
Yapay zekanın hızla yükselişi, kurumların maliyetlerini azaltırken yüksek performans elde etmelerini sağlayacak doğru teknolojik altyapıyı seçmelerini daha da önemli hale getiriyor. Toyota, Pfizer, Ryanair, Adidas ve New York Menkul Kıymetler Borsası gibi 100.000’den fazla müşteri, AWS’in yapay zeka (AI) ve makine öğrenimi (ML) servislerinden faydalanıyor. Bugün, önde gelen üretken yapay zeka modelleri AWS altyapısı üzerinde eğitilip çalıştırılıyor. 15 yılı aşkın süredir grafik işleme birimi (GPU) tabanlı veri merkezleri kuran AWS, üretken yapay zekayı ölçeklenebilir şekilde destekleyecek yenilikler sunmak için altyapısının temelini geliştirmeye devam ediyor.
AWS Altyapı Geliştirme Çalışmaları Dört Temel Adımda Gerçekleşiyor:
1. Düşük Gecikme, Büyük Ölçekli Ağ İletişimi
Üretken yapay zeka modellerinin verimli şekilde çalışabilmesi için büyük miktarda veri gerekiyor. Model ne kadar büyük ve karmaşık olursa, eğitim süresi de o kadar uzuyor ve bu da işletme maliyetlerini artırırken inovasyonu yavaşlatıyor. Geleneksel ağlar, üretken yapay zeka modeli eğitimi için gerekli olan düşük gecikme süresi ve büyük ölçeği sunamıyor. AWS, ağ gecikmesini azaltmak ve müşterileri için daha iyi performans sağlamak adına sürekli çalışıyor. AWS, özel olarak geliştirdiği ağ cihazları ve yazılımları ile güvenlik, güvenilirlik ve performansı artırıyor. Örneğin, Elastic Fabric Adapter (EFA) kullanıma sunarak yüksek düzeyde düğümler arası iletişim gerektiren uygulamaları geniş ölçekte çalıştırma imkanı tanıdı. AWS’in UltraCluster 2.0 ağı, sekiz mikrosaniyelik gecikme süresiyle 20.000’den fazla GPU’yu destekliyor ve modeli eğitme süresini en az yüzde 15 kısaltıyor.
Bu habere henüz yorum yazılmamış, haydi ilk yorumu siz bırakın!...