nvidaproducts - bozkurtmithat/glaptop GitHub Wiki
Yapay Zeka
Yapay zeka fabrikaları, yapay zeka modeli oluşturma ve dağıtımının yüksek taleplerini karşılamak üzere tasarlanmıştır. Geleneksel veri merkezlerinin aksine, yapay zeka fabrikaları, yapay zeka iş yüklerinin yoğun hesaplama ihtiyaçlarını desteklemek için yüksek performanslı GPU'lar ve CPU'lar, gelişmiş ağ ve soğutma sistemleri gibi özel bileşenler gerektirir. Bu fabrikalar, yapay zeka muhakemesinde mükemmeldir; sektörler genelinde daha hızlı, daha doğru karar alma olanağı sağlar. Ayrıca NVIDIA'nın uçtan uca hızlandırılmış bilgi işlem platformunu kullanarak, yapay zeka çıkarım performansını hızlandırırken enerji verimliliği için optimize edilmişlerdir ve kuruluşların güvenli, geleceğe hazır yapay zeka altyapısı dağıtmalarına yardımcı olurlar.
Yapay Zeka Fabrikası Nedir?
Bir AI fabrikası, veri alımından eğitime, ince ayara ve yüksek hacimli çıkarıma kadar tüm AI yaşam döngüsünü yöneterek verilerden değer yaratmak için tasarlanmış özel bir bilgi işlem altyapısıdır. Birincil ürün, kararları, otomasyonu ve yeni AI çözümlerini yönlendiren, belirteç verimiyle ölçülen zekadır.
Yapay Zeka Fabrikaları İçin Mimariler
NVIDIA Blackwell GPU Mimarisi
VIDIA Blackwell mimarisi, benzersiz performans, verimlilik ve ölçekle üretken yapay zeka ve hızlandırılmış hesaplamada bir sonraki bölümü tanımlar. NVIDIA Blackwell, veri işleme, elektronik tasarım otomasyonu, bilgisayar destekli mühendislik ve kuantum hesaplamada çığır açan altı dönüştürücü teknolojiye sahiptir.
Grace CPU Mimarisi
NVIDIA Grace™ mimarisi, yeni bir tür ortaya çıkan veri merkezi için tasarlanmıştır: Zeka üretmek için dağlarca veriyi işleyen ve rafine eden AI fabrikaları. Bu veri merkezleri, AI eğitimi ve çıkarımından yüksek performanslı bilgi işlem (HPC), veri analitiği, dijital ve binlerce hiper ölçekli bulut uygulamasına kadar çeşitli iş yüklerini çalıştırır
BlueField Ağ Platformu
NVIDIA® BlueField® ağ platformu, veri merkezleri ve süper bilgisayar altyapıları için benzeri görülmemiş yenilikleri ateşler. BlueField DPU'ları ve SuperNIC'leri, geniş bir yelpazedeki gelişmiş ağ, depolama ve güvenlik hizmetlerini boşaltarak, hızlandırarak ve izole ederek, buluttan veri merkezine ve kenara kadar her ortamdaki her iş yükü için güvenli ve hızlandırılmış bir altyapı sağlar
DPU nedir?
Veri işleme birimi ( DPU ), genel amaçlı bir CPU'yu ağ arayüzü donanımıyla sıkı bir şekilde bütünleştiren programlanabilir bir bilgisayar işlemcisidir . [ 1 ] Bazen bunlara "IPU" (altyapı işleme birimi için) veya "Akıllı NIC'ler" denir. [ 2 ] Ana CPU'yu karmaşık ağ sorumluluklarından ve diğer "altyapısal" görevlerden kurtarmak için geleneksel NIC'lerin yerine kullanılabilirler ; özellikleri değişse de şifreleme/şifre çözme gerçekleştirmek, güvenlik duvarı görevi görmek , TCP/IP'yi işlemek , HTTP isteklerini işlemek veya hatta bir hipervizör veya depolama denetleyicisi olarak işlev görmek için kullanılabilirler . [ 1 ] [ 3 ] Bu cihazlar , sunucuları aksi takdirde bu görevlere önemli miktarda CPU zamanı harcayabilecek ve misafirlere sağlayabilecekleri döngüleri kesebilecek bulut bilişim sağlayıcıları için çekici olabilir . [ 1 ]
Yapay zeka fabrikaları, DPU'lar için ortaya çıkan bir kullanım örneğidir. Bu ortamlarda, karmaşık yapay zeka iş yüklerini idare etmek için büyük miktarda verinin CPU'lar , GPU'lar ve depolama sistemleri arasında hızla taşınması gerekir . Paket işleme, şifreleme ve trafik yönetimi gibi görevleri devrederek, DPU'lar gecikmeyi azaltmaya ve enerji verimliliğini artırmaya yardımcı olur ve bu yapay zeka fabrikalarının gelişmiş makine öğrenimi işlemleri için gereken yüksek verimi ve ölçeklenebilirliği sürdürmesini sağlar. [ 4 ]
Ağ ve depolama işlevlerini hızlandırmadaki rollerinin yanı sıra, DPU'lar giderek daha fazla hem CPU'ları hem de GPU'ları tamamlayan "bilgisayarın üçüncü ayağı" olarak görülüyor. Geleneksel işlemcilerden farklı olarak, bir DPU genellikle bir ağ arayüz kartında bulunur ve verilerin CPU'ya ulaşmadan önce ağın hat hızında işlenmesine olanak tanır. Bu yaklaşım, güvenlik, yük dengeleme ve veri yönlendirme gibi kritik ancak daha düşük seviyeli sistem görevlerini merkezi işlemciden alır ve böylece CPU'ları ve GPU'ları uygulama mantığına ve AI'ya özgü hesaplamalara odaklanmaya serbest bırakır. [ 5 ]