Microsoft, OpenAI yapay zeka şirketlerinin öncülüğünü yaptığı ultra büyük sinir ağları sınıfını hedefleyen yapay zeka modellerini eğitmek için yeni bir Azure örneğinin ön izlemesini yaptı.
ND A100 v4, AI geliştirmede önemli bir yeni eğilimi ele almayı hedefliyor. Mühendisler genellikle otomatikleştirmek istedikleri her kullanım durumu için ayrı bir makine öğrenimi modeli geliştiriyor ancak son zamanlarda büyük, çok amaçlı bir model oluşturmaya ve bunu birden çok kullanım durumu için özelleştirmeye doğru bir değişim başladı.
OpenAI’ın en iyi kurumsal destekçilerinden olan Microsoft, dahili olarak çok amaçlı yapay zeka yaklaşımını benimsedi ve yapılan duyuruda, bu tür büyük yapay zeka modellerinin Bing ve Outlook genelinde özellikleri güçlendirmek için kullanıldığını açıkladı.
ND A100 v4, Nvidia’nın örnek başına sekiz adet en yeni A100 grafik işleme birimi sağlayarak diğer şirketlerin kendi süper büyük sinir ağlarını eğitmelerine yardımcı olmayı amaçlıyor. Müşteriler, birden çok ND A100 v4 örneğini birbirine bağlayarak binlerce GPU içeren bir AI eğitim kümesi oluşturabilecek.
Microsoft tam olarak kaç tane GPU’nun desteklendiğini belirtmedi. Ancak performansın, küçük bir süper bilgisayarınkinden çok geride olmadığı tahmin ediliyor. Bu yılın başlarında Microsoft, OpenAI için dünyanın en iyi beş süper bilgisayarından biri olarak nitelendirilen bir Azure kümesi oluşturdu ve bu kümede 10 bin GPU vardı.
Yeni ND A100 v4 bulut sunucusunda, GPU’ları bir arada kümeleme yeteneğini kolaylaştıran şey, her bir yongaya saniyede 200 gigabit özel InfiniBand ağ bağlantısı sağlanmasıdır. Bu bağlantılar, grafik kartlarının örnekler arasında her biriyle iletişim kurmasını sağlıyor. GPU’ların verileri paylaşma hızı, bu verileri ne kadar hızlı işleyebilecekleri konusunda büyük bir faktör ve Microsoft, ND A100 v4 VM’in diğer büyük genel bulutlardan 16 kat daha fazla GPU’dan GPU’ya bant genişliği sunduğunu söylüyor.
InfiniBand bağlantıları, Nvidia’nın Mellanox birimi tarafından sağlanan ağ donanımı tarafından destekleniyor. Yeni bulut sunucusu, sekiz yerleşik GPU’yu desteklemek için ayrıca Advanced Micro Devices’ın ikinci nesil Epyc serisi sunucu işlemcilerinden bir merkezi işlem birimi paketliyor.
Sonuç olarak bu girişim, Microsoft’un yapay zeka eğitim performansında büyük bir sıçrama olarak tanımladığı şeydir. Azure’da kıdemli bir program yöneticisi olan Ian Finder, bir blog gönderisinde “Çoğu müşteri, Nvidia V100 GPU’ları temel alan önceki nesil sistemlere göre 2 kattan 3 kata kadar hızlı bir işlem performansı artışı görecektir.” diye yazdı. Bazı müşterilerin bazı durumlarda performansın 20 kata kadar arttığını görebileceğini de sözlerine ekledi.
ND A100 v4 şu anda önizleme aşamasındadır.