Microsoft, Nvidia'ya meydan okuyor ve yapay zekaya özel çipler piyasaya sürüyor - Dünyadan Güncel Teknoloji Haberleri

Microsoft, Nvidia'ya meydan okuyor ve yapay zekaya özel çipler piyasaya sürüyor - Dünyadan Güncel Teknoloji Haberleri
İlk testler, Cobalt’ın performansının, Arm sunucularını kullanan Microsoft veri merkezlerinde bulunan performanstan %40 daha yüksek olduğunu gösteriyor Maia 100 şu anda ChatGpt, Bing AI ve GitHub Copilot iş yüklerine güç veren aynı model olan GPT 3 Ancak Nvidia’ya alternatif olması rekabet ve uyumluluk açısından sektörün gelişimi açısından avantaj sağlayabilir

Azure Maia 100 nasıl yapılır?

Adını bir yıldızdan alan Azure Maia 100, büyük dil modellerinin eğitimi ve çıkarımı gibi yapay zeka iş yüklerini bulutta çalıştırmak için tasarlandı Azure’daki genel bulut hizmetlerini desteklemek üzere tasarlanmıştır



genel-18

2017 yılında şirket, bulut donanım yığınını tasarlamaya başladı ve onu yeni özel çipleri oluşturma yoluna koydu Pazardaki ayırt edici bir özellik, çekirdek başına ve her bir sanal makinedeki performansı ve güç tüketimini kontrol etme yeteneğidir
Bu, en az 20 yıldan bu yana Xbox için çiplerin geliştirilmesinde işbirliği yapan ve çeşitli yüzeylerin işlemcilerini birlikte tasarlayan Microsoft için tamamen yeni bir durum değil 5 nanometrelik bir TSMC süreci üzerine inşa edilen Maia’nın 105 milyar transistörü var; bu, AMD’nin Nvidia rakibi MI300X AI GPU’nun 153 milyar transistöründen yaklaşık %30 daha az Microsoft, tüm sistemleri yapay zekanın ihtiyaçlarına uyarlamak için Açık Hesaplama Projesi’nin (OCP) işbirlikçi ve açık çalışmasını temel alarak, en azından ticari hedefleri açısından yapay zekanın geleceğini tasarlayabileceğini düşünüyor Microsoft, AI modelleri için yeni nesil veri formatlarını standartlaştırmayı amaçlayan AMD, Arm, Intel, Meta, Nvidia ve Qualcomm’u içeren bir grubun parçasıdır Her ikisinin de tek bir hedefi var: Azure veri merkezlerine güç veren özel bir ekosistem oluşturmak ve dünyayı yapay zekanın üstün geleceği bir geleceğe hazırlamak Çevrimiçi olarak 40 bin dolara kadar çıkabilen, gerçek maliyeti ise bunun yarısı kadar olan Nvidia kartları, H100M var Bazı tahminlere göre OpenAI’nin ChatGpt’i eğitmek için 30 binden fazla Nvidia’nın eski A100 GPU’suna ihtiyaç duyacağını söylemek yeterli Microsoft, sanal makineleri kullanılabilir hale getirmek amacıyla şu anda Kobalt CPU’sunu Microsoft Teams ve SQL Server gibi iş yükleri üzerinde test ediyor Hem Azure Maia hem de Azure Kobalt CPU, performansı, gücü ve maliyeti optimize etmek amacıyla tüm bulut sunucu yığınının büyük bir revizyonuyla birlikte Microsoft tarafından şirket içinde üretildi Yalnızca kendilerini Nvidia’dan kurtarmanın değil, aynı zamanda yapay zeka işleme için çılgın görünen bir senaryonun ihtiyaçlarını da karşılamanın bir yolu gelecek yıl çeşitli kapsamlar için müşteriler

Azure Kobalt: nereden geliyor?

Adını mavi pigmentten alan Azure Kobalt CPU, CSS Arm Neoverse tasarımı üzerine inşa edilmiş ve Microsoft için özelleştirilmiş 128 çekirdekli bir çiptir 5 Turbo üzerinde test ediliyor Doğru olan şu ki, bulutun çalıştığı ölçekte yığının her katmanını optimize etmek ve entegre etmek, performansı en üst düzeye çıkarmak, tedarik zincirini çeşitlendirmek zordur


Artık spekülasyon değil gerçek: Microsoft, büyük dil modellerini eğitmek ve Nvidia’ya olan pahalı bağımlılığı önlemek için kullanılabilecek bir çip geliştirdi Buna ek olarak Amerikan devi, bulut iş yüklerine özel Arm tabanlı bir CPU tasarladığını da doğruladı Azure Maia ve Azure Kobalt, 2024 yılında piyasaya çıkması planlanan yarı iletkenlerin ve CPU’ların adlarıdır Daha düşük maliyet, daha fazla güç ve tamamen yapay zekaya ayrılmış bir yığınla Microsoft’un çipleri, hem tedarikçiler hem de müşteriler için yapay zekanın “fiyatını” düşürmeye yardımcı olabilir Microsoft’un ChatGpt ve ortaklarının gelişimine güç verdiği OpenAI ile milyarlarca dolarlık ortaklığın bazı kısımları da dahil olmak üzere, şirketin Azure’daki en büyük projelerinden bazılarına güç sağlamak için kullanılacak OpenAI’nin Maia’nın tasarım ve test aşamalarında Redmond ile işbirliği yapması tesadüf değil

Soru Maia’nın aslında Nvidia’nın doğrudan rakibi olan H100 GPU’dan bir adım önde olup olmadığıdır Ortaklarla donanım ve yazılım tasarımını basitleştirmek için 8 bitten küçük veri türlerinin uygulanmasını destekler