Microsoft, yapay zekâ altyapısındaki stratejik yön değişimini yansıtan ikinci nesil özel inference çipi Maia 200’üduyurdu. Şirket, Maia 200’ü bugün piyasadaki tüm özel bulut hızlandırıcılar arasında en yüksek performanslı custom inference çipi olarak tanımlıyor.
Microsoft’a göre yapay zekâ yarışında belirleyici faktör artık modellerin kaç token ürettiği değil, bu token’ları ne kadar verimli ve düşük maliyetle ürettiği. Maia 200 bu yaklaşım doğrultusunda, özellikle büyük muhakeme (reasoning) modelleri için optimize edildi.
Şirket, Maia 200’ün:
- Amazon’un üçüncü nesil Trainium’una kıyasla FP4 performansta 3 kat,
- Google’ın 7. nesil TPU’suna kıyasla FP8 performansta daha yüksek değer sunduğunu belirtiyor.
Öne çıkan teknik veriler
- FP4 performans: 10.145 TFLOPS (Trainium3: 2.517)
- FP8 performans: 5.072 TFLOPS (Trainium3: 2.517 | TPU v7: 4.614)
- HBM bant genişliği: 7 TB/sn
- HBM kapasitesi: 216 GB
Microsoft, Maia 200’ün mevcut altyapısına kıyasla %30 daha iyi performans / dolar oranı sunduğunu da vurguluyor.
Maia 200, heterojen ve çok modlu AI altyapıları için tasarlandı. Çip; metin, ses, görüntü ve video tabanlı modelleri aynı anda çalıştırabilecek şekilde kurgulandı. Microsoft, OpenAI’nin GPT-5.2 ailesi dahil olmak üzere birçok modelin Maia 200 üzerinde çalışacağını açıkladı.
Çip, Azure, Microsoft Foundry ve Microsoft 365 Copilot ekosistemine doğrudan entegre ediliyor. Microsoft’un süper zekâ ekibi ise Maia 200’ü pekiştirmeli öğrenme (RL) ve sentetik veri üretimi için kullanmayı planlıyor.
Maia 200 hâlihazırda ABD Iowa’daki veri merkezlerinde çalışıyor; sıradaki dağıtım Arizona olacak. Küresel yayılım takvimi henüz açıklanmadı.
