TECH

Därför satsar Microsoft på att bygga egna AI-chip

artificiell intelligens, ai, azure
Ett serverrack som ska rymma Maia 100-acceleratorer. Till vänster på racket syns systemet för vätskekylning. Anordningen är kompakt nog att få plats i de datahallar Microsoft redan förfogar över.

Molnplattformen Azure ska anpassas till en värld fylld av artificiell intelligens. För att lyckas med det har Microsoft bestämt sig för att bygga egna chip.
Men de vill inte ses som en rival till Nvidia.

Publicerad

Vad är det som har hänt? 

Microsoft har numera ett eget ai-chip: Maia 100. Det rör sig om ai-acceleratorer som kan sorteras i samma kategori som Nvidias H100 och AMD:s färska MI300X. 

Microsoft lanserade Maia 100 på sin företagsfokuserade Ignite-konferens i Seattle tidigare i veckan. Där visade man också Azure Cobalt, en ny Arm-baserad centralprocessor. Även den byggs av Microsoft. 

Varför bygger Microsoft egna chip? 

Företaget har en viss erfarenhet av detta tack vare hårdvaruprodukter som Xbox och Surface. 

Microsoft gör för tillfället en genomgripande omdaning av hela sin molnserveruppsättning för Azure. Målet är att att optimera prestanda, energianvändning och kostnader. Samt inte minst att förbereda Azure för vad Microsoft kallar ai-eran. Och företaget menar att deras egen hårdvara kommer att hjälpa dem på vägen. 

Men det här handlar också naturligtvis om den astronomiska efterfrågan på gpu:er som gjort Nvidia till ett av världens mest förmögna bolag. 

Vad har Maia 100 för prestanda? 

Den är designad för att hantera ai-arbetsflöden, som träning av språkmodeller. Tekniksajten The Verge uppger att den ska användas ”för några av Microsofts tyngsta ai-arbetslaster”, inklusive Open AI:s drift och träning av språkmodeller. Faktum är att Open AI samarbetat med Microsoft när det gäller design och test av Maia. 

Rani Borkar

Men om prestandan finns än så länge få konkreta detaljer. Den är tillverkad med en 5-nanometersprocess och har 105 miljarder transistorer. Den har stöd för MX-datatyper under 8-bit, vilket ska ge ytterligare skjuts åt ai-arbetsflöden. MX står för Microscaling Formats, en allians där bland andra AMD, Arm, Intel, Meta, Microsoft, Nvidia och Qualcomm ingår. 

Ska Microsoft konkurrera med Nvidia och andra chiptillverkare nu? 

Nej. För det första kommer Microsoft inte att sälja sina chip. För det andra kommer Azure även att tillhandahålla kretsar från bland andra Intel, AMD och Nvidia. 

– Det här är ett komplement, det är ingen tävling. Våra partner är väldigt viktiga för vår infrastruktur och det vi verkligen vill är att ge våra kunder valmöjligheter, säger Rani Borkar, chef för Azures hårdvara och infrastruktur, till The Verge. 

✉️ Språk- eller faktafel i texten? Skriv och berätta.