Microsoft hängt nicht so schnell an den eigenen Hausmächten, wenn es um die leistungsstärksten KI-Beschleuniger geht. Der Technologiegigant setzt laut Omdia im Jahr 2024 verstärkt auf Nvidia – konkret auf schätzungsweise 485.000 Hopper-GPUs der Serien H100 und H200. Das sind beeindruckende Zahlen, die einem geschätzten Wert von fast 15 Milliarden US-Dollar entsprechen würden (bei einem Preis von 30.000 Dollar pro Chip).
Die genauen Aufteilungskriterien zwischen Microsofts internen Anwendungen und dem gemeinsamen Projekt mit OpenAI bleiben im Unklaren. Was jedoch klar ist: Mit dieser Bestellung zeigt Microsoft, dass es KI-Leistung auf höchstem Niveau benötigt und nicht davor zurückschreckt, die leistungsstärksten Werkzeuge des Marktes einzusetzen.
Diese Nvidia-Bestellung spielt in einem größeren Kontext: Nvidias Serverprodukte, darunter auch die allgegenwärtigen Grafikprozessoren, werden in diesem Jahr einen Umsatz von über 100 Milliarden US-Dollar generieren. Damit gehört dieses Segment mit seinen vielfältigen Komponenten – neben den KI-Beschleunigern auch ARM-Prozessoren, Netzwerkkarten und Interconnect-Technologien – zu den wichtigsten Pfeilern des Unternehmens.
Microsofts Fokus auf Nvidia ist besonders spannend, da Microsoft selbst eigene KI-Beschleuniger entwickelt, wie die Maia-Serie. Diese Chips sind jedoch, trotz ihrer Integration in das Azure-Cloud-Ökosystem, aktuell langsamer als Nvidias Hopper-GPUs. Die aktuelle Generation von Blackwell-Chips, die noch leistungsstärker und teurer sein soll, wird zudem die Konkurrenz weiter verstärken.
Der Wettstreit um KI-Leistung zeigt sich also nicht nur auf dem Markt für Endverbraucher, sondern auch in der Welt der Cloud-Dienste und großen Datenzentren. Microsofts gigantische Bestellung bei Nvidia demonstriert die Prioritätensetzung im Kampf um die Vorreiterrolle in der Künstlichen Intelligenz.
Schlagwörter: Nvidias + Microsoft + H100
Wie bewerten Sie den Schreibstil des Artikels?
