Microsoft stellt auf der Ignite-Hausmesse eigene ARM-Prozessoren und KI-Beschleuniger für die Azure-Cloud vor

Auf der Hausmesse Ignite hat Microsoft zwei interessante Neuigkeiten vorgestellt. Zum einen präsentierte das Unternehmen einen eigenen ARM-Prozessor für die Azure-Cloud, zum anderen stellte es einen KI-Beschleuniger vor. Die Hardware wurde auf der Ignite-Eröffnung präsentiert und soll ab 2024 zum Einsatz kommen. Microsoft plant vorerst, die Chips intern zu nutzen und nicht als Grundlage für Cloud-Instanzen zur Vermietung anzubieten. Es ist jedoch geplant, die Chips auch für OpenAI-Dienste einzusetzen. Der KI-Prozessor mit dem Namen Microsoft Azure Maia 100 kann sowohl für das Training von Künstlicher Intelligenz als auch für Inferencing verwendet werden. Bisher sind keine genauen Informationen zur Leistung oder Ausstattung der Chips bekannt. Die auf dem Produktfoto erkennbare modulare Chiplet-Bauweise ist interessant. Microsoft Azure ist einer der führenden Cloud-Anbieter für Instanzen mit KI-Beschleunigern, insbesondere mit Nvidia-H100-Chips. Auf der Ignite wurden auch neue Azure-Instanzen angekündigt, die andere KI-Beschleuniger verwenden, darunter der AMD Instinct MI300X und ab nächstem Jahr der Nvidia H200. Mit dieser Ankündigung folgt Microsoft den großen Cloud-Dienstleistern Amazon und Alibaba, die bereits eigene ARM-Prozessoren einsetzen. Andere Unternehmen in der Cloud-Branche entwickeln ebenfalls eigene KI-Beschleuniger, wie Google, Amazon, Alibaba, Baidu und Huawei. Nvidia hat eine dominierende Stellung und bietet eine Vielzahl anderer KI-Chips an. Die neuen ARM-Prozessoren und KI-Beschleuniger von Microsoft bieten spannende Möglichkeiten für die Azure-Cloud. Es bleibt abzuwarten, wie sie sich in der Praxis bewähren und welchen Einfluss sie auf die Entwicklung von Künstlicher Intelligenz haben werden.

Schlagwörter: ARMProzessor + KIBeschleuniger + Rechenzentren

Wie bewerten Sie den Schreibstil des Artikels?
1 Star2 Stars3 Stars4 Stars5 Stars
  • 15. November 2023