Meta, das Unternehmen, das hinter dem allgegenwärtigen Facebook steckt, hat kürzlich angekündigt, dass es eigene Inferencing-Hardware in seinen Rechenzentren installieren wird. Ursprünglich war dies für 2022 geplant, aber jetzt hat die zweite Generation der Eigenentwicklung, der Artemis-Chip, die Bühne betreten. Der Name des Chips ist an die griechische Göttin der Jagd angelehnt. Ob dieser Chip genauso schnell ist wie ein Pfeil von Artemis, ist jedoch noch nicht bekannt.
Die erste Generation dieser Eigenentwicklung, bekannt als MTIA (Meta Training and Inference Accelerator), konnte die gewünschten Ergebnisse im Jahr 2022 leider nicht liefern. Aber hey, wer hat nicht schon mal seine eigenen Erwartungen nicht erfüllt? Wir können nur hoffen, dass der Artemis-Chip besser abschneidet.
Details zur genauen Struktur des Artemis-Chips sind noch nicht bekannt. Aber im Gegensatz dazu wissen wir, dass Meta für MTIA einen ASIC mit einer Taktfrequenz von 800 MHz und einer Rechenleistung von 102,4 TOPS für INT8-Operationen bzw. 51,2 TFLOPS für FP16-Operationen eingesetzt hat. Das klingt beeindruckend, aber ich weiß immer noch nicht, was das alles bedeutet. Ich hoffe nur, dass dieser Chip nicht wie mein alter Computer ständig überhitzt.
Der MTIA verfügt außerdem über 128 GB LPDDR5, 128 MB SRAM und 68 Processing Elements (PEs), von denen jeder über einen eigenen Cache von 128 kB verfügt. Wow, das sind viele Zahlen und Abkürzungen auf einmal. Ich hoffe, jemand hat einen Taschenrechner dabei. Die Produktion des MTIA erfolgt übrigens im 7-nm-Verfahren bei TSMC. Das klingt nach einer komplizierten Angelegenheit, aber ich vertraue darauf, dass die klugen Köpfe bei Meta wissen, was sie tun.
Sowohl MTIA als auch Artemis sind speziell für das Inferencing konzipiert. Ein Sprecher von Meta hat gegenüber Reuters betont, dass ihre eigenen Beschleuniger eine bedeutende Ergänzung zu handelsüblichen Grafikprozessoren (GPUs) darstellen. Das klingt nach einem schlagkräftigen Argument. Ich meine, wer will schon mit dem Auto fahren, wenn man auch ein Rennpferd haben kann?
Meta ist einer der größten Abnehmer von KI-Hardware und hat für 2024 den Kauf von 350.000 H100-Beschleunigern von NVIDIA geplant. Das entspricht in etwa 600.000 H100-GPUs. Das ist eine beeindruckende Anzahl von GPUs. Ich hoffe nur, dass sie genug Platz in ihren Rechenzentren haben, um diese ganzen Geräte unterzubringen. Vielleicht können sie ja ein paar alte Schränke aus dem Keller ihrer Großmutter nutzen.
Obwohl das Training eine wichtige Rolle spielt, wird Meta auch weiterhin auf die Hardware eines anderen Herstellers angewiesen sein. Das Training ist sozusagen wie die Vorbereitung auf den Marathon, während das Inferencing der eigentliche Lauf ist. Meta möchte natürlich, dass dieser Lauf so effizient wie möglich ist, um Empfehlungsmodelle auf Facebook, Instagram und Threads schnell und genau zu machen. Da ist es verständlich, dass sie auf eigene Hardware setzen, um die Anforderungen an KI-Workloads zu erfüllen.
Also, lasst uns gespannt sein, wie sich der Artemis-Chip von Meta schlägt. Vielleicht wird er uns alle mit seinem Tempo überraschen, so wie Artemis es mit ihren Pfeilen getan hat. Oder vielleicht wird er einfach nur dazu beitragen, dass Facebook schneller Empfehlungen ausspuckt. In jedem Fall können wir sicher sein, dass Meta hart daran arbeitet, die Zukunft der KI voranzutreiben. Und wer weiß, vielleicht werden wir eines Tages alle von KI-Chips beherrscht. Ach, Moment mal, das passiert ja schon!
Schlagwörter: MTIA + Meta + /em Meta
Wie bewerten Sie den Schreibstil des Artikels?
