Meta verschiebt seine KI-Strategie von flächiger Expansion zu fokussierten Teams, massiven Infrastrukturinvestitionen und der systematischen Automatisierung interner Abläufe, weswegen das Unternehmen parallel Stellen streicht und Zuständigkeiten neu zuschneidet. Nach rund 21.000 Entlassungen im „Jahr der Effizienz“ 2023 folgten 2025 weitere Einschnitte: Anfang des Jahres plante der Konzern Berichten zufolge eine Reduktion um etwa fünf Prozent mit Fokus auf Leistungsschwächere, im Oktober strich Meta zusätzlich etwa 600 Stellen in der KI-Einheit Superintelligence Labs und verlegte Beschäftigte in Nichtarbeitsphasen mit internen Wechseloptionen. Gleichzeitig skaliert Meta die KI-Infrastruktur aggressiv: Die Investitionsplanung für 2025 liegt bei 66 bis 72 Milliarden US‑Dollar einschließlich Leasingzahlungen und soll 2026 erneut anziehen, um Engpässe bei Rechenkapazitäten zu adressieren. Sichtbar wird dieser Kurs an neuen Rechenclustern im Gigawatt‑Bereich, darunter „Prometheus“ in Ohio mit Zielinbetriebnahme 2026 und „Hyperion“ in Louisiana mit einer perspektivischen Skalierung auf bis zu 5 Gigawatt, flankiert von weiteren Projekten. Die Verdichtung der KI‑Organisation geht einher mit einem Standardisierungsschub in risiko- und datenschutznahen Funktionen: Meta baut manuelle Prüfprozesse zurück, ersetzt sie durch automatisierte Kontrollen und fasst Zuständigkeiten im Regulierungs- und Compliance‑Bereich neu zusammen. Innerhalb der Risikoorganisation entfallen Rollen in Program Management, Shared Services sowie Global Security & Privacy; parallel bündelt Meta Aufgaben an wenigen Standorten, unter anderem in London. Der Konzern automatisiert zudem den Einstellungsprozess mit KI‑gestützten Interviews und Codetests und parceliert Aufgaben so, dass Routineentscheidungen zunehmend maschinell getroffen werden, während Expertenteams komplexe Fälle übernehmen.
Auf technischer Ebene verfolgt Meta eine zweigleisige Compute‑Strategie: zum einen der weitere Zukauf von GPU‑Kapazität in sehr großer Stückzahl, zum anderen der Einsatz eigener Beschleuniger (MTIA) für spezifische Workloads. Die zweite Generation der Meta‑ASICs wurde für Ranking- und Anzeigenmodelle entwickelt, nutzt große SRAM‑Blöcke und LPDDR statt HBM und unterstützt PyTorch‑Eager‑Workloads zur Reduzierung der Startlatenz von Jobs. Publizierte Ergebnisse aus der System‑Co‑Design‑Arbeit beziffern die durchschnittliche Senkung der Total Cost of Ownership gegenüber GPUs auf 44 Prozent für die in Produktion befindlichen Modelle, wobei Meta für nicht unterstützte Architekturen weiter auf marktübliche GPUs setzt. Der Rollout der MTIA‑v2‑Plattform in Rechenzentrumsregionen ergänzt somit die GPU‑Flotten, ohne sie zu ersetzen, und adressiert mit angepasster Speicherhierarchie die Bandbreite‑ und Kapazitätsprofile großer Recommender‑Systeme. Diese Architekturwahl verschiebt Flexibilität an die Workload‑Schicht: Modelle, die in die MTIA‑Designpunkte passen, laufen kosteneffizient; heterogene oder neuartige Architekturen verbleiben auf GPUs.
Die Modelle stellt Meta der Community in weiten Teilen zur Verfügung, integriert diese aber auch gleich in eigene Tools. Nach Llama 3.1 mit einem offen verfügbaren 405‑Milliarden‑Parameter‑Modell veröffentlicht das Unternehmen seit April 2025 mit Llama 4 zwei offen gewichtete, nativ multimodale Mixture‑of‑Experts‑Modelle: Scout (17 Milliarden aktive Parameter, 16 Experten, 109 Milliarden Gesamtparameter) und Maverick (17 Milliarden aktive Parameter, 128 Experten, 400 Milliarden Gesamtparameter). Scout erweitert die Kontextlänge auf bis zu 10 Millionen Tokens und zielt auf Langkontext‑Aufgaben wie Quellcode‑ und Dokumentmengenanalyse; Maverick ist als Produktarbeitsmodell für Assistenz- und Chat‑Anwendungen ausgelegt und lässt sich auf einem H100‑Host ausrollen oder verteilt inferieren. Die Trainingsrezepte umfassen FP8‑Präzision, einen Datenmix von über 30 Billionen Tokens über Text, Bild und Video sowie Mid‑Training‑Phasen für Langkontext‑Generalisation; die Sprachabdeckung erstreckt sich auf rund 200 Sprachen. Parallel integriert Meta diese Modelle in Meta AI für WhatsApp, Messenger, Instagram‑Direct und das Web, während AI Studio die Erstellung eigener Agenten für Marken und Creator ermöglicht.
Finanziell nimmt Meta zweistellige Milliardenaufwendungen pro Quartal für Rechenzentren, Server und Netzwerktechnik in die Hand und hebt die Jahresprognosen für die Investitionen 2025 an. Zugleich bleiben die Verluste der XR‑Sparte hoch; die Bilanzierung weist im zweiten Quartal 2025 einen Milliardenverlust bei geringen Umsätzen in diesem Segment aus.
Schlagwörter: Llama + KI + Meta
(pz)

