{"id":14764,"date":"2025-10-24T13:33:07","date_gmt":"2025-10-24T13:33:07","guid":{"rendered":"https:\/\/byte-bucket.com\/2025\/10\/24\/metas-ki-strategie-im-wandel-stellenabbau-und-neue-ansaetze-fuer-flexibilitaet-und-effizienz\/"},"modified":"2025-10-26T13:39:19","modified_gmt":"2025-10-26T13:39:19","slug":"metas-ki-strategie-im-wandel-stellenabbau-und-neue-ansaetze-fuer-flexibilitaet-und-effizienz","status":"publish","type":"post","link":"https:\/\/byte-bucket.com\/?p=14764","title":{"rendered":"Meta: KI-Strategie im Wandel"},"content":{"rendered":"<p>Meta verschiebt seine KI-Strategie von fl\u00e4chiger Expansion zu fokussierten Teams, massiven Infrastrukturinvestitionen und der systematischen Automatisierung interner Abl\u00e4ufe, weswegen das Unternehmen parallel Stellen streicht und Zust\u00e4ndigkeiten neu zuschneidet. Nach rund 21.000 Entlassungen im \u201eJahr der Effizienz\u201c 2023 folgten 2025 weitere Einschnitte: Anfang des Jahres plante der Konzern Berichten zufolge eine Reduktion um etwa f\u00fcnf Prozent mit Fokus auf Leistungsschw\u00e4chere, im Oktober strich Meta zus\u00e4tzlich etwa 600 Stellen in der KI-Einheit Superintelligence Labs und verlegte Besch\u00e4ftigte in Nichtarbeitsphasen mit internen Wechseloptionen. Gleichzeitig skaliert Meta die KI-Infrastruktur aggressiv: Die Investitionsplanung f\u00fcr 2025 liegt bei 66 bis 72 Milliarden US\u2011Dollar einschlie\u00dflich Leasingzahlungen und soll 2026 erneut anziehen, um Engp\u00e4sse bei Rechenkapazit\u00e4ten zu adressieren. Sichtbar wird dieser Kurs an neuen Rechenclustern im Gigawatt\u2011Bereich, darunter \u201ePrometheus\u201c in Ohio mit Zielinbetriebnahme 2026 und \u201eHyperion\u201c in Louisiana mit einer perspektivischen Skalierung auf bis zu 5 Gigawatt, flankiert von weiteren Projekten. Die Verdichtung der KI\u2011Organisation geht einher mit einem Standardisierungsschub in risiko- und datenschutznahen Funktionen: Meta baut manuelle Pr\u00fcfprozesse zur\u00fcck, ersetzt sie durch automatisierte Kontrollen und fasst Zust\u00e4ndigkeiten im Regulierungs- und Compliance\u2011Bereich neu zusammen. Innerhalb der Risikoorganisation entfallen Rollen in Program Management, Shared Services sowie Global Security &#038; Privacy; parallel b\u00fcndelt Meta Aufgaben an wenigen Standorten, unter anderem in London. Der Konzern automatisiert zudem den Einstellungsprozess mit KI\u2011gest\u00fctzten Interviews und Codetests und parceliert Aufgaben so, dass Routineentscheidungen zunehmend maschinell getroffen werden, w\u00e4hrend Expertenteams komplexe F\u00e4lle \u00fcbernehmen. <\/p>\n<p>Auf technischer Ebene verfolgt Meta eine zweigleisige Compute\u2011Strategie: zum einen der weitere Zukauf von GPU\u2011Kapazit\u00e4t in sehr gro\u00dfer St\u00fcckzahl, zum anderen der Einsatz eigener Beschleuniger (MTIA) f\u00fcr spezifische Workloads. Die zweite Generation der Meta\u2011ASICs wurde f\u00fcr Ranking- und Anzeigenmodelle entwickelt, nutzt gro\u00dfe SRAM\u2011Bl\u00f6cke und LPDDR statt HBM und unterst\u00fctzt PyTorch\u2011Eager\u2011Workloads zur Reduzierung der Startlatenz von Jobs. Publizierte Ergebnisse aus der System\u2011Co\u2011Design\u2011Arbeit beziffern die durchschnittliche Senkung der Total Cost of Ownership gegen\u00fcber GPUs auf 44 Prozent f\u00fcr die in Produktion befindlichen Modelle, wobei Meta f\u00fcr nicht unterst\u00fctzte Architekturen weiter auf markt\u00fcbliche GPUs setzt. Der Rollout der MTIA\u2011v2\u2011Plattform in Rechenzentrumsregionen erg\u00e4nzt somit die GPU\u2011Flotten, ohne sie zu ersetzen, und adressiert mit angepasster Speicherhierarchie die Bandbreite\u2011 und Kapazit\u00e4tsprofile gro\u00dfer Recommender\u2011Systeme. Diese Architekturwahl verschiebt Flexibilit\u00e4t an die Workload\u2011Schicht: Modelle, die in die MTIA\u2011Designpunkte passen, laufen kosteneffizient; heterogene oder neuartige Architekturen verbleiben auf GPUs.<\/p>\n<p>Die Modelle stellt Meta der Community in weiten Teilen zur Verf\u00fcgung, integriert diese aber auch gleich in eigene Tools. Nach Llama 3.1 mit einem offen verf\u00fcgbaren 405\u2011Milliarden\u2011Parameter\u2011Modell ver\u00f6ffentlicht das Unternehmen seit April 2025 mit Llama 4 zwei offen gewichtete, nativ multimodale Mixture\u2011of\u2011Experts\u2011Modelle: Scout (17 Milliarden aktive Parameter, 16 Experten, 109 Milliarden Gesamtparameter) und Maverick (17 Milliarden aktive Parameter, 128 Experten, 400 Milliarden Gesamtparameter). Scout erweitert die Kontextl\u00e4nge auf bis zu 10 Millionen Tokens und zielt auf Langkontext\u2011Aufgaben wie Quellcode\u2011 und Dokumentmengenanalyse; Maverick ist als Produktarbeitsmodell f\u00fcr Assistenz- und Chat\u2011Anwendungen ausgelegt und l\u00e4sst sich auf einem H100\u2011Host ausrollen oder verteilt inferieren. Die Trainingsrezepte umfassen FP8\u2011Pr\u00e4zision, einen Datenmix von \u00fcber 30 Billionen Tokens \u00fcber Text, Bild und Video sowie Mid\u2011Training\u2011Phasen f\u00fcr Langkontext\u2011Generalisation; die Sprachabdeckung erstreckt sich auf rund 200 Sprachen. Parallel integriert Meta diese Modelle in Meta AI f\u00fcr WhatsApp, Messenger, Instagram\u2011Direct und das Web, w\u00e4hrend AI Studio die Erstellung eigener Agenten f\u00fcr Marken und Creator erm\u00f6glicht. <\/p>\n<p>Finanziell nimmt Meta zweistellige Milliardenaufwendungen pro Quartal f\u00fcr Rechenzentren, Server und Netzwerktechnik in die Hand und hebt die Jahresprognosen f\u00fcr die Investitionen 2025 an. Zugleich bleiben die Verluste der XR\u2011Sparte hoch; die Bilanzierung weist im zweiten Quartal 2025 einen Milliardenverlust bei geringen Ums\u00e4tzen in diesem Segment aus. <\/p>\n<p>Schlagw\u00f6rter: Llama + KI + Meta<br \/>(pz)<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Meta verschiebt seine KI-Strategie von fl\u00e4chiger Expansion zu fokussierten Teams, massiven Infrastrukturinvestitionen und der systematischen Automatisierung interner Abl\u00e4ufe, weswegen das Unternehmen parallel Stellen streicht und Zust\u00e4ndigkeiten neu zuschneidet. Nach rund 21.000 Entlassungen im \u201eJahr der Effizienz\u201c 2023 folgten 2025 weitere Einschnitte: Anfang des Jahres plante der Konzern Berichten zufolge eine&#46;&#46;&#46;<\/p>\n","protected":false},"author":6,"featured_media":14763,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1],"tags":[],"class_list":["post-14764","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-uncategorized"],"_links":{"self":[{"href":"https:\/\/byte-bucket.com\/index.php?rest_route=\/wp\/v2\/posts\/14764","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/byte-bucket.com\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/byte-bucket.com\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/byte-bucket.com\/index.php?rest_route=\/wp\/v2\/users\/6"}],"replies":[{"embeddable":true,"href":"https:\/\/byte-bucket.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=14764"}],"version-history":[{"count":3,"href":"https:\/\/byte-bucket.com\/index.php?rest_route=\/wp\/v2\/posts\/14764\/revisions"}],"predecessor-version":[{"id":14771,"href":"https:\/\/byte-bucket.com\/index.php?rest_route=\/wp\/v2\/posts\/14764\/revisions\/14771"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/byte-bucket.com\/index.php?rest_route=\/wp\/v2\/media\/14763"}],"wp:attachment":[{"href":"https:\/\/byte-bucket.com\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=14764"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/byte-bucket.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=14764"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/byte-bucket.com\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=14764"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}