{"id":14683,"date":"2025-10-14T15:08:23","date_gmt":"2025-10-14T15:08:23","guid":{"rendered":"https:\/\/byte-bucket.com\/2025\/10\/14\/amd-und-nvidia-im-wettlauf-um-ki-beschleuniger-spannende-ankuendigungen-und-partnerschaften\/"},"modified":"2025-10-14T15:08:23","modified_gmt":"2025-10-14T15:08:23","slug":"amd-und-nvidia-im-wettlauf-um-ki-beschleuniger-spannende-ankuendigungen-und-partnerschaften","status":"publish","type":"post","link":"https:\/\/byte-bucket.com\/?p=14683","title":{"rendered":"AMD und NVIDIA im Wettlauf um KI-Beschleuniger: Spannende Ank\u00fcndigungen und Partnerschaften!"},"content":{"rendered":"<p>Die Technologiewelt ist in Aufruhr, denn nachdem NVIDIA gestern seine Pl\u00e4ne f\u00fcr den OCP Global Summit 2025 pr\u00e4sentierte und sich auf kommende Server-Architekturen wie die NVL-Serie konzentrierte, folgt heute AMD mit einer Gegenank\u00fcndigung und einem deutlichen Signal an Partnerschaften. Auf dem Advancing AI 2025 Event stellte AMD detaillierte Informationen zur Instinct-MI400-Serie vor, einschlie\u00dflich der zuk\u00fcnftigen Rackl\u00f6sungen, die ambitioniert auf NVIDIA&#8217;s NVL-Server abzielen. AMD pr\u00e4sentierte nun erstmals nicht mehr nur ein Rendering des Helios-Racks, sondern echte Hardware, allerdings ohne die darin enthaltene Elektronik. Diese Racks werden ab Mitte 2026 mit den KI-Beschleunigern der Instinct-MI400-Serie und Epyc-Prozessoren auf Basis der Zen-6-Architektur (Venice) best\u00fcckt sein. Ein wichtiges Merkmal: AMD und NVIDIA beugen sich hier dem neuen Open-Rack-Wide-Standard (ORW), der von Meta initiiert wurde, und weichen damit von den bisherigen Standardbreiten ab, die auch NVIDIA f\u00fcr ihre Kyper-Racks verfolgt. F\u00fcr das Scale-Out-Netzwerk, also die Verbindung mehrerer Racks miteinander, wird ein UALoE, ein UALink auf Basis von Ethernet, zum Einsatz kommen. Das Scale-Up innerhalb eines einzelnen Racks erfolgt \u00fcber den Ultra Accelerator Link, der direkt im Beschleuniger integriert ist und als Gegenst\u00fcck zu NVLink dient.<\/p>\n<p>AMD hat Anfang des Monats bereits eine Zusammenarbeit mit OpenAI angek\u00fcndigt, laut der ab Mitte 2026 bis zu sechs Gigawatt an Rechenleistung in Form von Instinct-MI450-Beschleunigern geliefert werden sollen. Nun folgt die Kooperation mit Oracle Cloud Infrastructure (OCI), die als Startpartner f\u00fcr die Instinct-MI450-Serie fungiert. Bereits im Laufe des Jahres werden 131.072 Beschleuniger dieser Serie zu einem Supercluster zusammengef\u00fcgt. Eine Erweiterung ist f\u00fcr 2027 und dar\u00fcber hinaus geplant. Oracle hat bereits Supercluster mit Hardware von AMD und NVIDIA mit bis zu 131.072 Beschleunigern in Betrieb genommen. F\u00fcr das neue Supercluster auf Basis der Instinct-MI450-Serie werden ebenfalls die zuvor vorgestellten Helios-Racks genutzt. <\/p>\n<p>Diese Entwicklungen zeigen eine klare Dynamik im Bereich des High-Performance-Computing und verdeutlichen die zunehmende Bedeutung von KI-Beschleunigern f\u00fcr zuk\u00fcnftige Recheninfrastrukturen. Die Partnerschaften zwischen Technologiekonzernen wie AMD, NVIDIA, OpenAI und Oracle signalisieren ambitionierte Projekte und einen globalen Wettlauf um die Vorreiterrolle in diesem dynamischen Marktsegment.<\/p>\n<p>Schlagw\u00f6rter: AMD + NVIDIA + Oracle<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Die Technologiewelt ist in Aufruhr, denn nachdem NVIDIA gestern seine Pl\u00e4ne f\u00fcr den OCP Global Summit 2025 pr\u00e4sentierte und sich auf kommende Server-Architekturen wie die NVL-Serie konzentrierte, folgt heute AMD mit einer Gegenank\u00fcndigung und einem deutlichen Signal an Partnerschaften. Auf dem Advancing AI 2025 Event stellte AMD detaillierte Informationen zur&#46;&#46;&#46;<\/p>\n","protected":false},"author":4,"featured_media":14682,"comment_status":"","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1],"tags":[],"class_list":["post-14683","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-uncategorized"],"_links":{"self":[{"href":"https:\/\/byte-bucket.com\/index.php?rest_route=\/wp\/v2\/posts\/14683","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/byte-bucket.com\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/byte-bucket.com\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/byte-bucket.com\/index.php?rest_route=\/wp\/v2\/users\/4"}],"replies":[{"embeddable":true,"href":"https:\/\/byte-bucket.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=14683"}],"version-history":[{"count":0,"href":"https:\/\/byte-bucket.com\/index.php?rest_route=\/wp\/v2\/posts\/14683\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/byte-bucket.com\/index.php?rest_route=\/wp\/v2\/media\/14682"}],"wp:attachment":[{"href":"https:\/\/byte-bucket.com\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=14683"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/byte-bucket.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=14683"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/byte-bucket.com\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=14683"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}