AMD, Intel und Qualcomm kämpfen um die Krone des AI-PCs: Was ist mit den leistungsstarken Grafikkarten?
AMD, Intel und sogar Qualcomm werben derzeit intensiv für den AI-PC und liefern sich dabei einen Wettbewerb um Informationen zur Rechenleistung, insbesondere zur NPU. Mit Lunar Lake, der nächsten mobilen Core-Generation von Intel, strebt der gesamte Prozessor eine KI-Rechenleistung von 100 TOPS (Trillionen Operationen pro Sekunde) über die CPU-Kerne, GPU und NPU an. Aktuell liegt die Rechenleistung der Prozessoren von AMD, Intel und Qualcomm im Bereich von 30 bis 40 TOPS, wobei die NPU in der Regel nur etwa ein Drittel dieser Leistung ausmacht. Doch was ist mit den leistungsstarken Grafikprozessoren, die in vielen Computern verbaut sind?
Notebooks mit integrierter Grafikeinheit sind naturgemäß auf die Leistung des Prozessors beschränkt, während Gaming-Notebooks oder Desktop-Systeme mit dedizierter Grafikkarte deutlich mehr bieten können. Ein AI-PC wird jedoch ausschließlich dadurch definiert, dass der Prozessor eine NPU besitzt, Windows 11 24H2 mit Copilot verwendet und über eine Copilot-Taste verfügt. Ein Computer, der eine dedizierte Radeon- oder GeForce-Grafikkarte verwendet, erfüllt nicht automatisch die Anforderungen eines AI-PCs. Dennoch wäre ein solches System durchaus in der Lage, ausreichende Rechenleistung bereitzustellen.
Gemäß NVIDIA (über BenchLife) kann eine GeForce-Grafikkarte eine Rechenleistung von 100 bis 1.300 TOPS bzw. FLOPS mit einfacher Genauigkeit (INT8 oder FP8) erreichen. Damit übersteigt man deutlich die berichteten 20 TOPS, die derzeit gefordert werden. Selbst wenn die nächste Generation des AI-PC eine Mindestanforderung von 100 TOPS hat, könnte man diese Anforderung mit Leichtigkeit erfüllen. Aus diesem Grund unterscheidet NVIDIA zwischen einem “Basic AI PC” und einem “Premium AI PC”. NVIDIA nutzt bereits die überlegene Leistung des “Premium AI PC” aus, beispielsweise bei DLSS, Ray Reconstruction und bestimmten Funktionen der Avatar Cloud Engine (ACE) mit KI-Techniken. Kürzlich hat NVIDIA eine aktualisierte Version von ChatRTX veröffentlicht, die in die LLMs (Language Models) integriert ist und Verbindungen zwischen den LLMs und beispielsweise Bilddatenbanken herstellt – auch hier kommt die Grafikkarte zum Einsatz.
Letztendlich liegt es in der Verantwortung von Microsoft, festzulegen, welche Komponenten für den AI-PC verwendet werden. Die NPU zeichnet sich durch ihre hohe Energieeffizienz aus. Ebenso wird das Inferencing von ChatRTX auf GeForce-RTX-Karten effizient auf den Tensor-Kernen durchgeführt. In den Augen von NVIDIA fühlt sich das Unternehmen hierbei aus dem Rampenlicht der AI-PCs verdrängt. Es bleibt abzuwarten, ob Microsoft in Zukunft dedizierte Grafikkarten in die Definition des AI-PCs aufnimmt.
Schlagwörter: NVIDIA + Intel + AMD
Wie bewerten Sie den Schreibstil des Artikels?