DeepSeek, ein chinesisches Startup, das zu Beginn des Jahres für Aufsehen sorgte, treibt die Entwicklung von Open-Source-KI mit neuem Elan voran. Das Update DeepSeek R1-0528 stellt eine starke Konkurrenz zu den etablierten Giganten wie OpenAI und Google dar. Mit einer erneut unter einer Open-Source-Lizenz (MIT) veröffentlichten Version setzt DeepSeek ein gewaltiges Zeichen in Richtung Freiheit und Transparenz. Die zugrundeliegenden Modellgewichte sind öffentlich über Hugging Face zugänglich, was die Nutzung auch für kommerzielle Zwecke ohne Einschränkungen erlaubt. Im Gegensatz dazu behindern proprietäre Systeme wie die Konkurrenzmodelle häufig die freie Nutzung oder verlangen teure Subskriptionen.
Das Update R1-0528 brachte einen signifikanten Leistungsschub mit sich. Im AIME 2025-Benchmark konnte die Genauigkeit von DeepSeek beispielsweise von 70 auf 87,5 Prozent gesteigert werden. Diese enorme Verbesserung deutet auf tiefgreifendere Denkprozesse hin, bei denen das Modell durchschnittlich nun 23.000 Token pro Frage verarbeitet, gegenüber 12.000 in der vorherigen Version. Auch im Bereich Coding zeigt sich Fortschritt: Die Performance im LiveCodeBench verbesserte sich von 63,5 auf 73,3 Prozent. Selbst im anspruchsvollen Benchmark „Humanity’s Last Exam“ verdoppelte DeepSeek seine Leistung von 8,5 auf 17,7 Prozent.
Neben der Hauptversion wurde auch eine angepasste Version auf Basis des Modells Qwen3-8B von Alibaba veröffentlicht. Diese feinjustierte Variante nutzt die Daten aus R1-0528 und kann mit handelsüblichen GPUs mit 16 GB VRAM, wie RTX 3090 oder 4090, betrieben werden. Damit erschließt sich Hochleistungs-KI nun auch kleineren Laboren, Universitäten und Start-ups und bietet unabhängigen Entwicklern sowie Forschern im globalen Süden neue Möglichkeiten zur Nutzung dieser Technologie. Durch diese Demokratisierung von KI-Power entsteht ein spannenderes und offeneres Umfeld für Innovation und Forschung.
Schlagwörter: DeepSeek R1-0528 + DeepSeek + OpenAI
Wie bewerten Sie den Schreibstil des Artikels?
