OpenClaw: Wenn Open-Source-AI zum Sicherheitsrisiko wird – ein Bug, der Wellen schlägt!

Die rasante Popularität von Open-Source-AI, exemplarisch dargestellt durch den Aufstieg des Projekts OpenClaw, wirft jedoch auch einige Schattenseiten ins Licht. Ein kürzlich entdeckter Fehler in OpenClaw, einem lokalen AI-Agenten mit wachsendem Einfluss auf Entwickler und Unternehmen, zeigte deutlich die Sicherheitsbedenken, die diesem Trend innewohnen. Der Bug ermöglichte es bösartigen Websites, heimlich den lokalen Agenten eines Entwicklers zu übernehmen – ohne jegliche Interaktion oder Warnzeichen. Angreifer konnten über WebSocket-Verbindungen ins System eindringen, Passwörter durch unzureichende Ratenbegrenzungen brute-forcen und schädlichen Code als vertrauenswürdig einfügen, wodurch sie die vollständige Kontrolle über das Gerät erlangten. Oasis Security, das den Fehler enthüllte, rief umgehend zu einem sofortigen Patch auf, da dieses Sicherheitsrisiko eine Dringlichkeit wie bei jedem kritischen Update besaß. Die Aktualisierung mit Version 2026.2.25 und neueren Versionen schließt diese Schwachstelle.

Der Alarmton wird jedoch noch lauter, wenn man das explosive Wachstum von OpenClaw auf GitHub bedenkt. Es hat React in seiner Popularität übertroffen und ist zu einem zentralen Werkzeug für Entwickler geworden, was gleichzeitig die Angriffsfläche erweitert. Das liegt auch an der Funktionsweise des Tools: Es läuft lokal mit umfassenden Berechtigungen und hat Zugriff auf Dateien, Anmeldeinformationen und verbundene Systeme. Dadurch kann ein Kompromittieren weitreichende Folgen haben, wie Experten wie Randolph Barr von Cequence Security betonen. Jason Soroko von Sectigo schlägt Maßnahmen vor, um dieses Risiko zu minimieren: Die Zugriffsrechte des Browsers auf den Agenten und dessen Fähigkeiten sollen eingeschränkt werden, um den möglichen Schaden zu begrenzen.

Der Vorfall mit OpenClaw verdeutlicht ein größeres Dilemma: Die rasante Entwicklung von Open-Source-AI übersteigt gegenwärtig die Fähigkeit zur effizienten Sicherheitsgovernance. Es mangelt an umfassenden Kontrollmechanismen und Standards, die dem Tempo dieser Innovationen gerecht werden können. Neben dem offenen Bug in OpenClaw existieren weitere Sicherheitsbedenken wie CVEs, Injection-Probleme und ein fragwürdiger Marketplace (ClawHub) mit potenziell schädlichen Fähigkeiten, wie Koi Securitys Untersuchung von über 820 bösartigen Fähigkeiten belegt. Trend Micros Beobachtung, dass Angreifer bereits 39 dieser Fähigkeiten zur Malware-Verbreitung nutzen, unterstreicht die Dringlichkeit der Situation. Um Open-Source-AI nachhaltig zu fördern, müssen Sicherheitsaspekte integraler Bestandteil des Entwicklungsprozesses werden, bevor potenziell katastrophale Folgen eintreten.

Schlagwörter: OpenClaw + Open-Source-AI + Oasis

Wie bewerten Sie den Schreibstil des Artikels?
1 Star2 Stars3 Stars4 Stars5 Stars
  • 3. März 2026