Schwachstelle im beliebten Machine-Learning-Framework PyTorch entdeckt!

Schwachstellen in Software sind leider keine Seltenheit, und auch das beliebte Machine-Learning-Framework PyTorch bleibt nicht verschont. Das CERT-Bund des Bundesamts für Sicherheit in der Informationstechnik (BSI) hat eine Schwachstelle in PyTorch entdeckt, die beim verteilten Training von Modellen auftreten kann.

Die Schwachstelle, mit dem coolen Namen WID-SEC-2024-1323, wurde vom CERT-Bund als kritisches Risiko eingestuft und hat einen CVSS-Score von 10, was bedeutet, dass sie extrem gefährlich ist. Sie ist auch in der NIST Vulnerability Database unter der Bezeichnung CVE-2024-5480 aufgeführt. Leider gibt es keine genauen Angaben darüber, welche PyTorch-Versionen betroffen sind. Das NIST erwähnt Versionen vor 2.2.2, während das BSI Versionen kleiner als 2.2.3 angibt. Da bleibt uns nur zu hoffen, dass die Entwickler von PyTorch schnell handeln und die Schwachstelle beheben.

Die Schwachstelle betrifft das Distributed RPC Framework von PyTorch, das für das verteilte Training von Modellen verwendet wird. Die Worker-Nodes senden Python-Code an den Master-Node, der diesen dann ungeprüft ausführt. Das klingt nach einer Einladung für Angreifer, oder? Durch diese fehlende Überprüfung besteht die Gefahr von Command Injection, was bedeutet, dass ein Angreifer beliebigen Code auf dem Master-Node ausführen könnte. Das ist natürlich nicht das, was wir wollen.

Ein Proof-of-Concept-Exploit für diese Schwachstelle ist sogar auf der Bug-Bounty-Plattform huntr verfügbar. Es wird zwar nur die IP-Adresse des Master-Nodes abgefragt, aber das ist schon ein erster Schritt in die falsche Richtung. Sensible Daten könnten so vom Master-Node abgegriffen werden. Das wollen wir natürlich vermeiden.

Was können wir also tun, um uns zu schützen? Nun, das CERT-Bund empfiehlt dringend, betroffene Versionen von PyTorch zu aktualisieren, sobald ein Bugfix verfügbar ist. Bis dahin sollten wir Sicherheitsmaßnahmen ergreifen, um den Zugriff auf die Worker-Nodes zu beschränken und die Kommunikation zwischen den Nodes zu sichern. Das ist zwar keine Garantie dafür, dass nichts passiert, aber es ist besser als nichts.

Die Entwickler von PyTorch sind bereits dabei, an einer Lösung für diese Schwachstelle zu arbeiten. Hoffentlich wird bald ein Update veröffentlicht, mit dem wir alle unsere Modelle sicher trainieren können. In der Zwischenzeit sollten wir regelmäßig die offizielle Website und die Release Notes von PyTorch überprüfen, um auf dem neuesten Stand zu bleiben. Denn nur mit aktuellem Wissen können wir uns effektiv schützen.

In der Welt der Technologie gibt es immer wieder Rückschläge, aber wir lassen uns davon nicht entmutigen. Mit dem nötigen Wissen und den richtigen Maßnahmen können wir sicherstellen, dass unsere Modelle geschützt bleiben. Also haltet die Ohren steif und bleibt auf dem neuesten Stand!

Schlagwörter: Master Node + BSI + PyTorch

Wie bewerten Sie den Schreibstil des Artikels?
1 Star2 Stars3 Stars4 Stars5 Stars
  • 10. Juni 2024