Datenschutz im Gesundheitswesen: Herausforderungen für Privatsphäre

Datenschutz im Gesundheitswesen ist ein hoch emotionales Thema. Während manche behaupten, Datenschutz sei tödlich, warnen Sicherheitsexperten, Datenschützer und Bürgerrechtler vor einem sorglosen Umgang mit besonders sensiblen Daten. Denn Angreifer können durch ihr Wissen Daten de-anonymisieren und so eine potenzielle Bedrohung darstellen. Gelangen Cyberkriminelle an die Daten von Versicherten, könnten diese für Erpressungszwecke missbraucht werden.

Es gibt jedoch einen Unterschied, wenn Patienten freiwillig ihre Daten für die Forschung zur Verfügung stellen, um später ihre eigenen Forschungsergebnisse einzusehen. Damit Datenschutz in unserer Gesellschaft eine Rolle spielt und wir uns gegen eine Post-Privacy-Einstellung entscheiden, ist es entscheidend, dass der Schutz der Privatsphäre von Anfang an konsequent beachtet wird.

Aus Datenschutzsicht reicht die Pseudonymisierung nicht aus. Im Gegensatz zur Anonymisierung ermöglicht die Pseudonymisierung die Wiederherstellung eines Personenbezugs. Bei der Anonymisierung sollte eine erneute Identifizierung nicht möglich sein. Es gibt jedoch noch grundlegende Fragen zum Datenschutz, die ungeklärt sind, weshalb Experten eine klare Rechtssicherheit fordern.

Das Bundesgesundheitsministerium plant bereits, enorme Datenmengen im Gesundheitsdatenraum (EHDS), dem ersten gemeinsamen europäischen Datenraum, bereitzustellen. Weitere Datenräume, wie beispielsweise für den Agrar- oder Finanzsektor, sollen in Zukunft folgen.

Eine gängige Methode zum Schutz der Daten ist die Pseudonymisierung, bei der personenbezogene Daten durch ein künstliches Identifikationsmerkmal ersetzt werden. Obwohl die ursprünglichen Daten nicht sofort erkennbar sind, besteht die Möglichkeit, durch den Abgleich mit anderen Informationen die Identität wiederherzustellen.

Eine alternative Schutzmaßnahme besteht darin, jeden Datenpunkt einzeln zu transformieren, was als Datensatzreinigung bezeichnet wird. Allerdings stößt die Datensatzreinigung an ihre Grenzen, wenn es um Angreifer mit ausreichenden Ressourcen geht. Methoden wie das Schwärzen und Verallgemeinern können beispielsweise die sogenannte K-Anonymität für den Datensatz gewährleisten. Durch die Kombination von Attributen ist es jedoch möglich, Personen wiederzuerkennen, obwohl die K-Anonymität angewendet wurde. Darüber hinaus können Techniken wie maschinelles Lernen trotz K-Anonymität manchmal eine Re-Identifizierung ermöglichen, beispielsweise durch korrelierte Einträge oder Hintergrundinformationen.

Die bisherigen technisch-organisatorischen Maßnahmen (TOMs) für den Datenschutz sind eingeschränkt, da die Daten sich problemlos mit anderen verfügbaren Datenquellen kombinieren lassen. Durch die Auswertung der Daten auf spezifische Muster oder den Kontext können möglicherweise auch Schlüsse auf individuelle Personen gezogen werden. Gleichzeitig ist es wichtig, dass die Daten für die Forschung nicht unbrauchbar werden, beispielsweise durch den Ersatz von zu vielen Informationen durch separat gespeicherte Zeichen, die keinen direkten Bezug zu den ursprünglichen Daten haben.

Moderne Verfahren wie Differential Privacy aggregieren die Daten mehrerer Personen, um persönliche Daten zu schützen. Dabei wird der Einfluss einzelner Personen reduziert und die Berechnungsergebnisse werden zusätzlich mit Rauschen versehen, um die Möglichkeit von neugierigen Angreifern, Informationen aus den Ergebnissen zu extrahieren, so weit wie möglich zu minimieren. Die Auswahl der Zufallsverteilungen, mit denen die Berechnungsergebnisse verfälscht werden, erfolgt sorgfältig, um nur minimale Abweichungen bei statistischen Auswertungen über große Datenmengen zu erzeugen und die statistische Gültigkeit der Auswertungen beizubehalten.

Schlagwörter: Datenschutz + Sensible Daten + DeAnonymisierung

Wie bewerten Sie den Schreibstil des Artikels?
1 Star2 Stars3 Stars4 Stars5 Stars
  • 8. Dezember 2023