Apple entfernt Nudify-Apps aus dem App Store aufgrund gesellschaftlicher Bedenken

Vor fünf Jahren sorgte eine App namens Deep Nude für Aufsehen in den Medien. Diese App ermöglichte es, Personen auf Fotos virtuell zu entkleiden, indem sie einen Machine-Learning-Algorithmus nutzte. Aufgrund der Fortschritte im Bereich der Künstlichen Intelligenz sind derartige Nudify-Apps technisch gesehen mittlerweile kein relevantes Thema mehr. Doch die negativen gesellschaftlichen Auswirkungen sind umso größer.

Apple hat nun entschieden, drei Apps aus dem App Store zu entfernen. Laut dem Onlineportal 404Media soll dies aufgrund der Meldung des Portals geschehen sein. 404Media gab an, Apple und Google über das Vorhandensein mehrerer KI-Nackt-Apps informiert zu haben, die anschließend gelöscht wurden. Warum Apple den Apps nicht von Anfang an den Zugang im App Review verweigert hat, bleibt unklar. Die Anbieter der Apps haben in geschalteten Instagram-Anzeigen deutlich gemacht, wofür sie verwendet werden können. Die Beschreibungen, die die Entwickler bei Apple für den App Store eingereicht haben, suggerierten hingegen eine harmlosere Verwendung der App. Möglicherweise haben die Prüfer deshalb nicht erkannt, mit welcher Art von Anwendung sie es eigentlich zu tun haben.

Es scheint, dass dies für die Anbieter solcher Apps ein äußerst profitables Geschäftsmodell ist. Im Dezember 2023 hat das Analyse-Unternehmen Graphika insgesamt 34 Anbieter untersucht und herausgefunden, dass diese allein im September über 24 Millionen Besucher verzeichneten. Die meisten Anbieter stellen diese Apps im Freemium-Modell zur Verfügung, bei dem einige wenige Bilder kostenlos zur Probe erstellt werden können, während weitere gegen Gebühr erhältlich sind. Es ist kaum verwunderlich, dass solche Apps in der Regel ohne Einwilligung der betroffenen Personen genutzt werden. Die Verwendung solcher Bilder, die manchmal nicht einmal als Deep Fake erkannt werden können, hat besonders schwerwiegende Auswirkungen, wenn sie verbreitet werden. Ein Beispiel dafür ist eine spanische Kleinstadt, in der von Jugendlichen erstellte KI-generierte Nacktbilder von Schülerinnen verbreitet wurden.

Apple hat selbst Schutzmechanismen in das Betriebssystem integriert, um die unerwünschte Anzeige von Nacktaufnahmen zu verhindern und das einfache Verschicken eigener Nacktfotos per iMessage zu unterbinden. Besonders im Hinblick auf Minderjährige wurde dies umgesetzt. Die Entwickler von Apps müssen sich an die App Review Guidelines halten, die in mehreren Punkten genutzt werden können, um KI-Nackt-Apps zu verbieten. Diese Richtlinien schließen beispielsweise Falschinformationen, eindeutig sexuelles Material und diskriminierende Inhalte aus.

Schlagwörter: Apple + Deep Nude + App Store

Wie bewerten Sie den Schreibstil des Artikels?
1 Star2 Stars3 Stars4 Stars5 Stars
  • 29. April 2024