Studie enthüllt: Deepfakes werden unseren Alltag revolutionieren

Das Fraunhofer ISI hat im Auftrag von TA-SWISS eine neue Studie durchgeführt, um das Thema Deepfakes genauer unter die Lupe zu nehmen. Deepfakes, das sind täuschend echte Fälschungen in Form von Audio- oder Videoinhalten, die mithilfe von KI-gesteuerten Generatoren erstellt werden. Die Studie mit dem Titel „Deepfakes und manipulierte Realitäten“ zeigt, dass Deepfake-Technologien in Zukunft einen festen Platz in unserer Alltagskultur einnehmen werden.

Die Studie erklärt zunächst den aktuellen Stand der Deepfake-Technologien und untersucht dann, wie bekannt diese Technologie in der Schweizer Bevölkerung ist. Dabei stellt sich heraus, dass der Begriff „Deepfake“ für viele noch unbekannt ist. Nur etwa die Hälfte der befragten Personen hat bereits von Deepfakes gehört oder selbst welche gesehen. Kaum jemand hat Erfahrungen im Erstellen oder Verbreiten von Deepfakes gesammelt.

Ein Experiment im Rahmen der Studie zeigt, dass die meisten Menschen Deepfakes nur schwer von echten Videos unterscheiden können, insbesondere wenn die Qualität hoch ist. Die befragten Personen verbinden Deepfakes vor allem mit Risiken und weniger mit Chancen. Interessanterweise fällt die Bewertung von Deepfakes jedoch positiver aus, wenn sie als „synthetische Medien“ bezeichnet werden, anstatt als Deepfakes.

Die Studie untersucht auch die Bedeutung von Deepfakes in verschiedenen Bereichen wie Justiz, Journalismus, Politik und Wirtschaft. Dabei werden Interviews mit Experten und Umfragen unter Vertretern dieser Bereiche durchgeführt. In den Bereichen Journalismus und Politik werden Deepfakes vor allem als Risiko wahrgenommen und mit Desinformation in Verbindung gebracht. Journalisten betonen die Notwendigkeit, das Publikum für Deepfakes zu sensibilisieren und Inhalte auf ihre Echtheit zu überprüfen. Auch Politiker und Mitglieder der Bundesverwaltung äußern Bedenken über die negativen Auswirkungen von Deepfakes auf die Demokratie und politische Institutionen.

Die Studie zeigt, dass es derzeit nur wenige konkrete Schutzmaßnahmen gegen Deepfakes gibt. Obwohl bestimmte Anwendungsfälle von Deepfake-Technologien eindeutig rechtswidrig sind, genießen Deepfakes in anderen Fällen Schutz durch Meinungs-, Informations- und Kunstfreiheit oder das Urheberrecht. Die Studie betont jedoch auch das kreative und wirtschaftliche Potenzial von Deepfakes, insbesondere im Bereich der Wirtschaft. Gleichzeitig weisen Vertreter der Wirtschaft auf mögliche Gefahren hin, wie Identitätsbetrug oder Rufschädigung von Unternehmen.

Die Studie stellt vier zentrale Empfehlungen auf: Erstens sollten staatliche Bemühungen zur Regulierung von Plattformen vorangetrieben werden, um einen nachhaltigen Umgang mit Deepfake-Technologien zu gewährleisten. Zweitens ist es wichtig, die Bildung und Medienkompetenz der Bevölkerung zu stärken und Opferberatungsstellen zu unterstützen. Drittens sollten Organisationen in allen Bereichen sich auf die wachsende Präsenz von Deepfakes vorbereiten und entsprechende Maßnahmen ergreifen. Und viertens kann der Journalismus durch die Aufrechterhaltung journalistischer Standards dazu beitragen, Deepfakes besser zu erkennen und das Publikum über gefälschte Inhalte aufzuklären.

Es ist klar, dass Deepfakes eine Herausforderung für Politik, Wirtschaft und Gesellschaft darstellen. Es ist wichtig, sich der schnellen technologischen Entwicklung bewusst zu sein und darauf vorbereitet zu sein, angemessen zu reagieren. Denn auch wenn Deepfakes derzeit noch relativ selten anzutreffen sind, ist es nur eine Frage der Zeit, bis sie unseren Alltag prägen werden.

Schlagwörter: Deepfakes + ISI + TA-SWISS

Wie bewerten Sie den Schreibstil des Artikels?
1 Star2 Stars3 Stars4 Stars5 Stars
  • 18. Juni 2024

This website stores cookies on your computer. These cookies are used to provide a more personalized experience and to track your whereabouts around our website in compliance with the European General Data Protection Regulation. If you decide to to opt-out of any future tracking, a cookie will be setup in your browser to remember this choice for one year.

Accept or Deny