Copyright by ApolitikNow (Flickr)

Täuschend echte Deepfakes: 45 Prozent der Deutschen fürchten, gefälschte Videos nicht (mehr) erkennen zu können

Täuschend echte Deepfakes: 45 Prozent der Deutschen fürchten, gefälschte Videos nicht (mehr) erkennen zu können

  • Mehrheit (58,1 Prozent) fordert Kennzeichnungspflicht von manipulierten Inhalte
  • 71,5 Prozent sehen in Deepfakes eine Gefahr für die Glaubwürdigkeit der Medien
  • Aber: Künstliche Intelligenz weckt als Zukunftstechnologie auch viele Hoffnungen

Hamburg, 11. August 2021 – Ein kurzes Tippen auf das Smartphone – und schon lächelt das eigene Gesicht von Supermans Körper oder aus dem neuen Beyoncé-Musikvideo. Möglich machen dies sogenannte Deepfake-Anwendungen wie „Reface“ oder „Faceswap“, die mit Hilfe Künstlicher Intelligenz (KI) authentisch wirkende Video-Illusionen erzeugen und vor allem in sozialen Netzwerken beliebt sind. Eine neue repräsentative Umfrage von nextMedia.Hamburg¹ zeigt jedoch: Vielen Menschen in Deutschland bereiten die automatisierten Manipulations-Möglichkeiten von Video, Bild oder Ton durch KI Sorgen. Knapp drei Viertel (71,5 Prozent) der Befragten sehen in Deepfakes eine Gefahr für die Glaubwürdigkeit der Medien. 58,8 Prozent der Umfrage-Teilnehmer*innen fürchten, dass sie für kriminelle Zwecke missbraucht werden.

Denn was bei den lustigen Deepfake-Apps ein großer Spaß ist, kann bei bewussten Täuschungen und manipulierten Nachrichten schnell zum Problem werden: Etwa wenn Identitäten gestohlen oder Politiker*innen Worte in den Mund gelegt werden, die sie nie gesagt haben. Fast jede*r Zweite (44,8 Prozent) hat inzwischen Angst, Fälschungen nicht mehr erkennen zu können, weil Deepfake-Algorithmen Gesichtszüge und Stimmen heutzutage nahezu perfekt imitieren. 39,1 Prozent der Befragten zweifeln bereits an der Echtheit mancher Inhalte.

„Bis vor einigen Jahren galten Videos und Tonaufnahmen in der Regel als Belege für Realität. Durch KI-generierte Deepfake-Videos ist es für Konsument*innen schwieriger geworden, die grundsätzliche Echtheit von Informationen zu bewerten“, so Dr. Nina Klaß, Leiterin von nextMedia.Hamburg. „Viele der Deepfakes, die uns heute in den sozialen Medien begegnen, werden kreativ und für Unterhaltungszwecke entwickelt, aber natürlich gibt es da auch negative Ausnahmen, die vor allem der Täuschung der Öffentlichkeit und der bewussten Verzerrung von Fakten dienen. Deswegen gilt es, Aufklärung darüber zu betreiben, was technisch bereits alles möglich ist und im zweiten Schritt eine Kennzeichnungspflicht von Deepfake-Inhalten einzuführen.“

In der Umfrage von nextMedia.Hamburg gaben rund zwei von drei Teilnehmer*innen (61,9 Prozent) zu, nicht genug über Deepfakes zu wissen, um sie einem Freund oder Bekannten erklären zu können. Von denjenigen, die die Technologie verstanden haben, sprach sich eine klare Mehrheit (58,1 Prozent) für eine Deepfake-Kennzeichnungspflicht aus.

Künstliche Intelligenz: Eine Technologie – viele Hoffnungen

Unabhängig vom Thema Deepfakes knüpfen die Menschen in Deutschland überwiegend Hoffnungen an Künstliche Intelligenz als Zukunftstechnologie. Viele glauben, dass KI ihr Leben einfacher (39,4 Prozent) und sicherer (25,3 Prozent) macht. Und jeweils rund jede*r Dritte hofft, dass sich dank KI die Effizienz der eigenen Arbeit erhöht (34,7 Prozent) und Zeit gespart wird (32,2 Prozent). Aber auch Skeptiker*innen gibt es: 34,6 Prozent der Befragten versprechen sich durch KI nichts von alledem.

¹Das digitale Markt- und Meinungsforschungsunternehmen Civey hat im Auftrag von nextMedia.Hamburg zwischen dem 28. Juni und dem 11. Juli 2021 über 2.500 Menschen in Deutschland befragt. Die Ergebnisse sind repräsentativ für die deutsche Gesamtbevölkerung.

Pressekontakte:

Marc Lechtenfeld
Faktor 3 AG
+49 40-67 94 46 6103
m.lechtenfeld@faktor3.de

Paula Lauterbach
nextMedia.Hamburg
+49 40-8797 986 123
paula.lauterbach@nextmedia-hamburg.de

X