Christian Stöcker (r.) im Gespräch mit seinen Studierenden. Fotocredit: Sebastian Isacu

Safer Internet Day 2021: Kommunikationsprofi Prof. Dr. Christian Stöcker im Interview

| | Blog

"Im Internet spielt Desinformation eine große Rolle."

Woran lassen sich Falschinformationen im Internet erkennen? Wie gelingt Meinungsbildung im digitalen Raum? Um diese und viele weitere Fragen dreht sich der heutige Safer Internet Day! In Deutschland lautet das Thema des weltweiten Aktionstags dieses Jahr: „Was glaube ich? – Meinungsbildung zwischen Fakt und Fake“. Wir haben uns anlässlich des Safer Internet Days mit Prof. Dr. Christian Stöcker, Leiter des Studiengangs „Digitale Kommunikation“ an der HAW Hamburg und Mitglied in unserem Beirat, über Fake News, Medienkompetenz bei Jugendlichen und die Grenzen der Meinungsfreiheit unterhalten.

Prof. Dr. Stöcker, im Internet hat es die Wahrheit offenbar schwer. Der amerikanische Präsident Joe Biden sprach in seiner Antrittsrede von einer Zeit der Prüfung, Angriff auf Demokratie und Wahrheit. Leben wir in einem Zeitalter der Lügen?

Lügen sind keine Erfindung des 21. Jahrhunderts. Es gab immer Zeiten, in denen viel gelogen wurde. Die neue Qualität ist einerseits, dass wir Plattformen haben, mit denen sich Lügen besser verbreiten lassen und andererseits, dass jetzt vier Jahre jemand im Weißen Haus saß, der permanent lügt. Dass wir in einem Zeitalter der Lügen leben, würde ich also nicht sagen – aber dass Desinformation im Internet eine große Rolle spielt, ist unbestreitbar.

Christian Stöcker
Christian Stöcker, Leiter des Studiengangs Digitale Kommunikation an der Hamburger Hochschule für Angewandte Wissenschaften (HAW)

In dem Zusammenhang fällt auch immer wieder der Begriff Fake News.

Der Begriff kam schon 2016 in den USA auf – als Bezeichnung für eine eng definierte Form gezielter Desinformation. Damals haben Plattformen insbesondere mit Social-Media-Optimierung Inhalte in die Welt gepumpt, die mit der Realität nichts zu tun haben – politisch motiviert, kommerziell oder beides. Dann kam Trump und hat alles, was ihm auf CNN oder in der Washington Post nicht passt, als Fake News bezeichnet. Vorher gab es die recht genaue Definition: Desinformation, die sich als Information tarnt. Der Begriff Fake News war dann sehr schnell praktisch unbrauchbar.

Und was meint der Begriff Fake News heute?

Wenn man heute fragt, bekommt man nur verwaschene Antworten. Die Zeitungsente fällt auch darunter – also versehentliche Falschinformationen. Wir haben gerade eine Umfrage unter 60 Wissenschaftlern, Kommunikations- und Medienleuten gemacht und gefragt, wie die Leute Fake News sehen und definieren. Am häufigsten werden Falschinformationen und Falschmeldungen genannt, an nächster Stelle steht aber schon „ungenauer Sammelbegriff“ für „Lügenpresse“ und Mainstreammedienkritik. Daran sieht man schon, dass dieser Begriff unscharf ist. Und die komplette rechte Szene in Deutschland und international hat den Begriff jetzt für nicht genehme Berichterstattung übernommen.

Sollte man ihn dennoch verwenden?

Ich rate seit Jahren davon ab. Ich würde lieber von kommerziell und politisch motivierter Desinformation sprechen. Also von absichtlicher Irreführung.

Ganz schön lang.

Das ist etwas länger, ja. Man spielt sonst aber das Spiel derer mit, die ihn gekapert haben. Man kann auch einfach erst einmal Desinformation statt Fake News sagen, damit wäre schon etwas gewonnen.

Was müssten Jugendliche heute über Wahrheit in den Medien wissen? Bildung soll ja ein Schlüssel gegen Desinformation sein.

Bildung ist ein ganz wichtiges Element. Im Projekt Klickwinkel, in dem wir die eben zitierte Umfrage gemacht haben, bringen wir Jugendlichen bei, wie man journalistische Videos dreht. Was ist Kolportage? Was ist ein Gerücht? Was ist eine glaubwürdige Quelle? Wir haben unterrichtsfertige Unterlagen produziert. All das tun wir, weil wir der Überzeugung sind, dass diese Themen in den Unterricht gehören. Das ist unerlässlich für eine demokratische Gesellschaft. Wenn man schreibt, XY behauptet dies oder jenes, dann muss die erste Frage sein, ob die Quelle vertrauenswürdig ist. Und so etwas ist unterrichtbar.

Sie sagen, man müsste Leuten beibringen, Quellen zu hinterfragen. Immer die Wahrheit zu ermitteln, kann aber auch ganz schön anstrengend sein…

Natürlich ist es für eine Gesellschaft eine Überforderung, dass man jetzt alles nachrecherchieren soll. Wie weit kann ich dabei gehen, den Leuten zu erklären, was eine vertrauenswürdige Quelle ist? Wichtig ist: Bevor du auf den Share-Button drückst, prüfe doch einmal kurz nach, bevor du dich selbst an der Erzeugung von Reichweite beteiligst. Meine 12-jährige Tochter ist in ihrer Klassen-WhatsApp-Gruppe, da posten Leute irgendwelchen ungeprüften Quatsch. Beim Googeln findet man dann schnell die Mimikama-Geschichte dazu, die den Hoax als solchen entlarvt. Es muss als unhöflich betrachtet werden, Dinge ungeprüft weiterzuleiten.

Welche Verantwortung tragen Plattformen beim Thema?

Die Plattformen sind der Ort, wo sich Inhalte verbreiten, ob wahr oder nicht. Das ist gar nicht unbedingt Absicht, sondern ein emergentes Phänomen auf Grundlage der algorithmischen Sortierung und der menschlichen Psychologie. Denn Studien zeigen glasklar: Aufreger skalieren besonders gut. Wenn ich Desinformation betreiben will, kann ich sie so gestalten, dass sie auf die richtigen Knöpfe drückt. Trump war als Präsident praktisch „outrage-optimiert“: Alles was er macht, erzeugt Wut, auch seine Gegner tragen dann zu seiner Reichweite bei. Immerhin: Bei Twitter wird man jetzt gefragt, ob man nicht erst einmal den Artikel lesen will, bevor man ihn mit einem Retweet weiterreicht. Trotzdem bleibt das ein Grundproblem des Geschäftsmodells aller Plattformen. Das ist nicht so überraschend, denn auch Boulevardjournalismus ist oft genug outrage-optimiert.

Sogar normaler Journalismus setzt auf Aufreger.

Auch der. Es liegt zudem nahe, dass auch klassische Medien ihre Angebote anpassen, wenn sie Reichweite auf sozialen Medien generieren wollen. Dieses Problem kann man nicht lösen, solange das Geschäftsmodell, Werbung, so ist, wie es ist. Es geht immer um Aufmerksamkeitszeit. Und die sammelt derjenige effektiv, der outrage-optimierte Inhalte verbreitet. Die erzeugen negative Externalitäten, unter anderem, mittelbar, sogar den Sturm aufs Kapitol. Im Moment werden die Unternehmen nicht dafür zur Rechenschaft gezogen.

Wie sollten die Regularien denn aussehen?

Bei Corona und US-Wahlen gibt es jetzt Warnhinweise, wenn eine Behauptung fragwürdig ist. Das ist ein Schritt in die richtige Richtung. Bei Hatespeech wollte das Netzwerkdurchsetzungsgesetz (NetzDG) erreichen, dass die Plattformen ihre menschlichen Moderationsteams aufstocken. Das wollten sie vorher nicht, weil es ihnen zu teuer war. Ist es möglich und sinnvoll, das auch in Bezug auf Unsinn machen zu lassen? Da bin ich skeptisch. Die Alternative wären Aufsichtsbehörden oder -organisationen, die demokratisch legitimiert sind, wie Landesmedienanstalten. Die sollten nicht löschen, aber dafür sorgen, dass die algorithmische Reichweite sinkt. Es wird immer von free speech geredet, aber derzeit gilt free reach für den größten Schrott.

Ist größter Schrott nicht Teil der Meinungsfreiheit?

Trotzdem kann ich ja dafür sorgen, dass der Schrott nicht größere Reichweite bekommt. Da sehe ich überhaupt kein Meinungsfreiheitsproblem. Nehmen wir das Thema Holocaustleugnung. Autocomplete, das das Verhalten des Publikums spiegelt, führte zum Suchvorschlag „Ist der Holocaust eine Lüge?“. Inzwischen gibt es für diese Begriffe kein Autocomplete mehr. Man hat aus dem Verhalten des Publikums eine Gruppe herausgeschält, deren Signale jetzt ignoriert werden. Dafür hat Google aber Jahre gebraucht. Jetzt ist der erste Treffer, wenn man „Ist der Hol…“ eintippt, „Ist der Holzapfel essbar?“.

Diese Gruppe darf also jetzt nicht mehr mitbestimmen, was der Algorithmus macht.

Das ist ja kein bestimmender Akt der kommunikativen Ermächtigung. Man hat ausgewählt, welche Signale man Autocomplete beeinflussen lässt. Die Leute, die das googeln, interessieren sich ja auch für die Antwort, also einen den Holocaust leugnenden Inhalt. Die Signale, von denen Maschinen lernen, sind wie kognitive Heuristiken: Pi-mal-Daumen-Maße für das, was man eigentlich messen will, etwa Relevanz oder Qualität.

Wenn wir Plattformen zu Hütern der Wahrheit aufbauen, müssen sie dann nicht sehr transparent sein?

Wenn wir die Algorithmen verraten, dann kann jeder für dieses System optimieren und es wird alles viel schlimmer. Dann sind da wieder drei Seiten Linkfänger auf den ersten Seiten wie vor 15 oder 20 Jahren. Ich habe keine elegante Lösung, aber es ist die einzig gangbare, die ich kenne: Wenn Leute bei einer Aufsichtsorganisation wie bei einer Datenschutzbehörde Beschwerden einreichen können, kann diese Organisation es prüfen. Sie kann aber auch von sich aus googeln, etwa mit einer Armada von Profilen oder Bots, die ständig prüfen, was nach oben gespült wird.

Klingt das nicht doch ein wenig nach Zensur?

Wenn es eine staatliche Behörde ist, würde ich das Argument akzeptieren. Aber wenn es eine Aufsichtsorganisation ist wie eine Landesmedienanstalt, die auf Basis fester Kriterien einen Inhalt für problematisch erklären kann, und dieser Inhalt keine zusätzliche Reichweite mehr bekommt, dann ist die Redefreiheit nicht eingeschränkt. Es gibt kein Grundrecht auf algorithmisch oder viral erzeugte Reichweite.

Prof. Stöcker, wir danken fürs Gespräch!

Share on facebook
Share on twitter
Share on linkedin
Share on xing
Share on print
Weitere Artikel

3 Fragen an unser Beiratsmitglied Agnes Chung

Wir haben mit Beiratsmitglied und Gründerin Agnes Chung über aktuelle Herausforderungen der Branche, ihre Liebe zu Hamburg und über ihren Wunsch, sich bald wieder persönlich mit anderen Macher*innen der Stadt austauschen zu können, gesprochen.

Mehr lesen
Jetzt für unseren Content & Tech Inkubator bewerben
This is default text for notification bar
X