Maschine, Mensch, Meinung - Prof. Dr. Andreas Moring erklärt, wie KI gegen Fake News helfen kann.

KI gegen Propaganda

Kann Machine Learning Fake News erkennen?

Fake News, Lügenkampagnen und automatisierte Propaganda sind eine der größten Herausforderungen für demokratische Gesellschaften, die Politik und alle Media Worker. Künstliche Intelligenz wird von einigen Experten als die ultimative Lösung dieses Problems angepriesen. Zu Recht? Was kann KI gegen Fake News ausrichten – und was nicht?

Der Auftritt vor dem Untersuchungsausschuss des US-Kongresses war ihm ebenso unangenehm wie die Befragung vor dem Ausschuss des Europäischen Parlaments: Mark Zuckerberg, Chef von Facebook, Instagram und WhatsApp, musste sich dafür rechtfertigen, dass seine Plattformen und Messenger-Dienste zu Fake News-Schleudern verkommen seien. Natürlich sollte er auch eine Antwort auf die Frage geben, was er denn dagegen unternehmen wolle. Seine Antwort: KI wird das lösen. Das stimmt. Aber nur zum Teil. Denn die Technologien der Künstlichen Intelligenz können hier zwar massiv helfen, das Problem lösen werden sie aber nicht. Facebook selbst hat das auch erkannt, denn das Unternehmen setzt de facto eben nicht allein auf KI, sondern auch und gerade auf die menschliche Urteilskraft seiner Nutzer.

Und das Problem der Fake News wird nicht unbedingt kleiner. Ganz im Gegenteil: Die Präsidentschaftswahlen in den USA stehen weiter im begründeten Verdacht, durch Fake News zu Gunsten von Donald Trump manipuliert worden zu sein. Auch beim Brexit-Votum sind Falschinformationen gestreut worden – die Folgen spüren wir alle aktueller und deutlicher als je zuvor. Bei der Präsidentschaftswahl in Brasilien nutzte das Team von Wahlgewinner Jair Bolsonaro, massive Fake News-Kampagnen über WhatsApp, um Wähler zu mobilisieren und seine Gegner zu diskreditieren. Im Jahr 2019 stehen wichtige Europawahlen an und spätestens Ende des Jahres wird auch die Politik in den USA wieder voll auf Wahlkampfmodus umschalten. Hochzeiten für Fake News, automatisierte Social-Bot-Armeen und Troll-Fabriken. In Medien, Politik, Unternehmen und der Forschung steht das Thema seither ganz oben auf der Agenda. Auch wenn keine Lösung gefunden ist, lassen sich doch wenigstens erste erfolgversprechende Ansätze finden. Genau genommen handelt es sich hier um vier Ansätze gegen Fake News, die auf Data Science und Künstlicher Intelligenz beruhen: Die Überprüfung einzelner Tatsachenbehauptungen, das Erkennen von gefälschten Artikeln, das Aufspüren und Identifizieren von Trollen und die Bewertung der Glaubwürdigkeit von Nachrichtenquellen.

Geht es um die Glaubwürdigkeit von Nachrichtenquellen, so wurde bisher versucht, die Zuverlässigkeit eines Angebots anhand der Frage zu beurteilen, wie viele seiner Aussagen zu Aussagen passen, die bereits auf ihre Korrektheit überprüft wurden, oder ihnen widersprechen. Eine Maschine vergleicht also die Historie von Tatsachen-Behauptungen der Medien mit den Befunden von Checking-Seiten wie Snopes oder PolitiFact. Doch dieser Mechanismus basiert auf Fakten-Überprüfungen durch menschliche Experten und bezieht sich nur auf die Geschichte eines Angebots, nicht auf die Gegenwart. Künstliche Intelligenz spielt hier also nicht wirklich eine Rolle. Machine Learning und KI können hier aber im nächsten Schritt eingesetzt werden.

Das geht zum Beispiel über das Erkennen von Mustern in Texten oder Fotos. Neuronale Netze lassen sich trainieren, typische Muster und Bestandteile in Fake News zu erkennen. Dazu braucht das Netz für das Training einen möglichst großen Satz an „echten“ Fake News. In einem selbständigen Lernprozess kann das Netz identifizieren, welche Kriterien und Details in diesen Datensätzen immer wieder vorkommen und daraus Gesetzmäßigkeiten und statistische Wahrscheinlichkeiten ableiten. Das ist sowohl für Texte als auch für Bilder und Videos möglich. Kleiner Haken: Das funktioniert nur dann, wenn die falschen Meldungen auch die bekannten und gelernten Kriterien aufweisen. Sind sie modifiziert, von Menschen oder von Algorithmen auf der Gegenseite, dann sind sie nur schwierig zu erkennen.

Word Embeddings und semantische Analyse sind ähnliche Methoden, um Fake News maschinell zu identifizieren. So sind Natural Language Processing und Word Embedding Technologien in der Lage, Wortbedeutungen, Redewendungen oder Ausdrucksweisen zuzuordnen. Basis sind auch hier wieder möglichst große Datenbestände, die durchforstet und analysiert werden. Die Frage, der nachgegangen wird: Welche Worte und Ausdrücke stehen mit welchen anderen in einer statistisch signifikanten Beziehung? Daraus lässt sich ableiten, welche Worte oder Wortkombinationen oder auch welche Synonyme und Umschreibungen in bestimmten Zusammenhängen – in dem Fall Fake News – typisch sind und die KI kann sie identifizieren. Aber auch hier gilt: Nur was aus der Vergangenheit bekannt ist, kann überhaupt gefunden und klassifiziert werden. 

Weil die inhaltlich ausgerichteten KI- und Machine Learning-Methoden bei aller Leistungsfähigkeit eben auch ihre Schwachpunkte haben, wird ein weiteres Verfahren eingesetzt. Auch hier kommen neuronale Netze und Machine Learning-Technologien zum Einsatz, aber bezogen auf andere Basisdaten und sozusagen mit einer anderen Lern- und Suchaufgabe. Dieses Vorgehen orientiert sich an der simplen und treffenden Wahrheit, dass Menschen – oder Systeme – ehrlich sind, mit dem was sie tun. Anstatt also Muster in Texten, Bildern, Videos, Post oder Messenger-Nachrichten und deren Inhalten lernen und erkennen zu wollen, geht es hier darum, Verhaltensmuster oder typische Strategien zu erkennen, die vor allem bei der Lancierung und der Verbreitung von Fake News zum Einsatz kommen, weil sie sich offensichtlich als „erfolgreich“ erwiesen haben. Wenn solche Strategien rechtzeitig erkannt werden, lässt sich durchaus etwas gegen die Verbreitung von Fake News tun und im besten Falle sogar durch Rückverfolgung die Quelle identifizieren. Ein Beispiel wie so etwas in kleinerem Rahmen – nämlich bezogen auf einen Präsidenten und seinen Stab – durchaus gut funktioniert ist der TrumpOrNotBot auf Twitter, der ziemlich treffsicher sagen kann, ob der echte Donald Trump mal wieder Nachrichten absetzt oder nicht.

Mit Künstlicher Intelligenz lässt sich also im Kampf gegen Fake News einiges erreichen, aber der Kampf nicht völlig gewinnen. Auch wenn Marc Zuckerberg das zumindest offiziell behauptet, sein Unternehmen dann aber etwas anderes tut (… siehe oben zum Thema „Ehrlichkeit“). Das liegt an inhärenten Schwachstellen der beschriebenen Methoden, die auch nicht neutralisiert werden können. Das ist zum einen der Mangel an Daten. Je mehr Daten eine KI zum Lernen nutzen kann, umso besser ist ihre Funktionsweise und ihre Erfolgsquote. Bei Falschmeldungen und Propaganda ist es nun mal so, dass sie eben alles andere als transparent und leicht erkennbar sind. Zudem bezieht sich die Datenlage, wie schon beschrieben immer auf die Vergangenheit. Dabei kommt es darauf an, Fake News möglichst schnell im Hier und Jetzt zu erkennen. Des Weiteren sind Machine Learning-Algorithmen umso besser, je eindeutiger ihre Trainingsdaten sind. Was ist aber eine eindeutige „Wahrheit“ in einer freien Medienlandschaft? Können Falschmeldungen und Propaganda zweifelsfrei verglichen und identifiziert werden können? Spätestens hier kommt es also auf menschliche Urteilskraft im Allgemeinen und von Journalisten und Medienprofis im Besonderen an. Denn nur beides zusammen, Machine Learning und menschliche Professionalität, sind der beste und einzige Schutz vor Fake News & Co.

Zum Autor: Professor Doktor Andreas Moring ist Professor für Innovation & Digital Management an der International School of Management ISM in Hamburg. Die Schwerpunkte seiner wissenschaftlichen Arbeit sind Digitale Geschäftsmodelle für Medien und Innovationsmanagement. Vor seiner aktuellen Professur arbeitete er für die Axel Springer AG, Schickler Unternehmensberatung und die Deutsche Druck- und Verlagsgesellschaft. Er wurde für seine journalistische Arbeit und von ihm entwickelte Produkte und Formate in den letzten Jahren mehrfach ausgezeichnet.

Share on facebook
Share on twitter
Share on linkedin
Share on xing
Share on print
Weitere Artikel
Der dritte Media Innovation Report zeigt: Das Vertrauen der Deutschen in KIs steigt.

So denken die Deutschen über Künstliche Intelligenzen

Der dritte Teil unseres Media Innovation Reports, der in Zusammenarbeit mit Statista durchgeführt wurde, zeigt auf, dass das Vertrauen der Deutschen in Künstliche Intelligenzen im letzten Jahr enorm zugenommen hat. Weitere Einzelheiten und Ergebnisse der Studie gibt es hier in der Zusammenfassung.

Mehr lesen
Das Team "Erlebnismobilität" wagt einen Blick in die Zukunft.

Content Foresight: Team Erlebnismobilität blickt in die Zukunft

Es ist eine der am häufigsten gestellten Fragen: Wie wird sich unsere Welt in den nächsten Jahren entwickeln? Welche Auswirkungen wird das auf unser Nutzungsverhalten von Medien haben? Und wie wird sich generell die Mobilitätssituation auf Straßen und in der Luft verändern? Das Team Erlebnismobilität hat sich im Rahmen von Content Foresight an die Beantwortung dieser Frage gemacht.

Mehr lesen
Übernimmt die Moderation des scoopcamp 2019: Astrid Rolle.

scoopcamp-Moderatorin Astrid Rolle im Interview

Moderatorin, Redakteurin, Nachrichtensprecherin und Bewegtbild-Produzentin – Tausendsassa Astrid Rolle übernimmt in diesem Jahr die Moderation des scoopcamp 2019. Wir haben uns im Vorfeld ihrer scoopcamp-Premiere mit ihr über visuellen Journalismus, Monetarisierungsmöglichkeiten journalistischer Angebote und neue Medientrends unterhalten.

Mehr lesen
Mit Mobile Wallet Marketing wird die native Wallet App auf unseren Smartphones zu einem individualisierten, kontextbezogenen Kommunikationskanal. Wie das geht, erklärt Lars Kuhnert von Team Wallie. in seinem Gastbeitrag.

Team Wallie. erklärt Mobile Wallet

Mobile Wallet Marketing? Für viele noch eine fremde Disziplin, dabei ist es ein bekanntes und in anderen Teilen der Welt weit verbreiteter Marketingkanal. Mit Mobile Wallet Marketing wird die native Wallet App auf unseren Smartphones zu einem individualisierten, kontextbezogenen Kommunikationskanal. Wie das geht, erklärt Lars Kuhnert von Team Wallie. in seinem Gastbeitrag.

Mehr lesen
Team NewsSeam, Team SPACE WALK und Team Wallie. können sich über erste Erfolge freuen.

NewsSeam, SPACE WALK und Wallie. feiern erste Erfolge

Während die erste Phase unseres Inkubators MEDIA LIFT noch in vollem Gange ist, können die ersten drei Teams bereits erfreuliche Nachrichten vermelden. Im Blogbeitrag zeigen wir euch, wie weit Team NewsSeam, Team SPACE WALK und Team Wallie. schon sind, woran sie gerade arbeiten und wie sie die letzten Wochen erlebt haben.

Mehr lesen
Am 05.09. werden die Ergebnisse von Content Foresight Mobility erstmals vorgestellt.

Team hARmburg steuert auf Content Foresight Play Day zu

Seit einem Monat befinden sich die Teams von Content Foresight Mobility nun schon in der Prototyping-Phase und arbeiten in disziplinübergreifenden Teams an der Ausarbeitung ihrer Projekte. Das große Ziel: Der 5. September, an dem alle Kreativen und Beteiligten beim Play Day zusammenkommen und ihre Projektergebnisse präsentieren. Höchste Zeit, uns mit dem Team hARmburg zu unterhalten.

Mehr lesen
X