Maschine, Mensch, Meinung - Prof. Dr. Andreas Moring zeigt die Potenziale von Künstlicher Intelligenz auf.

KI gegen Propaganda

Kann Machine Learning Fake News erkennen?

Fake News, Lügenkampagnen und automatisierte Propaganda sind eine der größten Herausforderungen für demokratische Gesellschaften, die Politik und alle Media Worker. Künstliche Intelligenz wird von einigen Experten als die ultimative Lösung dieses Problems angepriesen. Zu Recht? Was kann KI gegen Fake News ausrichten – und was nicht?

Der Auftritt vor dem Untersuchungsausschuss des US-Kongresses war ihm ebenso unangenehm wie die Befragung vor dem Ausschuss des Europäischen Parlaments: Mark Zuckerberg, Chef von Facebook, Instagram und WhatsApp, musste sich dafür rechtfertigen, dass seine Plattformen und Messenger-Dienste zu Fake News-Schleudern verkommen seien. Natürlich sollte er auch eine Antwort auf die Frage geben, was er denn dagegen unternehmen wolle. Seine Antwort: KI wird das lösen. Das stimmt. Aber nur zum Teil. Denn die Technologien der Künstlichen Intelligenz können hier zwar massiv helfen, das Problem lösen werden sie aber nicht. Facebook selbst hat das auch erkannt, denn das Unternehmen setzt de facto eben nicht allein auf KI, sondern auch und gerade auf die menschliche Urteilskraft seiner Nutzer.

Und das Problem der Fake News wird nicht unbedingt kleiner. Ganz im Gegenteil: Die Präsidentschaftswahlen in den USA stehen weiter im begründeten Verdacht, durch Fake News zu Gunsten von Donald Trump manipuliert worden zu sein. Auch beim Brexit-Votum sind Falschinformationen gestreut worden – die Folgen spüren wir alle aktueller und deutlicher als je zuvor. Bei der Präsidentschaftswahl in Brasilien nutzte das Team von Wahlgewinner Jair Bolsonaro, massive Fake News-Kampagnen über WhatsApp, um Wähler zu mobilisieren und seine Gegner zu diskreditieren. Im Jahr 2019 stehen wichtige Europawahlen an und spätestens Ende des Jahres wird auch die Politik in den USA wieder voll auf Wahlkampfmodus umschalten. Hochzeiten für Fake News, automatisierte Social-Bot-Armeen und Troll-Fabriken. In Medien, Politik, Unternehmen und der Forschung steht das Thema seither ganz oben auf der Agenda. Auch wenn keine Lösung gefunden ist, lassen sich doch wenigstens erste erfolgversprechende Ansätze finden. Genau genommen handelt es sich hier um vier Ansätze gegen Fake News, die auf Data Science und Künstlicher Intelligenz beruhen: Die Überprüfung einzelner Tatsachenbehauptungen, das Erkennen von gefälschten Artikeln, das Aufspüren und Identifizieren von Trollen und die Bewertung der Glaubwürdigkeit von Nachrichtenquellen.

Geht es um die Glaubwürdigkeit von Nachrichtenquellen, so wurde bisher versucht, die Zuverlässigkeit eines Angebots anhand der Frage zu beurteilen, wie viele seiner Aussagen zu Aussagen passen, die bereits auf ihre Korrektheit überprüft wurden, oder ihnen widersprechen. Eine Maschine vergleicht also die Historie von Tatsachen-Behauptungen der Medien mit den Befunden von Checking-Seiten wie Snopes oder PolitiFact. Doch dieser Mechanismus basiert auf Fakten-Überprüfungen durch menschliche Experten und bezieht sich nur auf die Geschichte eines Angebots, nicht auf die Gegenwart. Künstliche Intelligenz spielt hier also nicht wirklich eine Rolle. Machine Learning und KI können hier aber im nächsten Schritt eingesetzt werden.

Das geht zum Beispiel über das Erkennen von Mustern in Texten oder Fotos. Neuronale Netze lassen sich trainieren, typische Muster und Bestandteile in Fake News zu erkennen. Dazu braucht das Netz für das Training einen möglichst großen Satz an „echten“ Fake News. In einem selbständigen Lernprozess kann das Netz identifizieren, welche Kriterien und Details in diesen Datensätzen immer wieder vorkommen und daraus Gesetzmäßigkeiten und statistische Wahrscheinlichkeiten ableiten. Das ist sowohl für Texte als auch für Bilder und Videos möglich. Kleiner Haken: Das funktioniert nur dann, wenn die falschen Meldungen auch die bekannten und gelernten Kriterien aufweisen. Sind sie modifiziert, von Menschen oder von Algorithmen auf der Gegenseite, dann sind sie nur schwierig zu erkennen.

Word Embeddings und semantische Analyse sind ähnliche Methoden, um Fake News maschinell zu identifizieren. So sind Natural Language Processing und Word Embedding Technologien in der Lage, Wortbedeutungen, Redewendungen oder Ausdrucksweisen zuzuordnen. Basis sind auch hier wieder möglichst große Datenbestände, die durchforstet und analysiert werden. Die Frage, der nachgegangen wird: Welche Worte und Ausdrücke stehen mit welchen anderen in einer statistisch signifikanten Beziehung? Daraus lässt sich ableiten, welche Worte oder Wortkombinationen oder auch welche Synonyme und Umschreibungen in bestimmten Zusammenhängen – in dem Fall Fake News – typisch sind und die KI kann sie identifizieren. Aber auch hier gilt: Nur was aus der Vergangenheit bekannt ist, kann überhaupt gefunden und klassifiziert werden. 

Weil die inhaltlich ausgerichteten KI- und Machine Learning-Methoden bei aller Leistungsfähigkeit eben auch ihre Schwachpunkte haben, wird ein weiteres Verfahren eingesetzt. Auch hier kommen neuronale Netze und Machine Learning-Technologien zum Einsatz, aber bezogen auf andere Basisdaten und sozusagen mit einer anderen Lern- und Suchaufgabe. Dieses Vorgehen orientiert sich an der simplen und treffenden Wahrheit, dass Menschen – oder Systeme – ehrlich sind, mit dem was sie tun. Anstatt also Muster in Texten, Bildern, Videos, Post oder Messenger-Nachrichten und deren Inhalten lernen und erkennen zu wollen, geht es hier darum, Verhaltensmuster oder typische Strategien zu erkennen, die vor allem bei der Lancierung und der Verbreitung von Fake News zum Einsatz kommen, weil sie sich offensichtlich als „erfolgreich“ erwiesen haben. Wenn solche Strategien rechtzeitig erkannt werden, lässt sich durchaus etwas gegen die Verbreitung von Fake News tun und im besten Falle sogar durch Rückverfolgung die Quelle identifizieren. Ein Beispiel wie so etwas in kleinerem Rahmen – nämlich bezogen auf einen Präsidenten und seinen Stab – durchaus gut funktioniert ist der TrumpOrNotBot auf Twitter, der ziemlich treffsicher sagen kann, ob der echte Donald Trump mal wieder Nachrichten absetzt oder nicht.

Mit Künstlicher Intelligenz lässt sich also im Kampf gegen Fake News einiges erreichen, aber der Kampf nicht völlig gewinnen. Auch wenn Marc Zuckerberg das zumindest offiziell behauptet, sein Unternehmen dann aber etwas anderes tut (… siehe oben zum Thema „Ehrlichkeit“). Das liegt an inhärenten Schwachstellen der beschriebenen Methoden, die auch nicht neutralisiert werden können. Das ist zum einen der Mangel an Daten. Je mehr Daten eine KI zum Lernen nutzen kann, umso besser ist ihre Funktionsweise und ihre Erfolgsquote. Bei Falschmeldungen und Propaganda ist es nun mal so, dass sie eben alles andere als transparent und leicht erkennbar sind. Zudem bezieht sich die Datenlage, wie schon beschrieben immer auf die Vergangenheit. Dabei kommt es darauf an, Fake News möglichst schnell im Hier und Jetzt zu erkennen. Des Weiteren sind Machine Learning-Algorithmen umso besser, je eindeutiger ihre Trainingsdaten sind. Was ist aber eine eindeutige „Wahrheit“ in einer freien Medienlandschaft? Können Falschmeldungen und Propaganda zweifelsfrei verglichen und identifiziert werden können? Spätestens hier kommt es also auf menschliche Urteilskraft im Allgemeinen und von Journalisten und Medienprofis im Besonderen an. Denn nur beides zusammen, Machine Learning und menschliche Professionalität, sind der beste und einzige Schutz vor Fake News & Co.

Zum Autor: Professor Doktor Andreas Moring ist Professor für Innovation & Digital Management an der International School of Management ISM in Hamburg. Die Schwerpunkte seiner wissenschaftlichen Arbeit sind Digitale Geschäftsmodelle für Medien und Innovationsmanagement. Vor seiner aktuellen Professur arbeitete er für die Axel Springer AG, Schickler Unternehmensberatung und die Deutsche Druck- und Verlagsgesellschaft. Er wurde für seine journalistische Arbeit und von ihm entwickelte Produkte und Formate in den letzten Jahren mehrfach ausgezeichnet.

Share on facebook
Share on twitter
Share on linkedin
Share on xing
Share on print
Weitere Artikel
Das Greenhouse Innovation Lab von Gruner + Jahr wird die zweite Station beim diesjährigen Media Innovation Buzz sein.

Media Innovation Buzz: Tim Adler stellt Greenhouse von G+J vor

Im Vorfeld des zweiten Media Innovation Buzz haben wir uns mit Tim Adler, Geschäftsführer des Greenhouse Innovation Lab von Gruner + Jahr, über Erfolgsfaktoren von Gründungsideen, die Rolle des Greenhouse Innovation Labs bei Gruner + Jahr und die bevorstehende Innovationstour durch Hamburg unterhalten.

Mehr lesen
Um diese Zusammenarbeit gleich in die richtigen Bahnen zu lenken und mit einem gemeinsamen Grundverständnis zu beginnen, startete das Prototyping Lab mit einem Design-Sprint.

Prototyping Lab geht in die zweite Runde

Das zweite Prototyping Lab ist mit einem Design-Sprint im Coworking Space finhaven gestartet. Das Projekt bringt auch in diesem Jahr Studierende verschiedener Hochschulen mit renommierten Hamburger Medienhäusern zusammen, um gemeinsam mit neuen Technologien zu experimentieren. Zum Auftakt erarbeiteten die neuen Teams erste Entwicklungsansätze für ihre Prototypen.

Mehr lesen
Das etwas andere mobile Büro: Contentflow-Mitgründer Gregor Landwehr auf der Kirmes. Fotocredit: Julia Kneuse

Gregor Landwehr über das Erfolgsrezept von Contentflow

Kurz vor dem Graduation Pitch bei unserem Inkubator haben wir uns mit MEDIA LIFT-Mentor und contentflow-Gründer Gregor Landwehr darüber unterhalten, wie sein Jungunternehmen zum Start-up-Wunderkind avancierte, welche Rolle dabei der next media accelerator hatte und worauf es bei der Verwirklichung von Gechäftsideen ankommt.

Mehr lesen
X