Maschine, Mensch, Meinung - Prof. Dr. Andreas Moring zeigt die Potenziale von Künstlicher Intelligenz auf.

KI gegen Propaganda

Kann Machine Learning Fake News erkennen?

Fake News, Lügenkampagnen und automatisierte Propaganda sind eine der größten Herausforderungen für demokratische Gesellschaften, die Politik und alle Media Worker. Künstliche Intelligenz wird von einigen Experten als die ultimative Lösung dieses Problems angepriesen. Zu Recht? Was kann KI gegen Fake News ausrichten – und was nicht?

Der Auftritt vor dem Untersuchungsausschuss des US-Kongresses war ihm ebenso unangenehm wie die Befragung vor dem Ausschuss des Europäischen Parlaments: Mark Zuckerberg, Chef von Facebook, Instagram und WhatsApp, musste sich dafür rechtfertigen, dass seine Plattformen und Messenger-Dienste zu Fake News-Schleudern verkommen seien. Natürlich sollte er auch eine Antwort auf die Frage geben, was er denn dagegen unternehmen wolle. Seine Antwort: KI wird das lösen. Das stimmt. Aber nur zum Teil. Denn die Technologien der Künstlichen Intelligenz können hier zwar massiv helfen, das Problem lösen werden sie aber nicht. Facebook selbst hat das auch erkannt, denn das Unternehmen setzt de facto eben nicht allein auf KI, sondern auch und gerade auf die menschliche Urteilskraft seiner Nutzer.

Und das Problem der Fake News wird nicht unbedingt kleiner. Ganz im Gegenteil: Die Präsidentschaftswahlen in den USA stehen weiter im begründeten Verdacht, durch Fake News zu Gunsten von Donald Trump manipuliert worden zu sein. Auch beim Brexit-Votum sind Falschinformationen gestreut worden – die Folgen spüren wir alle aktueller und deutlicher als je zuvor. Bei der Präsidentschaftswahl in Brasilien nutzte das Team von Wahlgewinner Jair Bolsonaro, massive Fake News-Kampagnen über WhatsApp, um Wähler zu mobilisieren und seine Gegner zu diskreditieren. Im Jahr 2019 stehen wichtige Europawahlen an und spätestens Ende des Jahres wird auch die Politik in den USA wieder voll auf Wahlkampfmodus umschalten. Hochzeiten für Fake News, automatisierte Social-Bot-Armeen und Troll-Fabriken. In Medien, Politik, Unternehmen und der Forschung steht das Thema seither ganz oben auf der Agenda. Auch wenn keine Lösung gefunden ist, lassen sich doch wenigstens erste erfolgversprechende Ansätze finden. Genau genommen handelt es sich hier um vier Ansätze gegen Fake News, die auf Data Science und Künstlicher Intelligenz beruhen: Die Überprüfung einzelner Tatsachenbehauptungen, das Erkennen von gefälschten Artikeln, das Aufspüren und Identifizieren von Trollen und die Bewertung der Glaubwürdigkeit von Nachrichtenquellen.

Geht es um die Glaubwürdigkeit von Nachrichtenquellen, so wurde bisher versucht, die Zuverlässigkeit eines Angebots anhand der Frage zu beurteilen, wie viele seiner Aussagen zu Aussagen passen, die bereits auf ihre Korrektheit überprüft wurden, oder ihnen widersprechen. Eine Maschine vergleicht also die Historie von Tatsachen-Behauptungen der Medien mit den Befunden von Checking-Seiten wie Snopes oder PolitiFact. Doch dieser Mechanismus basiert auf Fakten-Überprüfungen durch menschliche Experten und bezieht sich nur auf die Geschichte eines Angebots, nicht auf die Gegenwart. Künstliche Intelligenz spielt hier also nicht wirklich eine Rolle. Machine Learning und KI können hier aber im nächsten Schritt eingesetzt werden.

Das geht zum Beispiel über das Erkennen von Mustern in Texten oder Fotos. Neuronale Netze lassen sich trainieren, typische Muster und Bestandteile in Fake News zu erkennen. Dazu braucht das Netz für das Training einen möglichst großen Satz an „echten“ Fake News. In einem selbständigen Lernprozess kann das Netz identifizieren, welche Kriterien und Details in diesen Datensätzen immer wieder vorkommen und daraus Gesetzmäßigkeiten und statistische Wahrscheinlichkeiten ableiten. Das ist sowohl für Texte als auch für Bilder und Videos möglich. Kleiner Haken: Das funktioniert nur dann, wenn die falschen Meldungen auch die bekannten und gelernten Kriterien aufweisen. Sind sie modifiziert, von Menschen oder von Algorithmen auf der Gegenseite, dann sind sie nur schwierig zu erkennen.

Word Embeddings und semantische Analyse sind ähnliche Methoden, um Fake News maschinell zu identifizieren. So sind Natural Language Processing und Word Embedding Technologien in der Lage, Wortbedeutungen, Redewendungen oder Ausdrucksweisen zuzuordnen. Basis sind auch hier wieder möglichst große Datenbestände, die durchforstet und analysiert werden. Die Frage, der nachgegangen wird: Welche Worte und Ausdrücke stehen mit welchen anderen in einer statistisch signifikanten Beziehung? Daraus lässt sich ableiten, welche Worte oder Wortkombinationen oder auch welche Synonyme und Umschreibungen in bestimmten Zusammenhängen – in dem Fall Fake News – typisch sind und die KI kann sie identifizieren. Aber auch hier gilt: Nur was aus der Vergangenheit bekannt ist, kann überhaupt gefunden und klassifiziert werden. 

Weil die inhaltlich ausgerichteten KI- und Machine Learning-Methoden bei aller Leistungsfähigkeit eben auch ihre Schwachpunkte haben, wird ein weiteres Verfahren eingesetzt. Auch hier kommen neuronale Netze und Machine Learning-Technologien zum Einsatz, aber bezogen auf andere Basisdaten und sozusagen mit einer anderen Lern- und Suchaufgabe. Dieses Vorgehen orientiert sich an der simplen und treffenden Wahrheit, dass Menschen – oder Systeme – ehrlich sind, mit dem was sie tun. Anstatt also Muster in Texten, Bildern, Videos, Post oder Messenger-Nachrichten und deren Inhalten lernen und erkennen zu wollen, geht es hier darum, Verhaltensmuster oder typische Strategien zu erkennen, die vor allem bei der Lancierung und der Verbreitung von Fake News zum Einsatz kommen, weil sie sich offensichtlich als „erfolgreich“ erwiesen haben. Wenn solche Strategien rechtzeitig erkannt werden, lässt sich durchaus etwas gegen die Verbreitung von Fake News tun und im besten Falle sogar durch Rückverfolgung die Quelle identifizieren. Ein Beispiel wie so etwas in kleinerem Rahmen – nämlich bezogen auf einen Präsidenten und seinen Stab – durchaus gut funktioniert ist der TrumpOrNotBot auf Twitter, der ziemlich treffsicher sagen kann, ob der echte Donald Trump mal wieder Nachrichten absetzt oder nicht.

Mit Künstlicher Intelligenz lässt sich also im Kampf gegen Fake News einiges erreichen, aber der Kampf nicht völlig gewinnen. Auch wenn Marc Zuckerberg das zumindest offiziell behauptet, sein Unternehmen dann aber etwas anderes tut (… siehe oben zum Thema „Ehrlichkeit“). Das liegt an inhärenten Schwachstellen der beschriebenen Methoden, die auch nicht neutralisiert werden können. Das ist zum einen der Mangel an Daten. Je mehr Daten eine KI zum Lernen nutzen kann, umso besser ist ihre Funktionsweise und ihre Erfolgsquote. Bei Falschmeldungen und Propaganda ist es nun mal so, dass sie eben alles andere als transparent und leicht erkennbar sind. Zudem bezieht sich die Datenlage, wie schon beschrieben immer auf die Vergangenheit. Dabei kommt es darauf an, Fake News möglichst schnell im Hier und Jetzt zu erkennen. Des Weiteren sind Machine Learning-Algorithmen umso besser, je eindeutiger ihre Trainingsdaten sind. Was ist aber eine eindeutige „Wahrheit“ in einer freien Medienlandschaft? Können Falschmeldungen und Propaganda zweifelsfrei verglichen und identifiziert werden können? Spätestens hier kommt es also auf menschliche Urteilskraft im Allgemeinen und von Journalisten und Medienprofis im Besonderen an. Denn nur beides zusammen, Machine Learning und menschliche Professionalität, sind der beste und einzige Schutz vor Fake News & Co.

Zum Autor: Professor Doktor Andreas Moring ist Professor für Innovation & Digital Management an der International School of Management ISM in Hamburg. Die Schwerpunkte seiner wissenschaftlichen Arbeit sind Digitale Geschäftsmodelle für Medien und Innovationsmanagement. Vor seiner aktuellen Professur arbeitete er für die Axel Springer AG, Schickler Unternehmensberatung und die Deutsche Druck- und Verlagsgesellschaft. Er wurde für seine journalistische Arbeit und von ihm entwickelte Produkte und Formate in den letzten Jahren mehrfach ausgezeichnet.

Share on facebook
Share on twitter
Share on linkedin
Share on xing
Share on print
Weitere Artikel

newTV-Report zeigt Bewegtbild-Trends auf

Streamingdienste haben in der Corona-Krise Hochkonjunktur – doch wie gut kennt der Algorithmus die Interessen und Vorlieben der Nutzer*innen wirklich? Unser newTV-Report, der in Zusammenarbeit mit dem Umfrageinstitut Civey durchgeführt wurde, zeigt unter anderem: Die Empfehlungssysteme von Streamingdiensten sind durchaus verbesserungswürdig, insbesondere das ältere Publikum zeigt sich größtenteils unzufrieden.

Mehr lesen

Content meets Health: Zukunftsforschung wichtiger denn je

Im Rahmen des Programms Content Foresight blicken wir zusammen mit Innovationstreiber*innen der Branche in die Zukunft der Mediennutzung an der Schnittstelle zu anderen Themenfeldern. Nach dem Schwerpunkt Mobilität im vergangenen Jahr, widmen wir uns 2020 der Gesundheitsbranche. Wir möchten gemeinsam mit Health- und Medienunternehmen untersuchen, wie sich Produktion und Rezeption von Content rund um das Thema Gesundheit in Zukunft verändern.

Mehr lesen

Corona-Krise? Die Chance für kreative Digital-Angebote!

Wo man auch hinschaut finden sich neue, digitale Angebote, die als Antwort auf die gegenwärtige Pandemie verstanden werden können. Gleichzeitig wird die Nutzung vieler bereits vorhandener Service-Angebote vergünstigt angeboten. Wir haben für euch spannende Cases zusammengestellt, die beispielhaft aufzeigen, wie auf die derzeitige Situation reagiert wird und warum die jetzige Situation auch eine Chance sein kann.

Mehr lesen

Hilfe in Zeiten der Corona-Pandemie

Abgesagte Veranstaltungen, leere Konferenzräume, sich wandelnde Geschäftsprozesse – die Verbreitung des neuartigen Coronavirus stellt auch die Medien- und Digitalwirtschaft vor enorme Herausforderungen. Die wirtschaftlichen Auswirkungen sind sowohl für Solo-Selbstständige als auch Unternehmen deutlich spürbar und gefährden mitunter ganze Existenzen. Was es jetzt zu beachten gilt und wo Betroffene Hilfe finden, zeigen wir euch in dieser Übersicht. Der Artikel wird fortlaufend aktualisiert.

Mehr lesen

newTV Kongress 2020 abgesagt

In Anbetracht der zunehmenden Verbreitung des neuartigen Coronavirus SARS-CoV-2 hat nextMedia.Hamburg in Absprache mit den örtlichen Behörden entschieden, den newTV Kongress 2020 abzusagen. Selbstverständlich wird der Kartenpreis in allen Fällen rückerstattet.

Mehr lesen
Was bei BotTalk, WUNDERPARC und Co. zuletzt alles passiert ist, verraten wir euch in diesem MEDIA LIFT Update.

Was wurde eigentlich aus …?

Der Graduation Pitch im Oktober vergangenen Jahres bedeutete für die MEDIA LIFT Teams von Batch 1 das Ende einer sehr aufregenden und lehrreichen Zeit. Exakt 134 Tage sind seitdem nun vergangen und die Teams haben ihre ersten Schritte außerhalb des geschützten Inkubator-Raums gmeacht. Was bei BotTalk, WUNDERPARC und Co. zuletzt alles passiert ist, verraten wir euch in diesem MEDIA LIFT Update.

Mehr lesen
X