Maschine, Mensch, Meinung - Prof. Dr. Andreas Moring erklärt, wie KI gegen Fake News helfen kann.

KI gegen Propaganda

Kann Machine Learning Fake News erkennen?

Fake News, Lügenkampagnen und automatisierte Propaganda sind eine der größten Herausforderungen für demokratische Gesellschaften, die Politik und alle Media Worker. Künstliche Intelligenz wird von einigen Experten als die ultimative Lösung dieses Problems angepriesen. Zu Recht? Was kann KI gegen Fake News ausrichten – und was nicht?

Der Auftritt vor dem Untersuchungsausschuss des US-Kongresses war ihm ebenso unangenehm wie die Befragung vor dem Ausschuss des Europäischen Parlaments: Mark Zuckerberg, Chef von Facebook, Instagram und WhatsApp, musste sich dafür rechtfertigen, dass seine Plattformen und Messenger-Dienste zu Fake News-Schleudern verkommen seien. Natürlich sollte er auch eine Antwort auf die Frage geben, was er denn dagegen unternehmen wolle. Seine Antwort: KI wird das lösen. Das stimmt. Aber nur zum Teil. Denn die Technologien der Künstlichen Intelligenz können hier zwar massiv helfen, das Problem lösen werden sie aber nicht. Facebook selbst hat das auch erkannt, denn das Unternehmen setzt de facto eben nicht allein auf KI, sondern auch und gerade auf die menschliche Urteilskraft seiner Nutzer.

Und das Problem der Fake News wird nicht unbedingt kleiner. Ganz im Gegenteil: Die Präsidentschaftswahlen in den USA stehen weiter im begründeten Verdacht, durch Fake News zu Gunsten von Donald Trump manipuliert worden zu sein. Auch beim Brexit-Votum sind Falschinformationen gestreut worden – die Folgen spüren wir alle aktueller und deutlicher als je zuvor. Bei der Präsidentschaftswahl in Brasilien nutzte das Team von Wahlgewinner Jair Bolsonaro, massive Fake News-Kampagnen über WhatsApp, um Wähler zu mobilisieren und seine Gegner zu diskreditieren. Im Jahr 2019 stehen wichtige Europawahlen an und spätestens Ende des Jahres wird auch die Politik in den USA wieder voll auf Wahlkampfmodus umschalten. Hochzeiten für Fake News, automatisierte Social-Bot-Armeen und Troll-Fabriken. In Medien, Politik, Unternehmen und der Forschung steht das Thema seither ganz oben auf der Agenda. Auch wenn keine Lösung gefunden ist, lassen sich doch wenigstens erste erfolgversprechende Ansätze finden. Genau genommen handelt es sich hier um vier Ansätze gegen Fake News, die auf Data Science und Künstlicher Intelligenz beruhen: Die Überprüfung einzelner Tatsachenbehauptungen, das Erkennen von gefälschten Artikeln, das Aufspüren und Identifizieren von Trollen und die Bewertung der Glaubwürdigkeit von Nachrichtenquellen.

Geht es um die Glaubwürdigkeit von Nachrichtenquellen, so wurde bisher versucht, die Zuverlässigkeit eines Angebots anhand der Frage zu beurteilen, wie viele seiner Aussagen zu Aussagen passen, die bereits auf ihre Korrektheit überprüft wurden, oder ihnen widersprechen. Eine Maschine vergleicht also die Historie von Tatsachen-Behauptungen der Medien mit den Befunden von Checking-Seiten wie Snopes oder PolitiFact. Doch dieser Mechanismus basiert auf Fakten-Überprüfungen durch menschliche Experten und bezieht sich nur auf die Geschichte eines Angebots, nicht auf die Gegenwart. Künstliche Intelligenz spielt hier also nicht wirklich eine Rolle. Machine Learning und KI können hier aber im nächsten Schritt eingesetzt werden.

Das geht zum Beispiel über das Erkennen von Mustern in Texten oder Fotos. Neuronale Netze lassen sich trainieren, typische Muster und Bestandteile in Fake News zu erkennen. Dazu braucht das Netz für das Training einen möglichst großen Satz an „echten“ Fake News. In einem selbständigen Lernprozess kann das Netz identifizieren, welche Kriterien und Details in diesen Datensätzen immer wieder vorkommen und daraus Gesetzmäßigkeiten und statistische Wahrscheinlichkeiten ableiten. Das ist sowohl für Texte als auch für Bilder und Videos möglich. Kleiner Haken: Das funktioniert nur dann, wenn die falschen Meldungen auch die bekannten und gelernten Kriterien aufweisen. Sind sie modifiziert, von Menschen oder von Algorithmen auf der Gegenseite, dann sind sie nur schwierig zu erkennen.

Word Embeddings und semantische Analyse sind ähnliche Methoden, um Fake News maschinell zu identifizieren. So sind Natural Language Processing und Word Embedding Technologien in der Lage, Wortbedeutungen, Redewendungen oder Ausdrucksweisen zuzuordnen. Basis sind auch hier wieder möglichst große Datenbestände, die durchforstet und analysiert werden. Die Frage, der nachgegangen wird: Welche Worte und Ausdrücke stehen mit welchen anderen in einer statistisch signifikanten Beziehung? Daraus lässt sich ableiten, welche Worte oder Wortkombinationen oder auch welche Synonyme und Umschreibungen in bestimmten Zusammenhängen – in dem Fall Fake News – typisch sind und die KI kann sie identifizieren. Aber auch hier gilt: Nur was aus der Vergangenheit bekannt ist, kann überhaupt gefunden und klassifiziert werden. 

Weil die inhaltlich ausgerichteten KI- und Machine Learning-Methoden bei aller Leistungsfähigkeit eben auch ihre Schwachpunkte haben, wird ein weiteres Verfahren eingesetzt. Auch hier kommen neuronale Netze und Machine Learning-Technologien zum Einsatz, aber bezogen auf andere Basisdaten und sozusagen mit einer anderen Lern- und Suchaufgabe. Dieses Vorgehen orientiert sich an der simplen und treffenden Wahrheit, dass Menschen – oder Systeme – ehrlich sind, mit dem was sie tun. Anstatt also Muster in Texten, Bildern, Videos, Post oder Messenger-Nachrichten und deren Inhalten lernen und erkennen zu wollen, geht es hier darum, Verhaltensmuster oder typische Strategien zu erkennen, die vor allem bei der Lancierung und der Verbreitung von Fake News zum Einsatz kommen, weil sie sich offensichtlich als „erfolgreich“ erwiesen haben. Wenn solche Strategien rechtzeitig erkannt werden, lässt sich durchaus etwas gegen die Verbreitung von Fake News tun und im besten Falle sogar durch Rückverfolgung die Quelle identifizieren. Ein Beispiel wie so etwas in kleinerem Rahmen – nämlich bezogen auf einen Präsidenten und seinen Stab – durchaus gut funktioniert ist der TrumpOrNotBot auf Twitter, der ziemlich treffsicher sagen kann, ob der echte Donald Trump mal wieder Nachrichten absetzt oder nicht.

Mit Künstlicher Intelligenz lässt sich also im Kampf gegen Fake News einiges erreichen, aber der Kampf nicht völlig gewinnen. Auch wenn Marc Zuckerberg das zumindest offiziell behauptet, sein Unternehmen dann aber etwas anderes tut (… siehe oben zum Thema „Ehrlichkeit“). Das liegt an inhärenten Schwachstellen der beschriebenen Methoden, die auch nicht neutralisiert werden können. Das ist zum einen der Mangel an Daten. Je mehr Daten eine KI zum Lernen nutzen kann, umso besser ist ihre Funktionsweise und ihre Erfolgsquote. Bei Falschmeldungen und Propaganda ist es nun mal so, dass sie eben alles andere als transparent und leicht erkennbar sind. Zudem bezieht sich die Datenlage, wie schon beschrieben immer auf die Vergangenheit. Dabei kommt es darauf an, Fake News möglichst schnell im Hier und Jetzt zu erkennen. Des Weiteren sind Machine Learning-Algorithmen umso besser, je eindeutiger ihre Trainingsdaten sind. Was ist aber eine eindeutige „Wahrheit“ in einer freien Medienlandschaft? Können Falschmeldungen und Propaganda zweifelsfrei verglichen und identifiziert werden können? Spätestens hier kommt es also auf menschliche Urteilskraft im Allgemeinen und von Journalisten und Medienprofis im Besonderen an. Denn nur beides zusammen, Machine Learning und menschliche Professionalität, sind der beste und einzige Schutz vor Fake News & Co.

Zum Autor: Professor Doktor Andreas Moring ist Professor für Innovation & Digital Management an der International School of Management ISM in Hamburg. Die Schwerpunkte seiner wissenschaftlichen Arbeit sind Digitale Geschäftsmodelle für Medien und Innovationsmanagement. Vor seiner aktuellen Professur arbeitete er für die Axel Springer AG, Schickler Unternehmensberatung und die Deutsche Druck- und Verlagsgesellschaft. Er wurde für seine journalistische Arbeit und von ihm entwickelte Produkte und Formate in den letzten Jahren mehrfach ausgezeichnet.

Share on facebook
Share on twitter
Share on linkedin
Share on xing
Share on print
Weitere Artikel
Bis zum 12.05. kann man sich noch für unseren Inkubator MEDIA LIFT bewerben.

Wie ein Inkubator bei der Realisierung von Geschäftsideen hilft

Inkubatoren, Acceleratoren und Company-Builder bieten Vordenkern die Möglichkeit, innovative Geschäftsideen auf- und auszubauen und diese auf den harten Wettbewerb im freien Markt vorzubereiten. Die Teilnehmer*innen profitieren dabei je nach Gestaltung des Förderprogramms von Mentoring-Angeboten, finanzieller Unterstützung und/oder Infrastruktur.

Mehr lesen
Gründerin und Geschäftsführerin von THE DISTRIQT: Charlotte Richter-Kiewning

MEDIA LIFT-Mentorin Charlotte Richter-Kiewning (THE DISTRIQT) im Gespräch

Groß denken und die eigenen Ideen konsequent verfolgen – das ist das Motto von Charlotte Richter-Kiewning, die mit ihrem Digitalverlag THE DISTRIQT „Digital Entertainment for Female Millenials“ verspricht. Worauf es bei der Realisierung von Ideen ankommt und welche Tugenden Ideengeber mitbringen sollten, hat uns die studierte Medienwissenschaftlerin im Gespräch verraten.

Mehr lesen
Pure Euphorie trotz 48-Stunden-Ideen-Marathon: Die Teams und Jurymitglieder des Hackathon „NEWS_FIND_ME“. Foto: Benjamin Hüllenkremer

Hackathon „NEWS_FIND_ME“

Wie und wo erreichen uns Nachrichten in Zukunft? Diese und weitere spannende Fragen wurden beim Hackathon „NEWS_FIND_ME“ bearbeitet, den Dr. Stephan Weichert, Studiengangsleiter „Digital Journalism“ an der Hamburg Media School, in Kooperation mit dem next media accelerator, NOZ MEDIEN und m:hn Medien, dem NDR, N-JOY und uns veranstaltet hat.

Mehr lesen
Artificial Storytelling gewinnt zunehmend an Bedeutung

Whitepaper zum Thema Artificial Storytelling

Wie transformiert Artificial Storytelling, also automatisiertes Geschichtenerzählen, die journalistische Contentproduktion? Und wie wirkt sich der Einsatz neuartiger, intelligenter Technologien auf die Arbeit der Medienschaffenden in Gegenwart und Zukunft aus? In unserem Whitepaper werfen wir einen Blick auf die Einsatzgebiete Künstlicher Intelligenz.

Mehr lesen
Stellte beim newTV Kongress 2019 das Konzept von aiconix vor: Eugen Gross. Bildcredits: Selim Sudheimer

Inkubator-Mentor Eugen Gross (aiconix) gibt Tipps für Gründungswillige

Mit seiner KI-Plattform durchlief er selbst diverse Förderprogramme, beim Media Lift, dem Inkubator von nextMedia.Hamburg fungiert er nun als Mentor. Die Rede ist von Eugen Gross, Gründer und CEO von aiconix. Wir haben uns mit ihm über die Gründung seines Start-ups, die Vorteile von Interdisziplinarität sowie die Angst vorm Scheitern unterhalten.

Mehr lesen
Am 26. April werden Ideen entwickelt und konkretisiert.

XCreation bringt Gründungswillige zusammen

XCreation bietet Studierenden, Absolventinnen und Absolventen sowie Gründungsinteressierten die Möglichkeit, innovative Geschäftsideen an der Schnittstelle von Content und Technologie zu diskutieren und passende Teammitglieder für die Teilnahme am Inkubator zu finden. Die ganztägige Veranstaltung findet am 26. April im Hamburger Oberhafen statt.

Mehr lesen
X