Wahr oder falsch?

Verdrehte Tatsachen und dubiose Behauptungen verbreiten sich im Netz rasant. Das Projekt Prevent will Institutionen wie der Polizei helfen, das zu unterbinden.

Vergangenen Dezember kursierte die Nachricht in den Sozialen Medien, ein 13-Jähriger aus Zerbst (Sachsen-Anhalt) sei nach einer Corona-Zwangsimpfung gestorben. Die Stadt wolle den Fall vertuschen. Eine Lüge. Die Stimmung kochte so hoch, dass eine Schule Drohungen erhielt.

Falschmeldungen wie diese sorgen für einen gefährlichen Sog. Sie verunsichern die Menschen, säen Zwietracht und verzerren das gesellschaftliche Meinungsbild. Nun gibt es Institutionen, die großes Vertrauen genießen, wie Polizei und Feuerwehr. Sie sind zunehmend auf digitalen Kanälen aktiv und könnten gegensteuern, damit gefälschte Texte, Fotos oder Videos nicht massenhaft geteilt werden; doch oft gibt es Unklarheiten, wie mit solchen Inhalten umzugehen ist. PREVENT* soll hier helfen. In diesem Projekt arbeiten vier Universitäten und eine Softwarefirma zusammen – gefördert mit 1,6 Millionen Euro vom Bundesforschungsministerium.


* PREVENT steht für Trainingsansatz
zur Vermittlung von Maßnahmen zur Präven­tion digitaler Desinformationskampagnen.

„In den kommenden drei Jahren werden wir für Behörden und Organisationen, die mit Sicherheitsaufgaben betraut sind, Trainings und technische Tools entwickeln, damit sie Desinformationskampagnen im Netz erkennen und ihnen vorbeugen können“, erklärt Professor Dr. Stefan Stieglitz. Der Experte für digitale Kommunikation leitet das Projekt, bei dem auch Methoden der Künstlichen Intelligenz eingesetzt werden.

Was macht eine Desinformation aus?

Sie wird gezielt verbreitet, um Menschen zu täuschen, zu schaden oder um demokratische Debatten zu untergraben. „Die irreführenden Informationen können inhaltlich falsch, aber auch aus dem Kontext gerissen sein“, sagt Projektmitarbeiterin Jennifer Fromm. „Dahinter können finanzielle oder Machtinteressen stehen, ebenso politische Motive – bis hin zu dem Ziel, die politische Ordnung zu zerstören.“

Dass Nachrichten manipuliert und anschließend gestreut werden, hat es in allen Epochen gegeben. Heute jedoch gehören Fake News zu unserem Alltag. Und ihre Zahl steigt, wenn das Bedürfnis, mehr zu wissen, hoch ist: in Krisen wie der Covid 19-Pandemie, bei kontroversen Debatten, etwa um Flüchtlinge, oder vor wichtigen Wahlen – wie dem US-Wahlkampf 2020. Anders als in analogen Zeiten sind Desinformationen durch die digitalen Medien rasend schnell in der Welt und lassen sich kaum vollständig löschen; sie zu erkennen, wird außerdem immer schwieriger, weil sie klassischen Nachrichten oft täuschend ähnlich sehen. Oft werden Falschmeldungen koordiniert verbreitet, durch reale Personen, aber auch durch Social Bots (also Programme, die so tun, als seien sie Menschen). Die Kanäle dafür sind die Sozialen Medien, Webseiten und Messengerdienste.

Wer ist anfällig?

Wenn Menschen Unwahres teilen und somit helfen, dass es viral geht, geschieht dies selten aus böser Absicht. Einige Studien besagen, jüngere Menschen sind empfänglicher für Desinformationen, bei anderen sind es die Älteren. Professor Stieglitz und Doktorandin Fromm halten weniger das Alter für entscheidend als die Medienkompetenz des einzelnen und ob jemand Informationen grundsätzlich hinterfragt. „Viele überschätzen ihre Fähigkeit, Fake News zu erkennen. Und selbst wer versiert im Umgang mit Medien und ihren Inhalten ist, kann auf sie reinfallen“, sagt Stieglitz.

Psychologische Aspekte tragen dazu bei: Wenn viele eine Information glauben und verbreiten, hält man sie schneller für wahr. Geteilt wird gerne, was starke Emotionen hervorruft. „Auch glaubt man lieber das, was dem eigenen Weltbild entspricht. Dieses Phänomen nennt man Confirmation Bias, zu Deutsch: Bestätigungsfehler“, so Stefan Stieglitz. Hierdurch kann man in Filterblasen geraten, in denen die eigene Sicht fortlaufend bestätigt wird. Man empfindet diese dann nicht mehr als nur eine Meinung von vielen und reflektiert das Thema ungenügend. Auch Chatgruppen von Messengerdiensten können eine Blase sein und das Gefühl vorgaukeln, man sei in der Mehrheit.

„Viele überschätzen ihre Fähigkeit, Fake News zu erkennen. Und selbst wer versiert im Umgang mit Medien und ihren Inhalten ist, kann auf sie reinfallen.“

Professor Stefan Stieglitz

Die Rolle vertrauenswürdiger Organe


Das beste Mittel, Unwahres auf digitalen Kanälen klein zu halten, ist eine glaubwürdige Quelle. „Ein Tweet von offiziellen Akteuren kann dazu beitragen, eine Falschinformation wirksam zu korrigieren,“, betont Jennifer Fromm, „erst recht, wenn die Einrichtung oder Person gut angesehen ist und ihr Expertise zugeschrieben wird. Arbeiten mehrere vertrauenswürdige Organe koordiniert zusammen, können sie präventiv noch besser gegen Fake-News-Kampagnen vorgehen.“

Ein Problem für Polizei und andere zentrale Akteure: Millionen Posts fluten täglich das Netz und die Sozialen Medien. „Es lässt sich also nur mit großem Aufwand feststellen, was wahr ist. Daneben muss man bewerten, was unter Meinungsfreiheit fällt“, sagt der 44-jährige Professor. Die Partner im Projekt PREVENT wollen deshalb auch ethisch-rechtliche Fragen klären, etwa nach welchen Regeln staatliche Stellen Diskussionen im Netz beeinflussen sollten und dürfen.

Maschinelles Lernen


„Zur automatischen Erkennung von Falschnachrichten wollen wir ein System entwickeln, das auf Machine-Learning-Ansätzen beruht. Um das System zu trainieren, werden wir u.a. Social-Media-Daten nutzen, die bei Desinformationskampagnen während der COVID-19 Pandemie entstanden“, erklärt Stefan Stieglitz. „Der Algorithmus lernt dabei permanent hinzu, erkennt Muster und Zusammenhänge und kann Desinformationen zu anderen Themen erkennen.“ Vorstellbar ist auch, dass ein gutartiges Bot-Netzwerk Fake News detektiert und bei den Plattformbetreibern meldet.

Auch die Gegenseite nutzt Künstliche Intelligenz. Stichwort Deepfakes, perfekt gefälschte Videos. Schon jetzt ist es möglich, Personen auszutauschen oder Stimmen so zu manipulieren bzw. zu imitieren, dass jemand abstruse Aussagen trifft. Kämpft man da nicht gegen Windmühlen? „Keine Frage, die Mechanismen werden immer besser, die Bedeutung von Sozialen Medien wird weiter wachsen und somit auch die Zahl an Falschinformationen“, mein Stefan Stieglitz. „Wir brauchen daher dringend Strategien, um sie einzudämmen. Hierzu zählt, fragliche Informationen zu markieren, Falschnachrichten öffentlich zu widerlegen oder groß angelegte Manipulationsversuche aufzudecken.“ Im Fall des mutmaßlichen Impftoten sorgte übrigens der Bürgermeister der betroffenen Stadt rasch und energisch für Aufklärung.


Professor Stefan Stieglitz (44) leitet die Forschungsgruppe Digicat. Sie untersucht die digitale Transformation und deren Auswirkungen auf ­Unternehmen, andere Orga­nisationen ­sowie auf Gesellschaft und Individuen. Die Forschung ist interdisziplinär ausgerichtet und basiert auf fort­geschrittenen Methoden der Datensammlung und -analyse.


Wie erkennt man Desinformation?
Jennifer Fromm empfiehlt u.a. diese Seite der Bundesregierung:
http://udue.de/desinformation

Foto: Adobestock.com; Bearbeitung: UDE

Start typing and press Enter to search